І чому це тепер проблема не лише знаменитостей.
Чому всі взагалі обговорюють роздягання фото з ІІ
Якщо коротко, то через Ілона Маска. Якщо докладніше, то в соцмережі X (колишня Twitter) додали функцію модифікації чужих фотографій через вбудований бот Grok. Достатньо було тегнути його в коментарях до знімку та попросити змінити зображення на запит. І — хто б міг подумати — користувачі відразу почали вимагати роздягнути людей на фото, змінити одяг на мікробікіні, прийняти конкретні пози, обмаститися олією і так далі. Результати незалежного виявилися очікуваними, але від цього не менш огидними:
Щогодини Grok генерував близько 6700 зображень з оголенням або сексуалізацією користувачів.
Підрахували це найінтуїтивнішим методом: 24 години відстежували медіа, які викладає офіційний обліковий запис @grok. Інформація є загальнодоступною — відображається прямо у профілі.

Функція з'явилася наприкінці грудня 2025 року, але вже на початку 2026-го ситуація загострилася. Мережа почала наповнюватися у тому, що бот роздягає як повнолітніх дівчат, які явно не давали на це згоди, а й підлітків. Проти X офіційні розслідування в Європі, Індії та Малайзії, ситуацією зацікавився Національний центр боротьби із сексуальною експлуатацією в США.
Маск швидко у своєму акаунті X, що він не має інформації про хоча б один приклад генерації оголених зображень підлітків через Grok. І звинуватив у всьому користувачів: мовляв, бот робить тільки те, що йому кажуть, але при цьому відмовляється створювати нелегальний контент та підкоряється законам різних країн та штатів.

Проблеми у генерації подібних зображень Маск, схоже, не бачив. Але під тиском рекламодавців та ризику блокувань (у Малайзії та Індонезії влада вже обмежила доступ) у Grok спочатку залишили можливість створення фото тільки для платних передплатників, а пізніше повністю генерувати картинки з людьми у відкритому та зухвалому одязі.
Невже раніше дипфейків не було
Звісно, були. Ще в 2019-му стала популярною нейромережа DeepNude, яка обіцяла в пару кліків роздягнути дівчат на фото, — і з тих пір з'являлася і вмирала безліч аналогів у різній упаковці. Деякі маскувались під звичайні нейромережні редактори, в яких оголення було одним із доступних фільтрів. Інші ж не намагалися шифруватися і підсвічували основну функцію відкрито.
При цьому для пошуку таких інструментів навіть не потрібно глибоко копати і лізти в даркне.
Сучасні моделі на кшталт SDXL при локальному запуску дозволяють оминати вбудовану цензуру. А спеціалізовані сайти, програми та навіть телеграм-боти продовжують працювати, пропонуючи аналогічні функції — найчастіше в пару кліків і без навичок користування нейромережами.
Особливість Grok у тому, що процес відбувався прямо у соціальній мережі: користувачі буквально під викладеною фотографією могли публічно запросити модифікацію. Це і стало джерелом підвищеної суспільної уваги.
Звичайно, якщо копнути глибше, то користувачі ще з появи перших фоторедакторів підганяли обличчя людей до тіла моделей Playboy. Просто тоді праця була ручною, займала більше часу і вимагала хоч якихось навичок. А результат, найімовірніше, ніколи не залишав комп'ютер, на якому його створили.
У чому тоді різниця
Головна відмінність функції, яка дала людям ще один привід ненавидіти Ілона Маска, від інших інструментів — прозорість. Так, зважаючи на все, у Grok був якийсь фільтр і він відмовлявся генерувати досконалу наготу. Але це був інструмент із найлегшим доступом, який, до того ж, виставляв результати на загальний огляд. І це погано одразу з кількох причин.
По-перше, очевидно, підвищилася віральність. Фотографії були у відкритому доступі — а отже, будь-хто міг подивитися, зберегти або згенерувати свій варіант. В результаті такі неузгоджені компрометуючі зображення швидко розліталися. По-друге, знизився поріг входження.
Більше не потрібно морочитися та шукати спеціальний сервіс, який майже напевно виявився б платним. Все можна зробити прямо в соцмережі в пару кліків.
Ну і по-третє, тренд дав відчуття вседозволеності. Тут спрацював відомий психологічний ефект соціального доказу: у нових та сумнівних ситуаціях люди схильні орієнтуватися не на власні принципи, а на те, як поводяться оточуючі. У звичайному житті працює зрозуміла проста логіка: якщо я згенерую напівголі зображення знайомої дівчини чи знаменитості, та ще й опублікую їх, всі вважають мене крипом.
Але якщо решта користувачів розважається з новим інструментом, персональна відповідальність розмивається: всім можна — чому б і мені не спробувати? У результаті до тренду підтягнулися ті, хто в іншому випадку навіть не подумав би когось роздягати та шукати кошти, що дозволяють це зробити.
При цьому, як не противно визнавати, Grok у чомусь навіть чесніше згаданих раніше DeepNude та його ідейних спадкоємців.
Кого зазвичай роздягають
Коли дипфейки тільки з'явилися, було відчуття, що технологія найсильніше вдарить по знаменитостям та їхній репутації. І загалом це справедливо, адже у різний час сумнівні ентузіасти масово генерували роздягнені та просто дивні фото Галь Гадот, Тейлор Свіфт, Скарлет Йоханссон, Дженни Ортегі, Сідні Суїні та багатьох інших артисток. До того ж випадків, коли щось подібне робили зі знаменистостями-чоловіками, не документувалося.
Звичайно, це не означає, що чоловіків ніколи не роздягають за допомогою ІІ і не генерують з ними інший сексуалізований контент. Але гендерний дисбаланс дипфейків є: страждають переважно жінки. За деякими даними, вони становлять усіх жертв — хоча точні числа, зрозуміло, підрахувати неможливо.
І важливо розуміти, що ці «до 99%» далеко не завжди відомі жінки з ресурсами для того, щоб боротися проти згенерованого контенту з ними. Зрозуміло, що все, що потрапляє до інтернету, залишається в ньому назавжди. Але зірки можуть найняти представників, які вимагатимуть видалення сумнівних фото та відео, а їхні фанати здатні стрічки шквалом фото та відео з концертів, щоб знайти в цьому потоці дипфейки було практично неможливо. Тобто так, селебріті — вірогідніша мета, але також їм легше себе захистити.
Звичайних жінок теж можуть роздягнути — і, як показав інцидент з Grok, роздягають, але у них протидії куди менше. Багато в чому тому, що оточуючим може здаватися: ну кому вона потрібна, щоб дипфейки клепати? Очистити репутацію, або навіть пояснити ситуацію близьким старшого покоління відчутно складніше.
Чому так відбувається
Для високих технологій мотивація у таких «роздягань» напрочуд приземлена. Це банальна розвага та ефект новизни: людям цікаво протестувати інструмент та подивитися, що вийде. Як фотожаби та демотиватори, які в якийсь момент усім було дуже кумедно клепати, — лише ставка вища, бо об'єктом стає реальна людина.
Але якщо ціль не розвага, то фарби різко згущуються. Такі зображення можуть бути важелем для шантажу і тиску.
Дослідники фіксують випадки, коли згенеровані оголені зображення використовують для здирництва грошей чи інтимних матеріалів — особливо серед підлітків та студентів. Причому жертвами найчастіше неповнолітні дівчата.
Також це зручний спосіб цькування та руйнування репутації. Для буллінгу більше не потрібно нічого видобувати, відстежувати та підтасовувати — достатньо фотографії з відкритого профілю та кількох доларів на генерацію. Поріг входу мінімальний, довести підробленість складно, а психологічна шкода наноситься миттєво.
Навіть якщо людина зможе пояснити, що це фейк, і йому повірять, осад залишиться, адже спрацьовує когнітивне спотворення «немає диму без вогню». Мовляв, не генеруватимуть таке без приводу. На жаль, будуть.

Зрештою, є також і комерційний стимул. На платформах на кшталт OnlyFans та Fanvue продається контент із ІІ-моделями, чиї особи взяті у реальних людей — блогерів, знайомих чи випадкових дівчат із соцмереж. Журналісти 404 Media схеми, як це масово генерується і монетизується без згоди прототипів. З погляду «автора» таких моделей все ніби нешкідливе: він же нічого не вкрав і нікого не експлуатував — все малювала нейромережу. Але за фактом використовується чужа ідентичність та зовнішність, а розбиратися з наслідками — пояснювати ситуацію сім'ї, роботодавцю, партнеру доводиться жертві.
Як із цим намагаються боротися
На рівні контенту є стандартні механізми. Можна надіслати скаргу до соцмережі або на хостинг, пославшись на порушення приватності або несанкціоноване використання зображення. Великі платформи дійсно видаляють такі матеріали, але проблема у швидкості: копії розлітаються швидше, ніж їх встигають чистити.
Деякі країни почали запроваджувати пряму кримінальну чи адміністративну відповідальність за несанкціоновані сексуалізовані дипфейки. У США на початку 2026 року було федеральний закон DEFIANCE Act, що дозволяє жертвам подавати цивільні позови до творців контенту. У Великій Британії поправки до Закону про безпеку в інтернеті криміналізують розповсюдження інтимних зображень без згоди, включаючи згенеровані версії. У деяких країнах Азії також йдуть розслідування та блокування сервісів, є перші випадки за створення та розповсюдження дипфейків.
У Росії аналогічних норм поки немає, тому постраждалим доводиться спиратися на загальні статті про наклеп, порушення приватного життя та поширення порнографії.
Паралельно магазини програм намагаються різати інфраструктуру. Google Play і App Store регулярно видаляють програми, що прямо рекламують функції роздягання та створення дипфейків, але розробники маскують їх під звичайні ІІ-редактори і повертають під новими іменами. Це нагадує боротьбу з гідрою: закриваєш один сервіс – з'являються три клони. Тому багато дослідників пропонують зміщувати фокус з модерації готових картинок на обмеження самих інструментів та юридичну відповідальність користувачів, а не тільки майданчиків.
Але поки подібні сервіси доступні і дешеві (а іноді навіть безкоштовні), а реальне покарання за їх використання – поодинокі випадки десь за океаном, ніхто не захищений від того, що завтра його (а будемо чесні, її) оголені або напівоголені ІІ-фотографії можуть піти гуляти. Хотілося б вірити, що всі різко схаменуться і подумають, чи не дичину вони творять. Але, швидше за все, без підвищення порога входу та реальних судових наслідків проблема залишиться системною та масовою, а не долею нечисленних сумнівних особистостей із Photoshop та тонкою вільного часу.
