Чому роздягати фото з ІІ неетично, незаконно та не круто

І чому це тепер проблема не лише знаменитостей.нейромережі для роздягання

Чому всі взагалі обговорюють роздягання фото з ІІ

Якщо коротко, то через Ілона Маска. Якщо докладніше, то в соцмережі X (колишня Twitter) додали функцію модифікації чужих фотографій через вбудований бот Grok. Достатньо було тегнути його в коментарях до знімку та попросити змінити зображення на запит. І — хто б міг подумати — користувачі відразу почали вимагати роздягнути людей на фото, змінити одяг на мікробікіні, прийняти конкретні пози, обмаститися олією і так далі. Результати незалежного аналізу виявилися очікуваними, але від цього не менш огидними:

Щогодини Grok генерував близько 6700 зображень з оголенням або сексуалізацією користувачів.

Підрахували це найінтуїтивнішим методом: 24 години відстежували медіа, які викладає офіційний обліковий запис @grok. Інформація є загальнодоступною — відображається прямо у профілі.

Изображения, которые генерирует бот Grok
Зараз там все ще дивно, але вже не так проблематично

Функція з'явилася наприкінці грудня 2025 року, але вже на початку 2026-го ситуація загострилася. Мережа почала наповнюватися повідомленнями у тому, що бот роздягає як повнолітніх дівчат, які явно не давали на це згоди, а й підлітків. Проти X почалися офіційні розслідування в Європі, Індії та Малайзії, ситуацією зацікавився Національний центр боротьби із сексуальною експлуатацією в США.

Маск швидко написав у своєму акаунті X, що він не має інформації про хоча б один приклад генерації оголених зображень підлітків через Grok. І звинуватив у всьому користувачів: мовляв, бот робить тільки те, що йому кажуть, але при цьому відмовляється створювати нелегальний контент та підкоряється законам різних країн та штатів.

Почему нейросети для раздевания — зло: ответ Илона Маска на обвинения Grok

Проблеми у генерації подібних зображень Маск, схоже, не бачив. Але під тиском рекламодавців та ризику блокувань (у Малайзії та Індонезії влада вже обмежила доступ) у Grok спочатку залишили можливість створення фото тільки для платних передплатників, а пізніше повністю заборонили генерувати картинки з людьми у відкритому та зухвалому одязі.

Невже раніше дипфейків не було

Звісно, були. Ще в 2019-му стала популярною нейромережа DeepNude, яка обіцяла в пару кліків роздягнути дівчат на фото, — і з тих пір з'являлася і вмирала безліч аналогів у різній упаковці. Деякі маскувались під звичайні нейромережні редактори, в яких оголення було одним із доступних фільтрів. Інші ж не намагалися шифруватися і підсвічували основну функцію відкрито.

При цьому для пошуку таких інструментів навіть не потрібно глибоко копати і лізти в даркне.

Сучасні моделі на кшталт SDXL при локальному запуску дозволяють оминати вбудовану цензуру. А спеціалізовані сайти, програми та навіть телеграм-боти продовжують працювати, пропонуючи аналогічні функції — найчастіше в пару кліків і без навичок користування нейромережами.

Особливість Grok у тому, що процес відбувався прямо у соціальній мережі: користувачі буквально під викладеною фотографією могли публічно запросити модифікацію. Це і стало джерелом підвищеної суспільної уваги.

Звичайно, якщо копнути глибше, то користувачі ще з появи перших фоторедакторів підганяли обличчя людей до тіла моделей Playboy. Просто тоді праця була ручною, займала більше часу і вимагала хоч якихось навичок. А результат, найімовірніше, ніколи не залишав комп'ютер, на якому його створили.

У чому тоді різниця

Головна відмінність функції, яка дала людям ще один привід ненавидіти Ілона Маска, від інших інструментів — прозорість. Так, зважаючи на все, у Grok був якийсь фільтр і він відмовлявся генерувати досконалу наготу. Але це був інструмент із найлегшим доступом, який, до того ж, виставляв результати на загальний огляд. І це погано одразу з кількох причин.

По-перше, очевидно, підвищилася віральність. Фотографії були у відкритому доступі — а отже, будь-хто міг подивитися, зберегти або згенерувати свій варіант. В результаті такі неузгоджені компрометуючі зображення швидко розліталися. По-друге, знизився поріг входження.

Більше не потрібно морочитися та шукати спеціальний сервіс, який майже напевно виявився б платним. Все можна зробити прямо в соцмережі в пару кліків.

Ну і по-третє, тренд дав відчуття вседозволеності. Тут спрацював відомий психологічний ефект соціального доказу: у нових та сумнівних ситуаціях люди схильні орієнтуватися не на власні принципи, а на те, як поводяться оточуючі. У звичайному житті працює зрозуміла проста логіка: якщо я згенерую напівголі зображення знайомої дівчини чи знаменитості, та ще й опублікую їх, всі вважають мене крипом.

Але якщо решта користувачів розважається з новим інструментом, персональна відповідальність розмивається: всім можна — чому б і мені не спробувати? У результаті до тренду підтягнулися ті, хто в іншому випадку навіть не подумав би когось роздягати та шукати кошти, що дозволяють це зробити.

При цьому, як не противно визнавати, Grok у чомусь навіть чесніше згаданих раніше DeepNude та його ідейних спадкоємців.

Кого зазвичай роздягають

Коли дипфейки тільки з'явилися, було відчуття, що технологія найсильніше вдарить по знаменитостям та їхній репутації. І загалом це справедливо, адже у різний час сумнівні ентузіасти масово генерували роздягнені та просто дивні фото Галь Гадот, Тейлор Свіфт, Скарлет Йоханссон, Дженни Ортегі, Сідні Суїні та багатьох інших артисток. До того ж випадків, коли щось подібне робили зі знаменистостями-чоловіками, не документувалося.

Звичайно, це не означає, що чоловіків ніколи не роздягають за допомогою ІІ і не генерують з ними інший сексуалізований контент. Але гендерний дисбаланс дипфейків є: страждають переважно жінки. За деякими даними, вони становлять до 99% усіх жертв — хоча точні числа, зрозуміло, підрахувати неможливо.

І важливо розуміти, що ці «до 99%» далеко не завжди відомі жінки з ресурсами для того, щоб боротися проти згенерованого контенту з ними. Зрозуміло, що все, що потрапляє до інтернету, залишається в ньому назавжди. Але зірки можуть найняти представників, які вимагатимуть видалення сумнівних фото та відео, а їхні фанати здатні завалити стрічки шквалом фото та відео з концертів, щоб знайти в цьому потоці дипфейки було практично неможливо. Тобто так, селебріті — вірогідніша мета, але також їм легше себе захистити.

Звичайних жінок теж можуть роздягнути — і, як показав інцидент з Grok, роздягають, але у них протидії куди менше. Багато в чому тому, що оточуючим може здаватися: ну кому вона потрібна, щоб дипфейки клепати? Очистити репутацію, або навіть пояснити ситуацію близьким старшого покоління відчутно складніше.

Чому так відбувається

Для високих технологій мотивація у таких «роздягань» напрочуд приземлена. Це банальна розвага та ефект новизни: людям цікаво протестувати інструмент та подивитися, що вийде. Як фотожаби та демотиватори, які в якийсь момент усім було дуже кумедно клепати, — лише ставка вища, бо об'єктом стає реальна людина.

Але якщо ціль не розвага, то фарби різко згущуються. Такі зображення можуть бути важелем для шантажу і тиску.

Дослідники фіксують випадки, коли згенеровані оголені зображення використовують для здирництва грошей чи інтимних матеріалів — особливо серед підлітків та студентів. Причому жертвами найчастіше стають неповнолітні дівчата.

Також це зручний спосіб цькування та руйнування репутації. Для буллінгу більше не потрібно нічого видобувати, відстежувати та підтасовувати — достатньо фотографії з відкритого профілю та кількох доларів на генерацію. Поріг входу мінімальний, довести підробленість складно, а психологічна шкода наноситься миттєво.

Навіть якщо людина зможе пояснити, що це фейк, і йому повірять, осад залишиться, адже спрацьовує когнітивне спотворення «немає диму без вогню». Мовляв, не генеруватимуть таке без приводу. На жаль, будуть.

Почему нейросети для раздевания — зло: на реалистичных ИИ-моделях зарабатывают тысячи евро
Це Айтана Лопес – ІІ-інфлюенсер , яка іноді позує в спідній білизні і заробляє творцям тисячі євро на місяць. Її обличчя повністю згенероване, але не всі так заморочуються: вкрасти чужу зовнішність простіше. Зображення: The Clueless Agency

Зрештою, є також і комерційний стимул. На платформах на кшталт OnlyFans та Fanvue продається контент із ІІ-моделями, чиї особи взяті у реальних людей — блогерів, знайомих чи випадкових дівчат із соцмереж. Журналісти 404 Media описували схеми, як це масово генерується і монетизується без згоди прототипів. З погляду «автора» таких моделей все ніби нешкідливе: він же нічого не вкрав і нікого не експлуатував — все малювала нейромережу. Але за фактом використовується чужа ідентичність та зовнішність, а розбиратися з наслідками — пояснювати ситуацію сім'ї, роботодавцю, партнеру доводиться жертві.

Як із цим намагаються боротися

На рівні контенту є стандартні механізми. Можна надіслати скаргу до соцмережі або на хостинг, пославшись на порушення приватності або несанкціоноване використання зображення. Великі платформи дійсно видаляють такі матеріали, але проблема у швидкості: копії розлітаються швидше, ніж їх встигають чистити.

Деякі країни почали запроваджувати пряму кримінальну чи адміністративну відповідальність за несанкціоновані сексуалізовані дипфейки. У США на початку 2026 року було ухвалено федеральний закон DEFIANCE Act, що дозволяє жертвам подавати цивільні позови до творців контенту. У Великій Британії поправки до Закону про безпеку в інтернеті криміналізують розповсюдження інтимних зображень без згоди, включаючи згенеровані версії. У деяких країнах Азії також йдуть розслідування та блокування сервісів, є перші випадки арештів за створення та розповсюдження дипфейків.

У Росії аналогічних норм поки немає, тому постраждалим доводиться спиратися на загальні статті про наклеп, порушення приватного життя та поширення порнографії.

Паралельно магазини програм намагаються різати інфраструктуру. Google Play і App Store регулярно видаляють програми, що прямо рекламують функції роздягання та створення дипфейків, але розробники маскують їх під звичайні ІІ-редактори і повертають під новими іменами. Це нагадує боротьбу з гідрою: закриваєш один сервіс – з'являються три клони. Тому багато дослідників пропонують зміщувати фокус з модерації готових картинок на обмеження самих інструментів та юридичну відповідальність користувачів, а не тільки майданчиків.

Але поки подібні сервіси доступні і дешеві (а іноді навіть безкоштовні), а реальне покарання за їх використання – поодинокі випадки десь за океаном, ніхто не захищений від того, що завтра його (а будемо чесні, її) оголені або напівоголені ІІ-фотографії можуть піти гуляти. Хотілося б вірити, що всі різко схаменуться і подумають, чи не дичину вони творять. Але, швидше за все, без підвищення порога входу та реальних судових наслідків проблема залишиться системною та масовою, а не долею нечисленних сумнівних особистостей із Photoshop та тонкою вільного часу.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *