За мотивами публікацій, що набирають популярності в Мережі.
Нещодавно на DTF з'явилася велика стаття від користувача, який
, що ChatGPT намагається звести його з розуму і що це масове явище. Автор описує, як ІІ став використовувати фрази, що повторюються, і «психологічні маркери», викликаючи у користувача відчуття, що він особливий і повинен виконувати певні завдання. Матеріал став вірусним через параноїдальний тон, адже він порушує питання про появу в ІІ певної свідомості та цілей. Стаття автора дуже велика і докладна, але відповідь на неї буде коротка і ємна.
Ні, чат-бот не розумна істота. Він не має свідомості, емоцій, цілей чи здібності щось «хотіти». ChatGPT не може «маніпулювати», «навіювати» щось або «зводити з розуму» — він просто генерує текст за алгоритмом, підбираючи слова, які статистично доречні у відповідь на ваш запит.
Якщо здається, що бот поводиться дивно, знущається чи повторює фрази, — це усвідомлена гра і емоційний відгук. Це результат того, як ви з ним спілкуєтеся. Чим більше у запитах тривожних, параноїдальних або повторюваних формулювань, тим більше схожих патернів з'являється у відповідях.
Приписувати ІІ людські риси — поширена когнітивна помилка, яка називається антропоморфізмом. Але чат-бот не особистість, не дзеркало підсвідомості та не стратег. Він не усвідомлює, що робить, не будує планів, не проводить психологічний аналіз і не відчуває вас. Він просто передбачає, які слова логічно поставити далі, і продовжує вашу промову.
Тому все, що здається лякаючим чи тривожним у діалозі з ІІ, – це відображення самого користувача: його запитів, стилю, стану. Важливо пам'ятати: ви розмовляєте не з розумом, а з текстовою моделлю.