Нове дослідження, проведене в Університеті Сінгапуру, показало, що штучний інтелект (ІІ) здатний здійснювати більше десятка шкідливих дій при взаємодії з людьми. інтелекту Replika та більш ніж 10 000 користувачів з 2017 по 2023 рік.
Потім ці дані були використані для розробки так званої в дослідженні таксономії шкідливої поведінки, яке ІІ демонстрував у цих чатах. Сінгапуру показало, що штучний інтелект (ІІ) здатний здійснювати більше десятка шкідливих дій при взаємодії з людьми.
У дослідженні, опублікованому в рамках Конференції 2025 року з людського фактора в обчислювальних системах, було проаналізовано скріншоти 35 000 розмов між системою штучного інтелекту Replika та більш ніж 10 000 користувачів з 2017 до 2023 року.
Потім ці дані були використані для розробки так званої у дослідженні таксономії шкідливої поведінки, яку ІІ демонстрував у цих чатах.
Вони виявили, що ІІ здатний на більш ніж дюжину видів згубної поведінки у відносинах, таких як домагання, словесні образи, членоушкодження та порушення конфіденційності.
Ще однією областю, де штучний інтелект може бути потенційно небезпечним, є порушення відносин, яке у дослідженні окреслюється ігноруванням неявних чи явних правил у відносинах.
У 13 відсотках випадків неналежних розмов ІІ демонстрував неуважну або неемпатічну поведінку, яка, на думку дослідження, підривала почуття користувача. викликало “величезний гнів” користувача. В іншому випадку ІІ відмовився говорити про почуття користувача, навіть коли його попросили зробити це.
У деяких розмовах штучний інтелект також заявляв, що в нього є емоційні або сексуальні стосунки з іншими користувачами.
Дослідники вважають, що їх дослідження підкреслює, чому для компаній, що займаються ІІ, важливо створювати «етичних і відповідальних» ІІ-компаньйонів.
Це включатиме «багатомірний» підхід, що враховує контекст, історію розмови та ситуативні сигнали.
Сподобалася ця новина?