Найгірше показує себе Gemini.
Європейський мовний союз (ЄВС) спільно з ВВС масштабне міжнародне дослідження точності роботи ІІ-помічників з контентом новин. Результати виявились тривожними: штучний інтелект регулярно спотворює інформацію незалежно від мови, країни чи конкретної платформи.
Професійні журналісти з 22 медіаорганізацій у 18 країнах перевірили понад три тисячі відповідей чат-ботів ChatGPT, Copilot, Gemini та Perplexity. Вони оцінювали точність інформації, якість джерел, здатність відокремлювати факти від думок та наявність контексту.
У 45% всіх відповідей виявилася щонайменше одна суттєва помилка. 31% відповідей виявили серйозні проблеми із зазначенням джерел — вони або були відсутні, або вводили в оману, або були невірними. Кожна п'ята відповідь містила грубі неточності: вигадані деталі, застарілу інформацію чи відверті галюцинації.
Найгірше показав себе Gemini — у нього значні помилки знайшлися у 76% відповідей, що більш ніж удвічі перевищує показники конкурентів. Основна проблема цього помічника – вкрай слабка робота з джерелами.
Згідно з звітом Інституту Reuters про цифрові новини за 2025 рік, 7% споживачів онлайн-новостей вже використовують ІІ-помічників для отримання інформації. Серед користувачів молодше 25 років ця частка сягає 15%.
Медіадиректор ЄВС Жан Філіп де Тендер наголосив, що виявлені недоліки мають системний, транскордонний та багатомовний характер.
Коли люди не знають, чому довіряти, вони, зрештою, перестають довіряти всьому, а це може перешкоджати демократичній участі.
Жан Філіп де Тендер
Медіадиректор ЄВС
OpenAI і Microsoft раніше визнавали проблему конфабуляцій – ситуацій, коли модель генерує неправильну інформацію через брак даних. Компанії стверджують, що працюють над розв'язанням цієї проблеми.
Раніше дослідники з'ясували, що стиль спілкування з чат-ботами впливає на точність їхніх відповідей.



