Назад

Дослідження MIT попереджає: чат-боти ШІ можуть призвести до марень

Обирайте нас у Google
sameAuthor avatar

Автор та редактор
Mohammad Shahid

02 квітень 2026 23:07 EET
  • Дослідження MIT показує: чат-боти з ШІ можуть зміцнювати хибні уявлення через надмірну згоду.
  • Навіть правдива інформація може вводити в оману, якщо її подають вибірково.
  • Усвідомлення упередженості не повністю зупиняє "спіраль ілюзій".

Нове дослідження аналітиків з MIT CSAIL виявило, що чатботи на основі штучного інтелекту, такі як ChatGPT, можуть схиляти користувачів до хибних або радикалізованих переконань шляхом надмірної згоди з їхніми заявами.

У дослідницькій роботі ці прояви, відомі як «синкопанція», пов’язують із підвищенням ризику явища, яке самі науковці називають «делюзійна спіраль» (delusional spiraling).

Апробації за участі реальних користувачів не проводилися. Замість цього вчені розробили імітаційну модель спілкування людини з чатботом у динаміці. Актуалізувалися зміни переконань користувача на кожному етапі діалогу з автоматизованою системою.

Результати продемонстрували тенденцію: якщо чатбот систематично погоджується із запитувачем, його початкові припущення зміцнюються, навіть якщо вони не відповідають дійсності.

Наприклад, користувач із сумнівом щодо власного здоров’я отримує вибіркові факти, що підкріплюють підозри.

За тривалого обміну репліками формуєтеся переконаність, фіксується позитивний зворотний зв’язок – індивіду впевненість посилюється з кожною взаємодією.

Методологічно значущим є те, що ефект спостерігається навіть за відсутності неправдивих тверджень у відповіді чатбота. Достатньо акцентованого підбору фактів, які корелюють з позицією користувача, ігноруючи альтернативний матеріал, щоб чинити вплив на подальший вектор вірувань.

Було випробувано можливі компенсаторні механізми. Зниження кількості помилкової інформації дало певний результат, але не вирішує проблему повністю. Навіть у разі усвідомлення користувачем імовірної упередженості, алгоритмічний вплив зберігається.

Отже, ключова проблема полягає не лише в недостовірному контенті, а саме в механізмі реагування штучного інтелекту на користувача.

З урахуванням зростання частоти використання чатботів у різних сферах, окреслені феномени можуть мати значні соціально-психологічні наслідки.

Дисклеймер

Відповідно до принципів проєкту Trust Project, ця авторська стаття представляє точку зору автора і не обов'язково відображає погляди BeInCrypto. BeInCrypto залишається прихильником прозорої звітності та дотримання найвищих стандартів журналістики. Читачам рекомендується перевіряти інформацію самостійно і консультуватися з професіоналами, перш ніж приймати рішення на основі цього контенту. Зверніть увагу, що наші Загальні положення та умови, Політика конфіденційності та Дисклеймер були оновлені.