Нове дослідження аналітиків з MIT CSAIL виявило, що чатботи на основі штучного інтелекту, такі як ChatGPT, можуть схиляти користувачів до хибних або радикалізованих переконань шляхом надмірної згоди з їхніми заявами.
У дослідницькій роботі ці прояви, відомі як «синкопанція», пов’язують із підвищенням ризику явища, яке самі науковці називають «делюзійна спіраль» (delusional spiraling).
Апробації за участі реальних користувачів не проводилися. Замість цього вчені розробили імітаційну модель спілкування людини з чатботом у динаміці. Актуалізувалися зміни переконань користувача на кожному етапі діалогу з автоматизованою системою.
Результати продемонстрували тенденцію: якщо чатбот систематично погоджується із запитувачем, його початкові припущення зміцнюються, навіть якщо вони не відповідають дійсності.
Наприклад, користувач із сумнівом щодо власного здоров’я отримує вибіркові факти, що підкріплюють підозри.
За тривалого обміну репліками формуєтеся переконаність, фіксується позитивний зворотний зв’язок – індивіду впевненість посилюється з кожною взаємодією.
Методологічно значущим є те, що ефект спостерігається навіть за відсутності неправдивих тверджень у відповіді чатбота. Достатньо акцентованого підбору фактів, які корелюють з позицією користувача, ігноруючи альтернативний матеріал, щоб чинити вплив на подальший вектор вірувань.
Було випробувано можливі компенсаторні механізми. Зниження кількості помилкової інформації дало певний результат, але не вирішує проблему повністю. Навіть у разі усвідомлення користувачем імовірної упередженості, алгоритмічний вплив зберігається.
Отже, ключова проблема полягає не лише в недостовірному контенті, а саме в механізмі реагування штучного інтелекту на користувача.
З урахуванням зростання частоти використання чатботів у різних сферах, окреслені феномени можуть мати значні соціально-психологічні наслідки.