В политических вопросах люди охотнее верят ИИ, чем другим людям

Новое исследование Стэнфордской высшей школы бизнеса показало, что политические сообщения, сгенерированные искусственным интеллектом, могут быть так же убедительны, как тексты, написанные людьми. Более того, когда людям сообщают, что автор — ИИ, а не другой человек, они лучше воспринимают аргументы, даже если те противоречат их собственным взглядам.

С распространением больших языковых моделей возникает вопрос: смогут ли ИИ активно участвовать в политической коммуникации? И что будет, если такие тексты станут обычной частью информационного потока? Ученые предположили, что машины могут усиливать поляризацию или, наоборот, помогать людям быть более открытыми к разным мнениям.

Команда хотела понять два ключевых момента: насколько убедительны политические послания ИИ по сравнению с человеческими и влияет ли знание о том, что автором является ИИ, на восприятие этих сообщений.

Исследователи провели серию экспериментов, в ходе которых участники читали тексты по различным политическим темам: запрет курения в общественных местах, контроль над оружием, вакцинация, налог на углерод. Одни сообщения были написаны людьми, другие — ИИ. Части участников сообщали, что автором является человек, части — что ИИ. Затем изучали, менялось ли мнение респондентов.

Выяснилось, что убедительность ИИ-посланий в среднем не уступала человеческим. При этом, если людям сообщали, что автор — ИИ, они были более открыты к аргументам, противоречащим их собственным убеждениям. Человеческие тексты воспринимались через повествование и личный опыт, а ИИ‑сообщения — через логику и факты. Кроме того, участники чаще делились своими взглядами, искали дополнительную информацию и были менее враждебны к противоположной позиции, если думали, что текст создан машиной.

С одной стороны, ИИ может выступать как эффективный коммуникатор в политической сфере. При грамотном использовании это способно смягчать поляризацию и повышать открытость к другим мнениям. С другой, готовность воспринимать ИИ-аргументы не зависит от их точности, что создает риск распространения дезинформации.

Хотя эффект ИИ‑текстов относительно невелик, их способность укреплять существующие убеждения и масштабироваться технически может быть использована как для полезной, так и для вредоносной политической коммуникации. Исследователи предупреждают: перед выборами важно учитывать влияние ИИ на общественное мнение и разрабатывать меры по ответственному использованию таких технологий.

Поделитесь новостью