Искусственный интеллект как инструмент манипуляции: новое исследование раскрывает его влияние на политические предпочтения избирателей

Широко распространяемые ИИ-системы могут изменить выборные предпочтения граждан на 15% в условиях контроля. Об этом сообщает исследование, проведенное Корнельским университетом вместе с Британским институтом безопасности искусственного интеллекта.

«Общественность выражает значительное беспокойство относительно потенциального использования технологий для формирования политических взглядов и их воздействия на выборы и демократию в целом. Мы поднимаем эти вопросы, используя заранее запланированные эксперименты для анализа влияния крупных языковых моделей на мнения избирателей», — заявили исследователи.

В исследовании участвовали почти 6000 человек из США, Канады и Польши. Участники оценивали политического кандидата, взаимодействовали с чат-ботом, а затем снова оценивали его.

В американской выборке, состоящей из 2300 человек, изучение проводилось перед президентскими выборами 2024 года. Здесь ИИ усиливал влияние, когда мнения собеседников совпадали.

Когда чат-бот поддерживал кандидата, которого участник не одобрял, происходили «значительные изменения» в отношении людей к данному политическому деятелю.

Аналогичные результаты были зафиксированы и в Канаде с Польшей.

Исследование подтвердило, что политически ориентированные сообщения оказывали более сильное воздействие на убеждение, чем личные утверждения.

Точность высказываний зависела от контекста общения. Чат-боты, поддерживающие правых кандидатов, вносили больше неточных данных, чем те, кто представлял левых.

«Эти выводы поднимают важный вопрос: политическое воздействие ИИ может использовать предвзятости в данных моделей для неравномерного распространения неточностей, даже если будет даваться прямая команда говорить правду», — добавили ученые.

В отдельном исследовании, представленном в Science, команда экспертов пыталась понять, почему возникает эффект убеждения. В рамках работы тестировались 19 языковых моделей на 76 977 взрослых в Великобритании по более чем 700 политическим темам.

«Существует реальный страх, что разговорный ИИ вскоре сможет оказывать беспрецедентное влияние на человеческие убеждения», — отмечают авторы.

Они установили, что методы формулировки запросов влияют на убедительность гораздо больше, чем размер модели. Запросы, направляющие LLM на внедрение новой информации, увеличивали уровень убеждения, но при этом снижали точность.

Аналитические центры заметили, что молодые консервативные избиратели с большей готовностью предоставляют ИИ полномочия на принятие ключевых государственных решений, чем их либеральные сверстники.

Дональд Кендал, директор Центра по новым вопросам имени Гленна Хаскинса при институте Хартленд, сказал, что избиратели часто неправильно оценивают нейтральность крупных языковых моделей.

«Одной из задач, которую я ставлю для своей аудитории, является развеять миф о нейтральности искусственного интеллекта. Он определенно содержит предвзятости, иногда даже без явного намерения», — добавил он.

Эксперт подчеркнул, что крупные технологические компании в Кремниевой долине, разрабатывающие ИИ, «активно влияют на тип контента, который распространяется на их платформах».

Также стоит упомянуть, что смоделированное с использованием ИИ заседание ФРС показало, что политическое влияние разделило мнения членов совета во время обсуждения процентных ставок.