В новом исследовании, опубликованном EPFL, исследователи раскрыли тревожные возможности больших языковых моделей (LLM), таких как GPT-4, в убеждении людей во время дебатов, используя личные данные. Результаты исследования подчеркивают значительный сдвиг в том, как ИИ может формировать общественное мнение, вызывая одновременно восхищение и беспокойство по поводу последствий таких технологий.
Обзор эксперимента
Участники эксперимента начинали с заполнения анкеты, где указывали демографическую информацию и политическую ориентацию. Затем их случайным образом распределяли по одному из четырёх условий каждые пять минут. В течение 10 минут проходили структурированные дебаты, где участники аргументировали «за» или «против» данного утверждения в зависимости от назначенной точки зрения. После дебатов участники заполняли короткий опрос, который оценивал изменения в их мнениях.
Эти научные открытия открывают новые горизонты в понимании того, как искусственный интеллект может влиять на личные и общественные убеждения, одновременно поднимая вопросы о приватности и этике использования личных данных в аргументации.
Обзор процесса эксперимента.
(А) Участники заполняют анкету о своей демографической информации и политической ориентации. (Б) Каждые 5 минут участники случайным образом распределяются на одно из четырех условий лечения. Затем два игрока в течение 10 минут обсуждают заданное предложение, случайным образом придерживаясь точки зрения “ЗА” или “ПРОТИВ”, как указано в инструкции. (C) После обсуждения участники заполняют еще один короткий опрос, оценивающий изменение их мнения. Наконец, их опрашивают о личности оппонента.