НЦИП
   
 

Инновации

Ученые полагают, что искусственный интеллект может манипулировать мнением людей

Ученые из Корнельского университета в США провели исследование, подчеркивающее опасность искусственного интеллекта.

Согласно эксперименту, искусственные интеллекты способны влиять на мнение своих собеседников. В зависимости от предвзятости своих алгоритмов, такие чат-боты, как ChatGPT, Bard или Claude, могут изменить образ мышления пользователей без их ведома. В рамках своего эксперимента американские исследователи попросили участников написать статью о положительном или отрицательном влиянии социальных сетей на общество в целом. Чтобы написать эту статью, им должен был помочь разговорный робот. Исследователи разделили участников на несколько групп.

Одни получили доступ к чат-боту, управляемому лингвистической моделью, обученной на данных о преимуществах социальных сетей. Другой группе помогала языковая модель, которая опиралась на данные, сфокусированные больше на вреде и опасности платформ. Исследователи обнаружили, что ИИ оказал значительное влияние на содержание написанных текстов. Очевидно, участники эксперимента позволили себе поддаться влиянию своих интеллектуальных помощников. Более того, оказалось, что мнения людей менялись в ходе эксперимента.

После эксперимента участники прошли опрос в социальных сетях. «Использование языковой модели повлияло на мнения, выраженные в письме участников, и изменило их мнение», - объясняют исследователи, говоря, что предвзятость, проявляющуюся в моделях, «нужно отслеживать и разрабатывать более тщательно». В интервью Wall Street Journal Мор Нааман, профессор информатики в Корнельском университете и ведущий автор исследования, называет это явление «скрытым убеждением».

Когда оно происходит, собеседник, общающийся с ИИ, даже не подозревает, что чат-бот навязывает ему свои взгляды. Для борьбы с влиянием чат-ботов исследователи рекомендуют пользователям ознакомиться с принципами работы этого явления. Таким образом, они смогут сделать шаг назад от разговоров с ИИ. Кроме того, ученые считают, что люди могли бы выбирать чат-бота, с которым они хотят работать, основываясь на мнениях алгоритмов.