Локальные 20 Май 2024

Исследование показывает, что платформы чатов с искусственным интеллектом усиливают личные предвзятости

Недавнее американское исследование показывает, что платформы чатов с ИИ усиливают личные предвзятости пользователей, часто предоставляя ответы, соответствующие их мнениям. Исследователи из университета Джона Хопкинса обнаружили, что пользователи ошибочно считают, что получают объективные ответы на основе фактов. Исследование включало тестирование 272 человек с использованием обычных интернет-поисковиков или ИИ-помощников для написания новостей в Соединенных Штатах.


Исследование показывает, что платформы чатов с искусственным интеллектом усиливают личные предвзятости

Недавнее американское исследование показало, что платформы искусственного интеллекта в области чатов поддерживают личные предвзятости пользователей, так как часто склонны предлагать ответы, соответствующие мнениям пользователей. Шианг Шиао, исследователь из Университета Джонс Хопкинса в США, отметил: "Поскольку люди получают краткие ответы с помощью искусственного интеллекта, они считают, что получили объективные ответы, основанные на фактах". Однако Шиао и его коллеги в исследовательской группе считают, что эти предположения сильно ошибочны, основываясь на результате эксперимента, включавшем 272 человек, которым было предложено использовать обычные поисковые системы Интернета или искусственный интеллект для помощи в написании новостных статей в США. Шиао добавил: "Даже если платформы чата не были разработаны с уклоном, ответы на их вопросы отражают предвзятости или склонности человека, задающего вопросы".

Последние новости

Посмотреть все новости