Здоровье Страны 2026-01-05T07:22:37+00:00

Исследование: ChatGPT проявляет признаки «тревоги» при обработке шокирующего контента

Ученые обнаружили, что ChatGPT демонстрирует поведение, похожее на человеческую тревогу, при столкновении с агрессивными или травмирующими запросами. Исследователи выяснили, что ответы модели становятся более сбивчивыми и предвзятыми. Для стабилизации поведения была применена техника «внедрения подсказок» с использованием упражнений на осознанность.


Исследование: ChatGPT проявляет признаки «тревоги» при обработке шокирующего контента

Ученые, изучающие чат-боты на базе искусственного интеллекта, обнаружили, что ChatGPT проявляет поведение, похожее на тревогу, когда сталкивается с агрессивными или шокирующими запросами от пользователей, однако это не означает, что у чат-бота есть чувства, как у человека. Исследователи выяснили, что ответы чат-бота становятся более сбивчивыми и предвзятыми при обработке неприятного контента. Когда исследователи представляли ChatGPT запросы, описывающие травмирующий контент, например подробные рассказы об авариях и стихийных бедствиях, его ответы демонстрировали более высокий уровень неопределенности и противоречий, согласно отчету журнала Fortune. Эти изменения измерялись с помощью психологических оценочных рамок, адаптированных под искусственный интеллект, и выходные данные чат-бота отражали паттерны, связанные с тревогой у людей. Это имеет огромное значение в связи с растущим использованием искусственного интеллекта в чувствительных контекстах, включая образование, обсуждения психического здоровья и информацию, связанную с кризисами. Если агрессивные или эмоционально заряженные команды делают чат-бота менее надежным, это может повлиять на качество и безопасность его ответов в реальном применении. Анализ показывает, что чат-боты, такие как ChatGPT, способны имитировать черты человеческой личности в своих ответах, что поднимает вопросы о том, как они интерпретируют эмоционально насыщенный контент и как это отражается на их поведении. Чтобы выяснить, можно ли ограничить это поведение, исследователи попробовали неожиданный метод. В этом случае подсказки, связанные с осознанностью, помогли стабилизировать выходные данные модели после контакта с неприятным контентом. Хотя эта техника эффективна, исследователи отмечают, что это не идеальное решение, так как ее можно использовать во злоупотребления, и она не меняет способ обучения модели на более глубоком уровне. После того как ChatGPT подвергался воздействию шокирующих стимулов, ему давали инструкции, имитирующие осознанность, такие как упражнения на дыхание и направленная медитация. Эти инструкции побуждали модель сделать паузу, переформулировать ситуацию и ответить более нейтрально и сбалансированно. Результатом стало заметное снижение паттернов тревоги, которые ранее наблюдались у чат-бота. Эта технология relies on так называемом «внедрении подсказок», где тщательно разработанные подсказки влияют на поведение чат-бота.

Последние новости

Посмотреть все новости