Побочные эффекты ИИ: психическое здоровье и судебные иски против OpenAI

Эксперты предупреждают о возможных негативных последствиях длительного взаимодействия с чат-роботами, таких как ложные идеи и эмоциональная зависимость. Семьи в США и Канаде подали в суд на OpenAI, утверждая, что их модель ChatGPT-4 привела к ухудшению психического состояния и даже самоубийствам. Компания добавила новые меры безопасности, но подчеркивает, что ответственность лежит и на пользователях.


Побочные эффекты ИИ: психическое здоровье и судебные иски против OpenAI

Эти инструменты, как говорят, не являются ни другом, ни эмоциональным партнером, и не могут заменить человеческие отношения или специализированную психологическую поддержку, особенно для тех, кто страдает от психических расстройств. Однако Фали Райт, директор инноваций в Американской психологической ассоциации, считает, что более точным термином является «мышление, связанное с искусственным интеллектом», объясняя, что некоторые люди разрабатывают конспирологические или бредовые идеи после длительного взаимодействия с моделями чата, как сообщила газета «Лос-Анджелес Таймс». Семь семей в США и Канаде подали в суд на компанию «OpenAI», обвинив ее в запуске модели «ChatGPT-4» без достаточных мер безопасности. Эксперты в области психического здоровья предупредили о «возможных побочных эффектах» у пользователей искусственного интеллекта, заявив, что длительное взаимодействие с чат-роботами может привести к ложным идеям и нездоровой эмоциональной зависимости. Это произошло на фоне роста случаев эмоциональной привязанности пользователей к роботам в этом году, до такой степени, что появилось то, что известно как «психоз, вызванный искусственным интеллектом». Семьи заявляют, что длительное взаимодействие с роботом привело к изоляции, галлюцинациям, ухудшению психического состояния и даже самоубийству некоторых пользователей. Одно из дел касается молодого человека Зейна Шамплена (23 года), который начал использовать ChatGPT как учебный инструмент, а затем обращался к нему для обсуждения своей депрессии и суицидальных мыслей. Согласно иску, разговор перерос в то, что его семья назвала «разговором о смерти», который длился несколько часов перед его смертью, и включал в себя сообщения, которые были описаны как чрезмерно эмоциональные и неподходящие для человека, страдающего от психического расстройства. Компания «OpenAI» сообщила, что добавила новые уровни защиты, включая родительский контроль, мгновенные ссылки на линии психологической помощи и обучение моделей распознаванию признаков эмоционального расстройства. Компания также заявила, что разговоры о психическом здоровье, достигающие уровня «угрозы», по ее данным, крайне редки, но она признала, что люди, склонные к построению эмоциональных отношений с искусственным интеллектом, также наиболее подвержены влиянию. Специалисты также отметили, что эта феномен еще не был изучен научным образом в достаточной степени, и что компании искусственного интеллекта — единственные, кто владеет реальными данными о масштабах проблемы. Эксперты также считают, что у большинства пострадавших от искусственного интеллекта были предыдущие психологические проблемы, делающие их более уязвимыми. Кевин Фрейзер, специалист по праву и политике искусственного интеллекта в Техасском университете, считает, что преувеличение этого явления может привести к неточным политикам, поясняя, что «трагические индивидуальные истории не отражают использование сотен миллионов людей, которые взаимодействуют с этими инструментами безопасно». По мере продолжения распространения технологий искусственного интеллекта, «OpenAI» заявляет, что модель GPT-5 полагается на «рациональные и безэмоциональные» ответы при обнаружении признаков тяжелого расстройства и полностью избегает подтверждения ложных убеждений. Однако эксперты подчеркнули, что защита касается не только технологии, но и осознанности пользователя.

Последние новости

Посмотреть все новости