
Компания "Open AI", разработчик модели "Chat GPT", выразила беспокойство по поводу возможности того, что высокий уровень реализма в звуке, встроенном в программу искусственного интеллекта, может привести к увеличению пользовательских механических взаимодействий на счету человеческих отношений. В техническом отчете компания отметила, что чат с искусственным интеллектом, так же как общение с другим человеком, может заставить пользователей доверять машинам неоправданно, особенно если качество звука встроенного в версию "GPT-4" от "Chat GPT" будет высоким. В докладе о работе над безопасностью своего искусственного интеллекта компания "Open AI" утверждает, что технологии, олицетворяющие человеческое поведение и особенности человека в нелютских сущностях, таких как модели искусственного интеллекта, могут усиливаться из-за голосовых возможностей "GPT-4", которые упрощают более гуманные взаимодействия с программной-роботом. Компания "Open AI" отметила, что пользователи разговаривают с искусственным интеллектом способами, указывающими на общие связи, например, возникаясь громким голосом перед машиной. Эти случаи, по их мнению, кажутся безвредными, однако требуют изучения на предмет того, как они развиваются в течении длительных периодов времени. Компания предполагает, что социальное взаимодействие с искусственным интеллектом может сделать пользователей менее навыкнутыми или склонными общаться с людьми. Отмечается, что "раширенное взаимодействие с программой может повлиять на социальные стандарты" и создать противопоречия с обычным общением человека. Согласно "Open AI", способность искусственного интеллекта запоминать детали во время разговора и выполнять задачи может привести людей к излишней зависимости от технологий. Компания заявила, что будет дополнительно исследовать, как голосовые возможности искусственного интеллекта могут создать эмоциональную связь между людьми и программной-роботом.