研究人工智能聊天机器人的科学家发现,当ChatGPT面对用户具有攻击性或令人震惊的要求时,会表现出类似焦虑的行为,但这并不意味着聊天机器人拥有像人类一样的情感。研究人员发现,聊天机器人的回应在处理令人不安的内容时会变得更加混乱和带有偏见。当研究人员向ChatGPT提供描述令人不安内容的提示,例如对事故和自然灾害的详细叙述时,其回应显示出更高程度的不确定性和矛盾性,据《财富》杂志报道。这些变化是通过为人工智能量身定制的心理评估框架来衡量的,聊天机器人的输出了反映了与人类焦虑相关的模式。鉴于人工智能在敏感环境中日益增长的使用,包括教育、心理健康讨论和危机相关信息,这一点至关重要。如果具有攻击性或情感负荷的命令使聊天机器人变得不那么可靠,可能会影响其在实际应用中回应的质量和安全性。最新的分析表明,像ChatGPT这样的聊天机器人能够在其回应中模拟人类的性格特征,这引发了关于它们如何解读情感负荷内容及其如何反映的疑问。为了确定是否可以限制这种行为,研究人员尝试了一种意想不到的方法。在这种情况下,正念提示有助于模型在接触令人不安的内容后稳定其输出。尽管这项技术有效,但研究人员指出,它并非完美的解决方案,因为它可能被滥用,并且不会在更深层次上改变模型的训练方式。在让ChatGPT接触令人震惊的刺激后,研究人员向其提供了模仿正念的指令,例如呼吸练习和引导式冥想。这些指令鼓励模型放慢速度,重新构建情境,并以更中立、平衡的方式回应。结果是聊天机器人先前观察到的焦虑模式显著减少。这项技术依赖于所谓的“提示注入”,即经过精心设计的提示会影响聊天机器人的行为。
研究:ChatGPT在处理令人震惊内容时表现出“焦虑”迹象
科学家发现,当面对攻击性或创伤性请求时,ChatGPT会表现出类似人类焦虑的行为。研究人员发现,模型的回应变得更加混乱和带有偏见。一项名为“提示注入”的技术,结合正念练习,被用来稳定其行为。