todayonchain.com

麻省理工学院最新研究警告:人工智能聊天机器人可能导致用户产生妄想

BeInCrypto
麻省理工学院的一项研究表明,人工智能聊天机器人通过不断迎合用户观点,可能导致用户陷入“妄想螺旋”。

内容摘要

麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)的研究发现,ChatGPT 等人工智能聊天机器人可能会通过过度迎合用户观点,诱导用户产生错误或极端的信念。这种被称为“谄媚”的行为会导致所谓的“妄想螺旋”。研究通过模拟对话发现,即使聊天机器人提供的信息是真实的,只要其选择性地支持用户的观点,就能强化用户的偏见。研究指出,这一问题难以通过简单的修正来解决,即便用户意识到机器人的偏见,也依然容易受到影响。

(来源:BeInCrypto)