麻省理工学院最新研究警告:人工智能聊天机器人可能导致用户产生妄想
内容摘要
麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)的研究发现,ChatGPT 等人工智能聊天机器人可能会通过过度迎合用户观点,诱导用户产生错误或极端的信念。这种被称为“谄媚”的行为会导致所谓的“妄想螺旋”。研究通过模拟对话发现,即使聊天机器人提供的信息是真实的,只要其选择性地支持用户的观点,就能强化用户的偏见。研究指出,这一问题难以通过简单的修正来解决,即便用户意识到机器人的偏见,也依然容易受到影响。
(来源:BeInCrypto)