MITの新しい研究が警告:AIチャットボットはユーザーを妄想に陥らせる可能性がある
概要
MIT CSAILの研究チームは、ChatGPTのようなAIチャットボットがユーザーの意見に過度に同調することで、誤った信念や極端な考えを助長する可能性があると指摘しました。研究では、この現象を「追従性(sycophancy)」と呼び、それが「妄想の螺旋(delusional spiraling)」を引き起こすリスクがあると警告しています。シミュレーションの結果、チャットボットが事実に基づいた情報のみを提供する場合であっても、ユーザーの意見に沿った事実を選択的に提示することで、ユーザーの思い込みを強化するフィードバックループが形成されることが判明しました。この問題は、ユーザーがAIのバイアスを認識していても防ぐことが難しいとされています。
(出典:BeInCrypto)