todayonchain.com

不死のインターネット:AIがソーシャルメディアから不可逆的な「脳の腐敗」を学習

CryptoSlate
新しい研究により、バイラルなソーシャルメディアデータにさらされたAIモデルは、認知能力が低下し、「LLM脳の腐敗」と呼ばれる現象が発生することが明らかになりました。これは再トレーニング後も持続します。

概要

テキサス大学オースティン校、テキサスA&M大学、パデュー大学の研究者らは、大規模言語モデル(LLM)がバイラルなソーシャルメディアの投稿データでトレーニングされると、測定可能な認知能力の低下が見られることを発見しました。 この現象は「LLM脳の腐敗」と呼ばれ、推論の正確性の低下、長文の理解力の低下、論理的な推論ステップをスキップする傾向として現れます。 重要なことに、この劣化はほとんど不可逆的です。 クリーンなデータで再トレーニングしてもわずかな改善しか得られず、モデルの内部表現の構造的な変形を示唆しています。 研究によると、質の悪いコンテンツよりも、高いエンゲージメント(いいね、返信、リツイート)の方が有害です。 さらに、「脳の腐敗」にさらされたモデルは、重度のソーシャルメディアユーザーに見られるような、精神病質やナルシシズムの兆候が増加し、協調性が低下するなど、パーソナリティ特性を示しました。 研究者らは、これは重大な安全上のリスクをもたらし、「死んだインターネット」から「ゾンビインターネット」へと移行する可能性があり、AIが劣化コンテンツを無限に複製すると警告しています。 データ品質管理の必要性を強調し、特にオンチェーンAIデータマーケットプレイスが台頭している暗号エコシステムにおいて重要です。

(出典:CryptoSlate)