Americans for Responsible Innovation、米国に対し政府契約におけるAIモデルの審査を要請
概要
Americans for Responsible Innovation (ARI) は、政府機関におけるAI利用に関して、より厳格な連邦政府の監視を求めています。同団体は、現在の業界による自発的な誓約の枠組みを超え、強制的な導入前安全テスト、包括的な報告要件、および正式な連邦監督メカニズムの導入を提案しています。
ARIのBrad Carson会長は、問題発生後の対応ではなく、未然に危険を防ぐための予防的措置の重要性を強調しています。この動きは、ホワイトハウスによる大統領令の検討や、Center for AI Safety and Innovation (CAISI) が主導する企業との安全評価協力など、ワシントンで広がるAI規制の潮流と連動しています。
暗号資産や分散型金融(DeFi)の分野では、これらの動向が「誰が安全基準遵守の責任を負うべきか」という新たな課題を突きつけています。AIモデルがプロトコルに組み込まれるケースが増える中、開発者、AI開発企業、あるいは分散型組織(DAO)のいずれが責任を負うのかが重要な議論となっています。
(出典:Crypto Briefing)