戻るAIコンプライアンス
米国のAIガバナンスフレームワークの概要

米国のAIガバナンスフレームワークの概要

AIコンプライアンス Admin 1 回閲覧

1. 背景

米国はまだ統一された国家人工知能法を発行しておらず、統治システムは主に既存の法律、大統領令、業界ガイドライン、技術基準に依存しています。 代表的な文書には、安全で信頼性が高く信頼できる AI の開発と使用に関する大統領令 (2023 年) や NIST の人工知能リスク管理フレームワーク (AI RMF) が含まれます。


2. ガバナンスの原則

リスク志向を重視し、イノベーションを促進し、柔軟性を維持し、業界の自律と政府の監督を組み合わせて、人工知能の安全で制御可能な開発を共同で推進します。


3. 主な内容

  1. 国家安全保障と重要インフラ: ホワイトハウスは、国家安全保障機関および諜報機関における AI の適用に関するガイドラインを策定し、大規模な監視や自動小銃などのリスクの高い使用を禁止します。 国土安全保障省は、重要なインフラにおける AI 導入に対する説明責任の枠組みを発表し、安全な設計、バイアス検出、独立した評価、透明性を要求しています。
  2. 技術基準とリスク管理: NIST は AI RMF をリリースし、企業や機関による導入を促進するための信頼できる AI リスク管理ガイドを提供しています。
  3. 制度的および政策的支援: サイバーセキュリティ、バイオセキュリティ、その他の分野に焦点を当てた人工知能標準イノベーションセンター (CAISI) を設立する。 「AI行動計画」が発行され、規制の緩和、インフラ投資の増加、AIの導入の加速が提案されました。
  4. 実施方法:既存の業界規制に基づいて、行政命令、技術基準、規制サンドボックス、業界ガイドラインと組み合わせて、分散型ガバナンスシステムが形成されます。


4. 特徴と意義米国

は、テクノロジーの急速な発展に柔軟に適応し、国家安全保障戦略や経済競争力の目標と密接に統合するために、分散型で工業化された規制モデルを採用しています。


詳細については、公式ウェブサイトを参照してください:

https://www.nist.gov/itl/ai-risk-management-framework

おすすめツール

もっと見る