1. 背景
シンガポールの情報通信メディア開発局 (IMDA) と AI Verify Foundation が共同でリリースし、生成人工知能によってもたらされる新たなリスクと課題に対処することを目的として、2024 年 5 月 30 日に開始されました。
2. 適用範囲
大規模言語モデルや画像生成モデルなどのアプリケーション シナリオを含む、生成人工知能システムの開発者、展開者、および関連機関に適用されます。
3. 主な内容
:- 説明責任、
- データ品質 、
- 信頼できる開発と展開、
- インシデント報告
- テストと保証、
- セキュリティ、
- コンテンツの出所、
- 安全性とアライメントの研究開発、
- 公共の利益のための AI
4. 意義
従来の AI ガバナンスの原則を継続することに基づいて、生成 AI のリスク予防と制御、および実践的なガイダンスを強化し、信頼できる生成 AI エコシステムの構築を推進しました。
詳細については、公式ウェブサイトを参照してください:
https://aiverifyfoundation.sg/wp-content/uploads/2024/05/Model-AI-Governance-Framework-for-Generative-AI-May-2024-1-1.pdf