1. 배경
싱가포르 정보통신 미디어 개발청(IMDA)과 AI 검증 재단이 공동으로 발표한 이 프로그램은 생성 인공 지능이 제기하는 새로운 위험과 과제를 해결하는 것을 목표로 2024년 5월 30일에 시작되었습니다.
2. 적용 범위
대규모 언어 모델 및 이미지 생성 모델과 같은 응용 시나리오를 포함하여 생성 인공 지능 시스템의 개발자, 배포자 및 관련 기관에 적용됩니다.
3. 주요 내용
:- 책임,
- 데이터 품질 ,
- 신뢰할 수 있는 개발 및 배포,
- 사고 보고
- 테스트 및 보증,
- 보안,
- 콘텐츠 출처,
- 안전 및 정렬 R&D,
- AI 공익
4. 의의 전통적인
AI 거버넌스 원칙을 이어가는 것을 바탕으로 생성형 AI에 대한 위험 예방 및 통제와 실질적인 지침을 강화하고 신뢰할 수 있는 생성형 AI 생태계 구축을 촉진했습니다.
자세한 내용은 공식 웹사이트를 참조하세요:
https://aiverifyfoundation.sg/wp-content/uploads/2024/05/Model-AI-Governance-Framework-for-Generative-AI-May-2024-1-1.pdf