1. 배경
2025년 초, 인도는 전자정보기술부(MeitY)가 Meta, IBM, OpenAI, NASSCOM과 협력하여 IndiaAI Mission의 "안전과 신뢰성" 기둥의 중요한 부분인 IndiaAI Safety Institute(AI Safety Institute) 건설에 착수했습니다 , 유네스코 및 기타 기관은 AI 위험 관리 및 규정 준수 표준 구축을 공동으로 추진합니다.
2. 적용 범위
이 기관과 그 지원 정책은 정부, 기업, 과학 연구 기관 및 국제 파트너를 대상으로 전국의 AI 개발, 배포 및 적용 시나리오에 적용되며 기술 표준에서 법률 정책에 이르기까지 다차원적인 거버넌스 요구 사항을 포괄합니다.
3. 주요 내용
- AI 보안 연구소의 기능: AI 안전 표준, 테스트 및 평가 시스템 수립, 보안 기술 연구 개발 및 산업 교육 촉진을 담당합니다.
- 기술적 법적 거버넌스 프레임워크: 위험 계층 관리, 문화적 민감성에 대한 윤리적 규범, 설명 가능한 AI 요구 사항 및 국가 통합 AI 정책 권장 사항을 포함합니다.
- 업계 규정 준수 관행: 기업이 투명성, 책임 추적성, 공정성과 같은 핵심 원칙을 구현하여 "책임 있는 AI" 역량을 강화하도록 장려합니다.
4. 최신 개발
2025년 정부는 국가 AI 규제 프레임워크 수립을 지원하기 위해 AI 규정 준수 전문가 자문 그룹을 설립했습니다. 여러 인도 기업이 글로벌 책임 있는 AI 성숙도 평가를 주도하고 있으며, 이는 규정 준수 및 윤리적 거버넌스가 급속히 개선되었음을 나타냅니다.
5. 전략적 의의
인도는아직 통일된 AI 법률과 규정을 발표하지 않았지만 기술 표준 구축, 정책 지침 및 업계 자율을 통해 미래 지향적이고 실용적인 AI 규정 준수 시스템을 점차 형성하고 후속 입법의 토대를 마련하고 있습니다.
공식 홈페이지 URL: