1. 背景
2025 年の初め、インドは、電子情報技術省 (MeitY) が主導し、Meta、IBM、OpenAI、NASSCOM と協力して、IndiaAI ミッションの「安全性と信頼性」の柱の重要な部分である IndiaAI Safety Institute (AI Safety Institute) の建設を開始しました、ユネスコ、その他の機関は、AI リスク管理とコンプライアンス基準の構築を共同で推進しています。
2. 適用範囲
この機関とその支援政策は、政府、企業、科学研究機関、国際パートナーを対象とした全国の AI 開発、展開、応用シナリオに適用され、技術標準から法政策に至るまで、多面的なガバナンスのニーズをカバーしています。
3. 主な内容
- AI セキュリティ研究所の機能: AI 安全基準の策定、テストおよび評価システム、セキュリティ技術の研究開発と業界トレーニングの推進を担当します。
- 技術的な法的ガバナンスの枠組み: リスク階層管理、文化的配慮に関する倫理規範、説明可能な AI 要件、および全国統一された AI ポリシーの推奨事項が含まれます。
- 業界のコンプライアンス慣行: 「責任ある AI」機能を強化するために、透明性、説明責任のトレーサビリティ、公平性などの基本原則を導入するよう企業に奨励します。
4. 最新の動向
2025年、政府は国家AI規制枠組みの策定を支援するためにAIコンプライアンス専門家諮問グループを設立した。 インド企業数社が責任あるAI成熟度評価をグローバルにリードしており、コンプライアンスと倫理的ガバナンスの急速な改善を示しています。
5. 戦略的意義
インドはまだ統一されたAI法規制を発行していませんが、技術基準の構築、政策指導、業界の自主規律を通じて、将来を見据えて実用的なAIコンプライアンスシステムを徐々に形成し、その後の法律の基礎を築いています。
公式サイトURL: