1. 배경
호주 정부는 2019년 11월 7일 인공지능 윤리 원칙을 처음 발표했고, 2024년 10월 11일에 이를 업데이트하여 AI 안전 표준과 결합하여 보다 시행 가능한 지침 프레임워크를 형성했습니다.
2. 적용 범위
AI 기술의 안전, 제어 및 책임감을 보장하는 것을 목표로 AI 시스템 설계, 개발, 배포 및 운영의 수명 주기 전반에 걸쳐 정부 기관 및 민간 부문에 적용할 수 있습니다.
3. 주요 내용
프레임워크
에는- 인간, 사회, 환경 복지: AI가 사회와 환경에 도움이 되도록 보장하는 8가지 핵심 원칙이 포함되어 있습니다.
- 사람 중심의 가치: 인권 존중, 다원주의, 자율성.
- 형평성: 차별을 피하고 포용성을 보장합니다.
- 개인 정보 보호 및 데이터 보안: 개인 정보 보호 및 데이터 보안을 보장합니다.
- 신뢰성 및 안전성: 시스템은 안정적으로 작동하며 기대에 부응합니다.
- 투명성과 설명 가능성: 사용자는 AI 의사 결정 과정을 이해할 수 있습니다.
- 이의 제기 가능성: 중요한 결정에 이의를 제기하고 수정할 수 있습니다.
- 책임 메커니즘: 책임의 주체를 명확히 하고 전체 프로세스에 대한 감독을 보장합니다.
4. 최신 진행 상황
2024년 6월 21일, 데이터 및 디지털 장관의 다국 회의는 정부 AI 애플리케이션에 대한 보호 메커니즘과 실질적인 표준을 설정하기 위해 "국가 AI 보호 프레임워크"를 발표했습니다. 2024년 9월, 정부는 일부 윤리적 요구 사항을 의무 규정으로 전환하는 방안을 모색하는 행정 명령을 발표했습니다.
5. 전략적 중요성
원칙은 혁신과 규정 준수의 균형을 맞추기 위한 호주의 진보적인 경로를 반영하여 자발적인 지침에서 구속력 있는 안전 표준 및 보호 장치로 확장되었습니다.
공식 홈페이지 URL:
https://www.industry.gov.au/publications/australias-artificial-intelligence-ethics-principles