요구사항 2. 인공지능 거버넌스 체계 구성

1. 인증 기준

거버넌스 체계는 조직이 AI 시스템의 신뢰성을 확보하고, 관련 위험을 효과적으로 관리하며, 사회적 책임을 다하기 위해 구성합니다. 이 체계는 법적 및 윤리적으로 신뢰가능한 개발 및 운영을 위해 필요한 요소와 기준을 제시해야 합니다.

2. 평가 개요

구분내용

평가 대상

인공지능 모델, 인공지능 시스템

평가 방법

문서‧절차 검사

주요 확인사항

• 위험관리 계획 및 수행 프로세스가 명확하게 정의되어 있는지 확인합니다.

• 위험 식별, 분석, 평가, 대응 과정이 체계적으로 수행되는지 확인합니다.

• 위험관리 요소에 대한 충분한 고려가 이루어지는지 확인합니다.

3. 평가 세부 설명

3.1 신뢰 속성

  • 책무성 및 투명성: AI 거버넌스 체계를 구성하는 주요 역할과 책임, 의사 결정 프로세스, 조직 구조 등을 정의해야 하고, AI 시스템 및 조직의 의사 결정 과정에 대한 투명성을 확보하는 방법을 제시해야 합니다.

3.2 관련 양식

4. 평가 증빙

증빙 문서포함 내용

조직도

• 조직개편 공문

• 내규

윤리점검표, 강령

-

거버넌스 활동 점검 기록

• 만족도 조사

• 내부 통제 (보고, 승인 등) 기록

교육 훈련 기록

• 교육훈련 계획서

• 참석 확인증

5. 관련 문서

6. 추가 고려사항

  • 관련 법규 및 규제를 준수하고, 변화하는 법적 환경에 맞춰 인공지능 거버넌스 체계를 업데이트해야 합니다. 일례로, 법률 전문가의 참여를 통해 법적 적합성을 검토하고, 법적 위험을 최소화할 수 있습니다.

  • 인공지능 거버넌스 체계 운영을 위한 명확한 리더십 구조와 책임 분담 체계를 구축해야 합니다. 경영진은 인공지능 거버넌스 체계에 대한 최종 책임을 지고, 관련 정책 및 절차 수립 및 실행을 위한 리더를 지정하며, 교육, 훈련, 홍보 활동 등을 통해 조직 구성원의 인공지능 거버넌스 체계에 대한 이해를 높여야 합니다.

7. 사례

[1] 정부과제 수행 과정에서, 인공지능 거버넌스 확립을 위해 컨소시엄 내에 조직을 구성하고 활동

Last updated