요구사항 12. 인공지능 시스템 구현 시 발생 가능한 편향 제거

1. 인증 기준

인공지능 시스템 구현 시 발생 가능한 편향을 인식하고 제거 방안을 마련해야 합니다. 소스 코드에서 데이터 접근 방식 구현 과정 등에 대한 기준이 정의되어야 하며, 편향 제거 전략을 통해 편향이 얼마나 완화되었는지 제시해야 합니다.

2. 평가 개요

구분내용

평가대상

인공지능 시스템

평가 방법

문서‧절차 검사

주요 확인사항

• 데이터 접근 방식 구현 과정 등 소스 코드에서 편향 발생 가능성을 확인합니다. • 사용자 인터페이스 및 상호작용 방식으로 인한 편향을 확인합니다.

3. 평가 세부 설명

3.1 신뢰 속성

  • 편향 및 공정성: 인공지능 시스템 구현 시 다양한 의견과 관점을 수렴하며 편향을 제거해야 합니다.

3.2 관련 프로세스

  • 동료검토: 인공지능 시스템을 구현할 때 동료 검토(peer review)는 여러 단계에서 수행될 수 있습니다. 이 과정은 시스템의 품질, 신뢰성, 공정성을 보장하는 데 중요한 역할을 합니다.

  • 코드분석: 인공지능 시스템 구현 시 코드 분석은 시스템의 신뢰성, 효율성, 공정성을 보장하기 위해 필수적인 과정입니다. 코드 품질 검사, 알고리즘 검토, 보안 검사, 자동화 도구 사용, 동료 리뷰, 테스트 및 검증 등의 단계가 있습니다.

4. 평가 증빙

증빙 문서포함 내용

코드 peer review 기록

-

인터페이스 설계서

-

5. 관련 문서, 기법 및 도구

6. 추가 고려사항

  • 편향은 일관적으로 정의하기 힘든 개념입니다. 제품·서비스가 제공되는 문화, 세대, 지역, 정치적 범위를 고려해야 합니다.

  • 편향 문제를 해결하기 위해 다양한 분야의 전문가들이 협력해야 합니다. 기술적 전문가뿐만 아니라 사회학자, 윤리학자, 법률 전문가 등 다양한 시각에서 문제를 접근함으로써 더 포괄적인 해결책을 도출할 수 있습니다.

  • 사용자를 대상으로 인공지능 시스템의 한계와 편향 가능성을 이해하도록 교육하는 것도 중요합니다. 특히 생성형 인공지능과 관련하여, 사용자는 본인이 믿거나 원하는 결과를 그대로 받아들이는 확증 편향(confirmation bias) 태도를 가질 가능성이 있습니다. 교육을 통해 사용자는 AI의 결과를 맹신하지 않고 비판적으로 접근할 수 있습니다.

  • 시스템 구현과 관련된 공정성 평가 지표는 주로 시스템 UX(디자인)와 관련됩니다. 이러한 평가 지표는 제품·서비스의 사용자 UX 경험과 관계된 지표와는 별도로 정의 및 활용해야 합니다.

7. 사례

[1] 알고리즘 설계 과정에서 인종, 성별, 사회경제적 지위와 같은 요소를 고려하지 않는 시스템 편향을 제거하여 개발

Last updated