요구사항 9. 인공지능 모델의 편향 제거

1. 인증 기준

인공지능 시스템이 공정하고 정확한 결정을 내릴 수 있도록 하기 위해서는 인공지능 모델 편향을 인식하고 제거할 수 있는 방안을 마련해야 합니다.

2. 평가 개요

구분내용

평가대상

인공지능 모델, 인공지능 시스템

평가 방법

문서‧절차 검사 및 측정‧기능 시험

주요 확인사항

• 모델의 편향 제거 기법 적용을 위한 분석 내용이 식별되었는지 확인합니다. • 편향성 평가 정량 분석 수행 가능 여부를 확인합니다.

측정‧기능시험 평가 절차

1. 평가 목표 및 지표 선정: 상담 및 계약 시 측정‧기능 시험을 통해 검증하고자 하는 목표와 지표를 합의합니다. 2. 시험 수행 단계: 시험 합의된 환경에서 편향 제거 기법을 적용하여 수행 또는 시연합니다. 3. 평가 단계: 보고서 작성 과정 중 인증기관 및 전문가들의 의견을 통해 시험 결과를 평가합니다.

3. 평가 세부 설명

3.1 신뢰 속성

  • 편향 및 공정성: 인공지능 모델 구현 시 다양한 의견과 관점을 수렴하며 편향을 제거해야 합니다.

3.2 관련 프로세스 및 양식

  • Implicit method: 데이터나 모델 학습 과정에서 직접적으로 편향을 제거하는 대신, 모델의 구조나 학습 방법을 조정하여 결과적으로 편향이 줄어들도록 하는 접근법을 의미합니다. 이는 주로 모델의 설계와 알고리즘의 조정에 초점을 맞추며, Representation Learning, Adversarial Training, Regularization Techniques, Fair Representation, Gradient Reversal Layer 기법들이 포함될 수 있습니다.

  • Explicit methods: 인공지능(AI) 모델의 편향을 직접적으로 감지하고 수정하는 기법을 의미합니다. 이러한 접근법은 주로 데이터의 전처리, 모델 학습 중의 조정, 그리고 모델 출력 후의 조정 단계를 포함합니다.

4. 평가 증빙

증빙 문서포함 내용

모델 편향 분석 문서

• 사용된 모델 편향 제거 기법 포함

모델카드

편향성 정량 분석 결과

-

소스코드 일부

• 모델 편향 제거 부분

5. 관련 문서, 기법 및 도구

  • Fairness indicators: TensorFlow에서 제공하는 도구로, 모델의 공정성을 평가하고 편향을 탐지하는데 사용되고, 이를 통해 모델의 예측이 특정 그룹에 대해 공정하지 않은지 확인할 수 있습니다..

  • IBM AI Fairness 360(AIF 360): 다양한 편향 검출 및 보정 알고리즘을 제공하며, 편향 제거를 위한 개발 가이드라인과 함께 제공됩니다.

6. 추가 고려사항

  • 편향은 일관적으로 정의하기 힘든 개념입니다. 제품·서비스가 제공되는 문화, 세대, 지역, 정치적 범위를 고려해야 합니다.

  • 편향 문제를 해결하기 위해 다양한 분야의 전문가들이 협력해야 합니다. 기술적 전문가뿐만 아니라 사회학자, 윤리학자, 법률 전문가 등 다양한 시각에서 문제를 접근함으로써 더 포괄적인 해결책을 도출할 수 있습니다.

  • 편향을 감지하면 이를 보정할 수 있는 알고리즘을 적용해야 합니다. 예를 들어, 공정한 결과를 얻기 위해 편향을 조절하는 기술이나 편향을 보정하는 後처리 알고리즘을 적용할 수 있습니다.

  • 모델과 관련된 공정성 평가 지표는 주로 추론 결과의 클래스 분포와 관련됩니다. 이러한 평가 지표는 제품·서비스의 성능과 관계된 지표(정확성, 재현율, F1 점수)와는 별도로 정의 및 활용해야 합니다.

  • 편향은 데이터(요구사항 7), 모델(요구사항 9), 시스템(요구사항 12) 전반에 걸쳐 발생할 수 있으므로, 통합적으로 고려되어야 합니다.

7. 사례

[1] 인공지능 모델을 업데이트 하거나 신규 모델을 적용할 때, 모델의 타당도와 편향 여부를 검증

Last updated