12 인공지능 시스템 구현 시 발생 가능한 편향 제거

  • 인공지능 시스템 구현 단계에서 편향을 고려하지 않는다면, 시스템 설계자 또는 개발자의 배경지식이나 편견으로 인공지능 시스템이 편향될 수 있다. 따라서 발생 가능한 편향을 식별하고 이를 제거하는 방안을 고려하여 설계한다.


12-1 소스 코드 및 사용자 인터페이스로 인한 편향을 제거하기 위해 노력하였는가?

  • 데이터 및 모델에 의한 편향 외에도 특정인이 작성한 소스 코드, 특정 선택을 암묵적으로 유도하는 사용자 인터페이스(user interface) 등을 통한 편향이 발생할 수 있다.

  • 인공지능 시스템의 구현 단계에서 편향 방지를 위해, 작성된 코드를 주기적으로 검토하여 코드 구현 과정에서 특정 클래스 접근이 누락되지는 않았는지, 개발자의 편견이 코드에 반영되지는 않았는지 등을 확인해야 한다.

  • 사용자 인터페이스 및 상호작용 측면에서는 표현 편향(presentation bias)이나 순위 편향(ranking bias) 등이 발생하지는 않는지 미리 확인하여 편향을 방지할 수 있도록 시스템을 설계하는 것이 바람직하다.

12-1a 데이터 접근 방식 구현과정 등 소스 코드에서의 편향 발생 가능성을 확인하였는가?

  • 인공지능 시스템은 모델에서 활용할 데이터에 접근하는 방식이 코드상에 구현되는 과정에서 특정 클래스 접근이 누락되는 등 다양한 형태의 편향이 발생할 수 있다.

  • 특히 규칙 기반 시스템(rule-based system)에서 다양한 분야의 경험이 있는 전문가를 선정하는 것이 바람직하다. 특정 분야 전문가의 지식을 기반으로 하드 코딩된 규칙을 사용할 경우, 출력 결과가 특정 클래스에 편향될 수 있으며 잠재적으로는 인지 편향(cognitive bias)을 일으킬 수 있다. 따라서 시스템의 편향 발생을 줄이기 위해서는 다양한 분야의 배경지식과 경험이 있는 전문가를 선정하는 것이 도움이 된다.

  • 인공지능 시스템 설계 및 개발 단계에서 발생한 편향을 확인하기 위해 오픈소스 도구(예: FairML, Google What-If Tool)를 활용할 수 있다. 이러한 도구들은 주기적으로 출력 데이터의 통계를 분석하여 알려지지 않은 편향을 발견하거나, 미리 지정한 공정성 평가지표에 따라 기능의 위험 여부를 알리는 등의 기능을 수행한다. 이 도구들을 활용함으로써 구현과정에서 편향을 빨리 발견하고 대응할 수 있다.

12-1b 사용자 인터페이스 및 상호작용 방식으로 인한 편향을 확인하였는가?

  • 인공지능 시스템은 사용자 인터페이스에 의한 암묵적인 유도 또는 사용자의 의도적인 오남용에 따라 사용자 상호작용 편향이 발생할 수 있다.

  • 사용자 상호작용 편향을 방지하기 위해서는 사용자 인터페이스 설계 및 구현 시 편향 발생 가능성이 있는 요소(예: 표현 편향, 순위 편향)를 미리 인식해 제거하여야 한다.

    • 표현 편향: 정보가 표현되는 방식에 따라 발생하는 편향이다. 예를 들어, 사용자는 제품 사용 시 보이는 콘텐츠만 클릭할 수 있으므로, 표시된 콘텐츠에서는 클릭이 발생하고 다른 콘텐츠에는 클릭이 발생하지 않는다. 이러한 사용자 인터페이스로 인해 특정 콘텐츠의 클릭만이 유도될 수 있다.

    • 순위 편향: 정보가 노출되는 순서에 따라 발생하는 편향이다. 사용자는 최상위 결과가 가장 관련성이 높고 중요하다고 생각하는 경향이 지배적이어서 상위에 노출된 결과가 하위에 노출된 결과보다 사용자의 선택 빈도가 높을 수 있다.

개선 의견 보내기

Last updated