02 인공지능 거버넌스 체계 구성

  • 인공지능 시스템은 윤리와 관련된 문제가 발생할 가능성을 잠재적으로 내포하고 있다. 이러한 인공지능 시스템의 사회적 영향과 결과를 예측하고 대비하는 조직을 구성하는 것은 인공지능 신뢰성을 확보하는 데 중요한 요소이다. 따라서 인공지능 관련 법, 규제, 정책, 표준 및 지침을 정리하여 내부적으로 준수해야 할 규정을 수립하고, 이를 관리・감독하는 인공지능 거버넌스* 체계를 구성한다.

거버넌스: 조직(organization)의 목적, 기회, 위험 및 이익을 파악하는 지속적인 프로세스


02-1 인공지능 거버넌스에 대한 지침 및 규정을 수립하였는가?

  • 인공지능과 관련된 조직에서는 인공지능 시스템 신뢰성 확보를 위한 거버넌스 체계를 구성할 필요가 있다. 인공지능 시스템은 학습이나 추론 과정에서 윤리 및 지식재산권IP(Intellectual Property) 관련 문제, 보안 및 개인정보 이슈가 발생할 수 있기 때문이다. 이러한 위험 요소에 대비하기 위해 내부적으로 인공지능 거버넌스에 대한 지침 및 규정을 수립해야 한다.

  • NIST의 AI RMF(Risk Management Framework)에서는 인공지능 시스템 생명주기에 따라 내부 규정, 절차, 과정 및 실제 행위가 투명하고 효율적으로 이루어져야 한다고 언급한다. 즉, 인공지능과 관련된 법, 규제 관련 요구사항이 이해・관리되어 문서화하고, 위험관리 절차와 산출물이 체계를 통해 투명하게 관리되어야 한다.

  • 내부적으로 수립해야 할 규정은 활용 측면에 따라 크게 두 가지로 구분하여 마련할 수 있다.

    • 첫째, 인공지능 관련 법, 규제, 정책, 표준 및 지침을 채택・정리하여 내부적으로 이행해야 할 지침 및 규정을 수립해야 한다.

    • 둘째, 인공지능 시스템 생명주기에 따른 조직의 역할과 책임을 명확하게 문서화해야 한다.

02-1a 내부적으로 준수해야 할 인공지능 거버넌스에 대한 지침 및 규정을 마련하였는가?

  • 윤리 원칙의 수립은 인공지능 거버넌스 체계에서 기본적으로 갖춰져야 할 단계로, 인공지능과 관련된 법, 규제 및 정책을 이해한 후 내부적으로 윤리적 측면에서 이행해야 할 규정을 정의해야 한다. 즉, 인공지능과 관련된 위험을 인식하고 대비하기 위해 기업 성격에 맞는 핵심 가치를 선정하고 이와 관련된 표준 및 지침을 채택하여 내부 규정을 제공해야 한다.

  • 인공지능 시스템의 신뢰성 확보를 위해서 인공지능 거버넌스 및 조직 전체의 업무, 역할, 의무 및 책임이 명확해야 한다. 이와 관련한 지침을 마련해 조직 구성원에게 제공함으로써 자신의 역할과 책임을 인식할 수 있다.

참고: 윤리 원칙을 수립한 국내 기업의 사례

  • 국내 기업 네이버에서 신뢰할 수 있는 인공지능 제품 연구・개발을 위해 ‘인공지능 윤리 준칙’을 수립하였다. 이는 기업의 모든 구성원이 지켜야 할 올바른 행동과 가치 판단의 기준이 되는 원칙을 의미한다. 인간존중(humanity), 공정성(fairness), 설명가능성(explainability), 안전성(safety), 프라이버시보호(privacy protection)의 5대 핵심 가치를 기반으로 윤리 준칙을 마련하였다.

참고: 인공지능 거버넌스 조직 구성원의 주요 역할과 책임 지침 예시

  • Model Artificial Intelligence Governance Framework 2nd('20.1)*는 인공지능을 책임감 있게 배포하기 위해 실제로 활용할 수 있는 실용적인 윤리 원칙을 제공한다. 다음은 인공지능 거버넌스를 위한 조직 구성원의 역할 및 책임과 관련된 지침의 예시이다.

    • 기존 위험관리 프레임워크를 사용하고 위험 관리 조치를 적용한다.

      • 인공지능 배포의 위험을 평가하고 관리한다.

      • 인공지능 의사결정에 대한 인간의 적절한 개입 수준을 결정한다.

      • 인공지능 모델 학습 및 선정 과정을 관리한다.

    • 인공지능 모델의 유지관리, 모니터링 및 문서화를 검토한다.

    • 이해관계자와 상호작용 및 의사소통한다.

    • 인공지능 시스템을 다루는 구성원이 교육받도록 보장한다.

      • 인공지능 모델의 결정을 해석하고, 데이터의 편향을 감지 및 관리하도록 교육한다.

      • 인공지능을 사용할 때 최소한의 이점, 위험 및 한계를 알 수 있도록 교육한다.

* 싱가포르의 IMDA(Infocomm Media Development Authority,정보통신미디어개발기관)와 PDPC(Personal Data Protection Commission,개인정보보호위원회)에서 발행한 문서로, 유럽위원회 및 OECD 등 선도적 국제 플랫폼을 통해 얻은 피드백을 통합한 문서이다. 이는 인공지능 윤리 및 거버넌스에 대한 원칙, 프레임워크 및 권장 사항 등을 제공한다.


02-2 인공지능 거버넌스를 위한 조직을 구성하고 인력 구성에 대해 검토하였는가?

  • 02-1에서 언급했듯이, 인공지능 시스템은 윤리와 관련된 문제가 발생할 수 있다는 위험 요소가 존재한다. 따라서 다양한 위험 요소를 인식하고 관련 규정을 마련하여 이를 실행할 수 있도록 관리 및 감독하는 조직이 필요하다.

  • 유네스코가 발표한 인공지능 윤리 권고에서는 인권 및 법치 사회에 대한 인공지능 시스템의 영향을 식별, 예방 및 완화하고 그에 따른 의무를 이행하기 위해 감독 메커니즘이 있어야 한다고 명시하고 있다.

  • 따라서 인공지능 거버넌스는 윤리적 측면에 관한 규정을 마련하고, 지침 준수 및 절차적 요건 충족 여부 등을 포함하여 감독하여야 한다. 또한, 이러한 조직은 각 담당자가 맡은 역할과 책임에 대해 충분히 인식하고 관련 역량을 갖춘 인력으로 구성할 필요가 있다.

  • 단, 가능하다면 인공지능 거버넌스를 위한 조직은 외부 전문가(예: 심리학자, 데이터 과학자, 행정 전문가)를 포함하여 구성할 필요가 있다. 외부 전문가들은 내부 조직에서 발생할 수 있는 편향된 시각을 보완하고, 집단 사고(group think) 등의 문제를 극복하는 데 도움을 주기 때문이다.

02-2a 인공지능 거버넌스를 위한 조직을 구성하였는가?

  • 조직의 윤리 원칙 수립 후 이를 실행할 수 있도록 관리하는 것이 인공지능 거버넌스 체계의 목표이다. 즉, 내부 규정을 마련하고 이를 준수하는지 확인할 필요가 있다.

  • 신뢰할 수 있는 인공지능(trustworthy AI)을 위해서 인공지능 거버넌스 체계는 정기적으로 인공지능 관련 사고 및 이슈 사례 리뷰, 원칙 및 규정 수립, 잠재적 문제에 대한 계획 및 대응책 마련을 수행해야 한다.

  • ALTAI에서는 인공지능 윤리와 관련된 문제에 대해 대비할 수 있도록 인공지능 거버넌스 체계를 구축하는 것을 고려하길 권고한다.

참고: NIST AI Risk Management Framework에서의 거버넌스 방침

  • GOVERN 2.1 섹션에서는 조직 내에서 인공지능 위험관리와 관련된 역할과 책임에 대해 다룬다. 이는 조직 내 위험 인식 문화를 조성하여 조직이 위험을 효과적으로 관리할 수 있도록 한다. 조직은 인공지능과 관련된 다양한 직무에서 해야할 일과 책임을 명확히 하는 규칙을 마련해야 하며, 직무의 예시는 다음과 같다.

    • 이사회 또는 자문위원회 (Boards of directors or advisory committees)

    • 고위 경영진 (Senior management)

    • 인공지능 감사 기능 (AI audit functions)

    • 프로젝트 관리 (Project management)

    • 인공지능 설계 (AI design)

    • 인공지능 개발 (AI development)

    • 인간-인공지능 상호작용 (Human-AI interaction)

    • 인공지능 테스트 및 평가 (AI testing and evaluation)

    • 영향 평가 기능 (Impact assessment functions)

    • 감독 기능 (Oversight functions)

  • GOVERN 4.1 섹션에서는 잠재적인 부정적 영향을 최소화하기 위해 AI 시스템의 설계, 개발, 배포, 사용 시 비판적 사고와 안전 우선 사고방식을 장려하는 조직 정책과 관행을 마련하는 것을 권고 하고 있다.

02-2b 인공지능 거버넌스를 위한 조직은 전문성을 갖춘 인력으로 구성하였는가?

  • 인공지능 거버넌스 담당 조직은 자신이 맡은 역할과 책임에 대해 충분히 인식한 인력으로 구성해야 한다. 이들은 인공지능 생명주기에 걸친 모든 프로세스의 중심적인 역할로서, 담당자가 이를 충분히 인식한 후 책임지고 관리해야 인공지능 시스템의 신뢰성을 확보할 수 있기 때문이다.인공지능 거버넌스 담당 조직은 각기 다른 배경과 전문지식을 기반으로 충분히 숙련된 인력으로 구성해야 한다. 특히, 규정을 마련하는 역할을 맡은 담당자는 인공지능 윤리 및 신뢰성 분야의 원칙, 가이드라인, 표준 등에 대한 폭넓은 전문지식을 갖춰야 하며, 이를 적절히 해석하여 조직 업무에 적용하기 위한 기술력과 타 업무 담당자와의 의사소통 역량이 필요하다. 또한, 정의된 규정을 실행하고 관리하기 위해 각 담당자에게 관련 교육을 제공하여 충분히 훈련해야 한다.


02-3 인공지능 거버넌스 체계가 올바로 이행되고 있는지 감독하고 있는가?

  • 인공지능 거버넌스 체계를 운영하는 주체는 운영 결과에 대한 책임을 져야 하고, 이 책임은 위임할 수 없다. 따라서 인공지능 거버넌스 운영 담당자는 조직이 내부 지침 및 규정을 준수하는지에 대해 감독해야 한다.

  • ISO/IEC 38507:2022 - Governance implications of the use of artificial intelligence by organizations에서 인공지능 거버넌스 체계는 인공지능 시스템에서 발생할 수 있는 위험에 따라 인공지능 시스템의 설계 및 사용에 대한 감독을 수행해야 한다고 언급하고 있다. 즉, 인공지능 거버넌스 체계를 통해 수립한 내부 규정을 조직이 적절히 이행하고 있는지 감독해야 한다.

02-3a 인공지능 거버넌스에 대한 내부 지침 및 규정 준수 여부를 감독하고 있는가?

  • 인공지능 거버넌스 담당자는 인공지능 시스템 생명주기에 따라 조직이 내부 규정을 준수함을 확인 및 감독해야 한다. 또한, 신뢰성 있는 인공지능 시스템을 목표로 적절히 관리 및 통제됨을 관련 이해관계자에게 입증해야 한다.

  • 특히, 인공지능 시스템 위험관리와 관련된 내부 규정을 이행하는지 감독함으로써 인공지능 시스템의 잠재적 위험으로부터 조직 및 이해관계자를 보호하고 조직의 역량을 향상할 수 있다.

  • 따라서 인공지능 거버넌스 체계에서 감독을 담당하는 조직은 인공지능 시스템에 대한 이해를 바탕으로 역할에 대한 책임 및 권한을 명확히 인지하여 인공지능 시스템 생명주기에 걸쳐 모든 규정이 이행되는지 감독해야 한다.


02-4 인공지능 거버넌스 조직이 신규 및 기존 시스템의 차이점을 분석하였는가?

  • 무분별한 인공지능 시스템 개발이 범람할 경우, 서비스 사용자에게 혼란을 가중할 뿐만 아니라 시스템 개발 및 유지보수에 불필요한 예산 사용을 초래한다.

  • 신규 계획 중인 인공지능 시스템이 기존에 운영 중인 시스템과 활용 대상 및 역할 측면에서 유사한지 고려하고, 기존 시스템에 대한 벤치마크 및 사례 연구를 통한 개선이 가능한지 분석한 결과를 기반으로 시스템을 계획 및 설계해야 한다.

02-4a 기존 동일 목적의 시스템과 비교하여, 신규 시스템이 개선할 수 있는 사항을 분석하였는가?

  • 신규 인공지능 시스템 구축을 준비할 때, 구축하고자 하는 목적과 유사한 기존의 시스템이 존재할 수 있으므로 구축 사례들을 조사하는 것이 좋다. 이는 기존 동일 목적의 시스템의 문제점을 파악하여 신규 시스템이 좀 더 편리하고, 효율적으로 활용될 수 있도록 개선 사항을 도출하기 위함이다.

  • 개선 사항 도출 과정에는 기존의 유사한 인공지능 시스템에 대한 벤치마크 및 사례 연구를 활용할 수 있다. 또한, 주요 이해관계자들의 의견 교류가 필수적으로 수반되어야 하며, 객관적인 기준, 근거, 검증을 기반으로 개선 사항을 도출해야 한다.

개선 의견 보내기

Last updated