01 인공지능 시스템에 대한 위험관리 계획 및 수행

  • 인공지능 시스템이 구현 및 운영되는 과정에서 발생 가능한 모델 오인식, 기능 오동작, 보안 및 개인정보 이슈 등의 위험 요소를 사전에 인식하고, 위험의 크기(심각성 및 파급효과)를 분석하여 대응 방안을 마련한다.


01-1 인공지능 시스템 생명주기에 걸쳐 나타날 수 있는 위험 요소를 분석하였는가?

  • 위험관리는 위험 인식(identification), 위험 분석(analysis), 위험 평가(evaluation), 위험 대응(treatment)으로 구분한다. 신뢰성 확보를 위해 이러한 네 가지 활동을 생명주기 단계별로 지속・반복적으로 수행함으로써 위험을 제거 및 방지하여야 한다. ISO 31000:2018 - Risk management에는 위험관리에 대한 개념 및 정의와 전체적인 흐름이 소개되어 있다.

  • 다만, 인공지능의 신뢰성을 확보하는 과정에서 방해가 될 수 있는 위험 요소를 인식, 분석 및 평가하는 방법론은 기존의 소프트웨어 및 하드웨어 기반 시스템과는 상이할 수 있으므로 이 점을 고려해야 한다. ISO/IEC 24028:2020 - Overview of trustworthiness in artificial intelligence와 ISO/IEC 23894:2023 - Guidance on risk management에서는 인공지능의 신뢰성 관점에서 살펴보아야 할 위험 요소의 분류가 제공되어 있다.

  • 위험 요소별로 위험이 발생할 수 있는 원인, 위험의 허용 범위, 상황 및 조건을 분석한 다음, 위험 요소가 인공지능 시스템 또는 인간 및 주변 환경에 얼마나 큰 영향을 미치는지 분석하여야 한다. 만약, 식별된 위험이 극단적으로 부정적인 결과를 초래할 수 있다고 판단된 경우, 인공지능 기술 적용에 대해 재검토하여야 한다.

  • 인공지능 시스템은 특성상 지속해서 그 형태와 형상이 변화할 수 있다. 이는 시스템에서 새로운 위험 요소가 지속해서 발생할 수 있음을 의미한다. 따라서, 생명주기 전반에 걸쳐 위험 요소 분석과 이에 대한 대응이 반복적으로 이루어져야만 적절하고 효과적인 위험관리가 이루어질 수 있다.

01-1a 인공지능 시스템의 위험 요소를 도출하고 이의 파급효과를 파악하였는가?

  • 인공지능 시스템의 위험 요소는 소프트웨어 및 하드웨어 기반 시스템에서 발생할 수 있는 요소와는 다르다. 소프트웨어의 결함 및 오류, 하드웨어의 노후화 및 마모 등과 달리 데이터 기반 분석의 특성으로 나타날 수 있는 편향, 설명 미제공, 모델에 대한 공격 등의 위험 요소를 도출해야 한다. 이러한 요소는 아래 참고와 같이 ISO/IEC 23894:2023ISO/IEC 24028:2020에 제시되어 있다.

  • 도출된 위험 요소별로 이를 야기할 수 있는 원인과 이에 따라 발생 가능한 결과를 분석해야 한다. 발생 가능한 결과란 사회적으로 부정적인 영향을 미칠 수 있는 현상 및 사고를 의미하며, 인체에 위해를 가하는 사고를 야기할 수 있는 차별적인 현상 등이 이에 해당한다.

  • 위험 요소의 발생으로 인한 결과는 심각도와 발생빈도 등의 척도를 기준으로 위험의 크기 또는 수준을 평가할 수 있다. 이는 위험 요소의 파급효과를 의미한다. 위험 요소를 평가해 파급효과가 큰 위험 요소를 최우선으로 대응 방안을 마련해야 한다.

  • 다만, 앞서 언급한 파급효과를 산정 및 평가하는 과정에서 심각도와 발생빈도뿐만 아니라, 상황에 맞는 척도를 도입하여 조합할 수 있다.

참고: 인공지능 시스템의 위험 요소

  • ISO/IEC 23894:2023에 따르면, 인공지능 시스템의 위험을 식별할 때 시스템의 특성과 그 응용 맥락에 따라 다양한 위험 요소들을 고려해야 한다. 위험 요소는 Annex B에서 다루고 있으며, 목록은 아래와 같다.

    • Complexity of environment

    • Lack of transparency and explainability

    • Level of automation

    • Risk sources related to machine learning

    • System hardware issues

    • System life cycle issues

    • Technology readiness

  • 또한, ISO/IEC 24028:2020에서는 인공지능 시스템 구현 관점에서 고려할 수 있는 취약점 및 위험 요소를 정리해 놓았으므로(Chapter 8. Vulnerabilities, threats and challenges) 이를 참고할 수 있다.

    • AI specific security threats

    • AI specific privacy threats

    • Bias

    • Unpredictability

    • Opaqueness

    • Challenges related to the specification of AI systems

    • Challenges related to the implementation of AI systems

    • Challenges related to the use of AI systems

    • System and Hardware faults

  • 측정 되지 않거나 측정할 수 없는 위험의 경우 적절히 문서화하여 확인할 수 있도록 하고 있고, 완화하지 못한 AI 위험이 현재 사용 가능한 측정 기법으로 평가하기 어렵거나 아직 지표를 사용할 수 없는 환경에서는 위험 추적 접근 방식을 고려한다.

01-1b 인공지능 기술 적용을 어렵게 만드는 위험 요소가 있는지 확인하였는가?

  • ISO/IEC 23894:2023에서는 위험 인식 단계에서 위험을 초래할 수 있는 위험 요소, 사건 또는 결과를 식별해야 한다고 말한다. 결과 식별은 조직, 개인, 커뮤니티, 집단, 사회에 대한 모든 결과를 대상으로 해야하며, 기술의 혜택을 경험하는 집단과 부정적인 결과를 경험하는 집단 간의 차이를 식별하는 데 특별한 주의를 기울여야 한다. 식별해야 할 결과의 예시는 다음과 같다.

    • 기회의 획득 또는 상실

    • 개인의 건강이나 안전에 대한 위협

    • 피해 복구를 위한 특정 기술에 대한 재정적 비용

  • 만약 인공지능 기술이 극단적으로 부정적인 결과를 초래할 수 있다고 확인된 경우, 인공지능 기술 적용에 대해 재검토하여야 한다. UNESCO의 <Recommendation on the Ethics of Artificial Intelligence>와 같은 일부 문헌에서는 인공지능 기술을 적용하지 않아야 하는 특정 분야를 명시하고 있다.

참고: UNESCO, EU에서 언급한 인공지능 기술이 적용되지 말아야 할 분야의 예시

  • Recommendation on the Ethics of Artificial Intelligence(UNESCO): Proportionality and Do No Harm

    • 인공지능 시스템은 소셜 스코어링social scoring이나 대규모 감시mass surveillance 목 적으로 사용되어서는 안 된다.

  • Artificial Intelligence Act(EU): Unacceptable risk

    • 허용할 수 없는 위험을 갖는 인공지능 시스템은 인간에게 위협이 되는 것으로 간주되어 금지되어야 할 시스템이다. 여기에는 다음이 포함된다:

      • 사람이나 특정 취약 집단에 대한 인지 행동 조작(예: 어린이의 위험한 행동을 조장하는 음성 인식 장난감)

      • 소셜 스코어링social scoring

      • 안면인식 등 실시간 원격 생체 인식 시스템


01-2 위험 요소를 제거 및 방지하거나 영향을 완화하기 위한 방안을 마련하였는가?

  • 01-1에서 분석된 위험 요소별로 대응 방안을 마련하여야 한다. 위험 요소의 원인을 제거함으로써 인명 피해 및 사고를 미연에 방지하거나, 사고로 인한 파급효과 및 부정적 영향을 최소화하기 위한 수단이 이에 해당한다.

  • 대응 방안이란, 구현 및 운영 방식 등의 절차, 소프트웨어 및 하드웨어 기능, 모델 학습 기법 및 전략 등 기술적으로 적용할 수 있는 모든 방법을 의미한다. 이에 대해 01-2b의 참고와 같이 ISO/IEC 24028:2020에서 대응 방안의 분류를 제공한다. 인공지능을 구현하는 모든 이해관계자는 이를 고려하여 위험 요소에 대한 대응 방안을 마련하고, 위험이 제거 및 완화되었는지 확인하여야 한다.

  • 만일 AI를 폐기하게 되는 경우에도 위험이 커지거나 조직의 신뢰도를 떨어뜨리지 않는 방식으로 단계적 절차를 마련하여 폐기한다.

01-2a 위험 요소별 완화 또는 제거 방안을 마련하였는가?

  • 위험 대응을 통해 위험의 부정적인 결과를 수용 가능한 수준으로 줄이고 긍정적인 결과를 달성할 가능성을 높이도록 해야 한다. 위험 요소별 다양한 대응 방안이 도출될 수 있으며, 각각의 방안에는 장단점이 있을 수 있으므로 신중하게 대응 방안을 선택하고 효과적으로 실행하여야 한다.

  • 대응 방안의 한 가지 예로, 편향 완화를 위해 출처 및 데이터 소스를 분석하여 위험을 파악하고 데이터 수집 또는 라벨링 프로세스를 검토하는 것이 될 수 있다. 추가 예시는 다음 참고와 같이 ISO/IEC 24028:2020에 제시되어 있다.

참고: 인공지능 시스템의 위험 대응 방안

  • ISO/IEC 24028:2020에서는 인공지능 시스템 구현 관점에서 고려할 수 있는 취약점 및 위험 요소를 정리하였으며(Chapter 8. Vulnerabilities, threats and challenges), 이에 대한 대응 방안(Chapter 9. Mitigation measures)이 개괄적으로 제시되어 있으므로 이를 참고할 수 있다.

  • ISO/IEC 23894:2023 의 위험관리 프레임워크에서는 조직의 운영에 위험관리 활동을 통합할 것을 제안하며, 조직의 내외부적 상황을 고려한 넓은 범위의 위험관리 활동을 권장한다. 또한 위험관리 활동을 포함한 위험관리 프로세스를 기록 및 보고하고 지속적으로 업데이트 하라고 안내한다.

    • 내외부적 상황: 조직, 고객, 공급자, 최종 사용자, 커뮤니티, 규제, 시민단체 등

    • 위험의 범위: 시간관련 요소, 위험수준 결정 방법, 조직의 위험 수용력 등

01-2b 위험 요소의 파급효과가 감소하였는지 확인하였는가?

  • 위험 요소를 발생시킬 수 있는 구현 및 운영 방식, 소프트웨어 및 하드웨어 기능, 모델 학습 기법 및 전략 등의 기술적인 방법론을 도출하여야 한다. 이러한 방법론에 대한 분류와 개략적인 내용은 ISO/IEC 24028:2020에 제시되어 있다.

  • 앞서 위험 요소를 분석하는 과정에서 위험 요소의 파급효과를 평가하였는데, 파급효과가 가장 큰 위험 요소를 우선순위로 대응 방안을 적용해야 하며, 위험의 파급효과가 큰 경우 인공지능 시스템의 판단 결과에 대한 사람의 개입을 고려하는 등의 위험 완화 방안을 적용해야 한다.

  • 대응 방안이 적용된 이후에는 파급효과를 재평가함으로써 위험 요소가 실제로 제거, 방지 혹은 이의 영향이 완화되었는지 확인하여야 한다.

개선 의견 보내기

Last updated