2. 인공지능 신뢰성 동향

02 인공지능 신뢰성 동향

현재 세계의 주요 국가와 표준 관련 기구, 기술단체들은 인공지능 신뢰성 확보를 위해 다양한 원칙과 방안들을 제시하고 있다. 본 절에서는 인공지능이 폭넓게 활용되면서 발생하는 문제점이나 위험을 알아보고 이를 해결하기 위해 국내외에서 진행 중인 관련 정책 및 연구 동향을 살펴보고자 한다.

2.1. 인공지능 확산에 따른 문제점

인터넷이나 스마트폰 등의 신기술이 우리의 일상과 사회를 빠르고 편리하게 변화시킴과 동시에 새로운 문제가 등장했듯, 사회와 인공지능이 활용되면서 새로운 문제나 위험에 대한 우려가 등장했다. 이러한 문제 상당수는 사회적, 윤리적인 문제이므로 기술을 개선하거나 신기술을 도입하는 것만으로는 해결할 수 없다. 실제로 사용자가 인공지능 기술을 악의적인 목적으로 활용하거나 인공지능이 반사회・반인륜적인 판단을 하여 사회적 혼란을 유발하는 사건이 종종 발생하고 있다.

인공지능 사고사례


  • 사고사례 1: 챗GPT가 알려준 가짜 판례 제출한 美 변호사

미국의 한 변호사가 챗GPT가 제시한 판례가 담긴 의견서를 법원에 제출. 그러나 해당 판례는 모두 가짜인 것으로 드러났으며, 챗GPT에 ‘진짜 판례가 맞느냐’고 거듭 확인했으나, 끝까지 ‘그렇다’고 주장('23.5.)

시사점: 생성형 인공지능의 할루시네이션(hallucination) 발생에 따른 우려

  • 사고사례 2: 가짜 인터뷰 기사를 만든 인공지능 챗봇

독일의 한 주간지는 인공지능 챗봇을 활용해 인터뷰 내용을 만들어 만난 적도 없는 유명 레이싱 선수의 가짜 인터뷰 기사를 대서 특필('23.4.)

시사점: 인공지능을 통해 가짜 정보를 제작・유포하여 사회적 혼란 유발

  • 사고사례 3: 체스 경기 도중 사고 발생

모스크바 체스 토너먼트에서 체스 로봇과 경기를 벌이던 7세 소년이 안전 규정을 어겨 로봇에 의해 손가락이 부러짐('22.7.)

시사점: 인공지능과 연동된 하드웨어로 인한 안전사고 발생

  • 사고사례 4: 피부색에 따라 차별하는 이미지분석 서비스

Google의 Vision API는 흑인 여성이 입고 있는 의사 가운을 ‘길거리 패션’으로 분류. 그러나, 같은 여성에 피부만 밝게 했더니 ‘정식 의복’으로 분류('22.7.)

시사점: 피부색에 따른 차별적 결과 도출


2.2. 인공지능 신뢰성 개념

앞서 사례에서 살펴봤듯 인공지능 제품・서비스는 단지 ‘구현할 수 있는가?’라는 기술적 측면뿐 아니라 ‘이 제품・서비스가 존재해도 괜찮은가?’라는 윤리적 측면도 검토해야 한다. 특히 인공지능이 다양한 분야에 활용되면서 인공지능 시스템과 학습 모델에 윤리적인 결함이 있는데도 이를 인지하지 못한 채 사용될 경우 매우 큰 파급효과를 낳을 수 있다. '인공지능 신뢰성'이란 데이터 및 모델의 편향, 인공지능 기술에 내재한 위험과 한계를 해결하고, 인공지능을 활용하고 확산하는 과정에서 부작용을 방지하기 위해 준수해야 하는 가치 기준을 말한다. 주요 국제기구를 중심으로 인공지능 신뢰성을 확보하는 데 필수적인 요소가 무엇인지 활발한 논의가 이루어지고 있다. 일반적으로 안전성, 설명가능성, 투명성, 견고성, 공정성 등이 신뢰성을 확보하는 데 필수적인 요소로 거론되고 있다.

인공지능 신뢰성의 주요 핵심 속성 및 의미

핵심 속성의미

안전성(safety)

인공지능이 판단・예측한 결과로 시스템이 동작하거나 기능이 수행됐을 때 사람과 환경에 위험을 줄 가능성이 완화 또는 제거된 상태

설명가능성(explainability)

인공지능의 판단・예측의 근거와 결과에 이르는 과정이 사람이 이해할 수 있는 방식으로 제시되거나, 문제 발생 시 문제에 이르게 한 원인을 추적할 수 있는 상태

투명성(transparency)

인공지능이 내리는 결정에 대한 이유가 설명 가능하거나 근거가 추적 가능하고, 인공지능의 목적과 한계에 대한 정보가 적합한 방식으로 사용자에게 전달되는 상태

견고성(robustness)

인공지능이 외부의 간섭이나 극한적인 운영 환경 등에서도 사용자가 의도한 수준의 성능 및 기능을 유지하는 상태

공정성(fairness)

인공지능이 데이터를 처리하는 과정에서 특정 그룹에 대한 차별이나 편향성을 나타내거나, 차별 및 편향을 포함한 결론에 이르지 않는 상태

※ 프라이버시(privacy), 지속가능성(sustainability) 등도 핵심 속성 중 하나로서 다양하게 논의 중

참고: 주요 기관에서 논의 중인 인공지능 신뢰성 개념

  • (국제표준화기구, ISO) 신뢰성의 세부 속성으로 가용성(availability), 회복탄력성(resiliency), 보안성(security), 프라이버시, 안전성, 책임성, 투명성, 통합성(integrity) 등 제시(ISO/IEC TR 24028:2020)

  • (경제협력개발기구, OECD) 지속가능한 사회와 인간 중심의 가치에 부합하고 투명성, 설명가능성, 견고성 및 안전성을 갖춘 인공지능('19)

  • (美국립표준연구소, NIST) 유효하고 신뢰할 수 있으며, 안전하고, 회복력있고, 책임있고 투명하며, 설명가능하고 해석 가능하며, 개인정보를 강화하고, 유해한 편향을 관리하는 공정성을 포함하는 개념('23)

  • (유럽위원회, EC) 인공지능은 활용 및 동작이 합법적이며, 윤리적이고 기술적・사회적으로 견고해야 함('19)

2.3.국내외 인공지능 신뢰성 정책 및 연구 동향

유럽위원회, 미국 등 주요국들은 인공지능의 신뢰성 확보가 인공지능의 사회적・산업적 수용과 발전의 전제 조건으로 정의하고 신뢰성 확보 정책을 추진하고 있다. 또한 산업계 및 학계에서도 관련 기술 개발을 중심으로 신뢰성 확보를 위한 연구가 활발하다. 구체적으로 유럽위원회, 미국 등 주요국에서는 인공지능 신뢰성을 확보하는 데 필요한 정책과 규범을 본격적으로 마련하고, 이와 함께 국가 차원의 인공지능 전략 핵심 요소로 Trustworthy AI, Safe AI 등을 명시했다. 특히, 유럽위원회는 지난 2021년도에 규제안을 제시하는 등 선제적으로 신뢰성 확보를 위한 법제화 움직임을 보이고 있다. 한편, 민간 부문에서는 인공지능 신뢰성 확보를 위한 가이드라인을 마련하여 인공지능의 신뢰성을 자율적으로 점검하고 확보할 수 있는 환경을 조성하고자 노력하고 있다. 기술 분야에서는 미국, 유럽 등 주요국의 학계와 글로벌 기업이 인공지능 신뢰성 확보에 필요한 제반 기술을 개발 중이다. 우리나라도 글로벌 동향에 맞춰 <인공지능(AI) 윤리기준('20.12)>, <신뢰할 수 있는 인공지능 실현 전략('21.5)>, <인공지능 일상화 및 산업 고도화 계획('23.1)>을 발표하며 정책 및 연구 개발 양면에서 발 빠르게 움직이고 있다.

해외 주요 산・학・연 인공지능 신뢰성 연구 동향

기관명활동 및 내용

美 방위고등연구계획국(DARPA)

지능형 시스템에 대한 안전성・신뢰성 확보 연구(Assured Autonomy) 및 설명가능한 인공지능(XAI, eXplainable AI) 연구・개발 프로젝트 수행 중

美 국립표준기술연구소(NIST)

글로벌 기업 및 연구기관과 공동으로 기업・실무자가 활용 가능한 인공지능 위험관리 프레임워크(Risk Management Framework)를 개발하고, 안전하고 신뢰할 수 있는 인공지능을 만들기 위한 노력을 지원하기 위해 미국 인공지능 안전 연구소(USAISI) 및 관련 컨소시엄을 설립

美 스탠퍼드 대학

매년 인공지능 기술 수준 및 동향을 수록한 ‘AI Index’를 공개하고, 인공지능 안전성 관련 연구 수행 중

IBM

‘Trusted AI’를 모토로, 공정성・설명가능성・견고성 확보를 위한 내부 업무 지침 및 백서, 개발・검증 도구 공개

Microsoft

‘Responsible AI’를 모토로, 공정성・설명가능성・투명성 확보를 위한 내부 지침 및 업무 표준, 개발・검증 도구 공개

Google

‘Responsible AI’ 개발을 위한 원칙 제정, 신뢰성 확인 및 검증을 위한 가이드라인과 도구 공개

글로벌 인공지능 신뢰성 관련 정책 동향

국가주요 정책(연도)

한국

  • 2023: 인공지능 일상화 및 산업 고도화 계획, 초거대AI 경쟁력 강화 방안, 전국민 AI 일상화 실행계획

  • 2021: 사람이 중심이 되는 인공지능을 위한 신뢰할 수 있는 인공지능(AI) 실현 전략

  • 2020: 사람이 중심이 되는 인공지능(AI) 윤리기준

  • 2019: 인공지능 국가전략

유럽위원회

  • 2023: 인공지능법

  • 2019: 신뢰할 수 있는 인공지능 윤리 가이드라인

유네스코

  • 2021: 인공지능 윤리 권고

G7

  • 2023: 히로시마 AI 프로세스

미국

  • 2023: 안전하고 신뢰할 수 있는 AI에 관한 행정 명령, 자발적인 인공지능 위험 관리 약속

  • 2022: 인공지능 권리장전

영국

  • 2023: 인공지능(규제) 법안, 경쟁적인 AI 시장 선도 및 소비자 보호를 위한 원칙,

  • 2023: AI 안전성 정상회의 – 브레츨리 선언

중국

  • 2023: 생성 AI 서비스 규제 규정

일본

  • 2022: 인공지능 원칙 구현을 위한 거버넌스 가이드라인, AI전략 2022

  • 2019: 인공지능 활용전략

싱가포르

  • 2020: 인공지능 거버넌스 프레임워크

개선 의견 보내기

Last updated