3. 안내서 마련 과정

03 안내서 마련 과정

끊임없이 진화하는 인공지능 환경에서 국내외적으로 윤리적 지침, 원칙, 규제의 접근 방식이 확산되고 있는 것은 부인할 수 없는 사실이다. 그러나 이러한 원칙을 명확하게 설명할 뿐만 아니라 복잡하고 실용적인 방법론을 제공하는 포괄적인 문서, 특히 콘텐츠 제작 분야에 특화된 생성 AI 기반 서비스 개발에 초점을 맞춘 기술적인 문서에는 여전히 공백이 존재한다.

본 안내서의 목적은 다양한 이해관계자를 위한 실용적인 나침반 역할을 하는 강력한 리소스를 소개함으로써 이러한 중요한 격차를 해소하는 것이다. 이 포괄적인 그룹에는 데이터 과학자, 모델 개발자, 도메인 전문가가 포함되며, 이들은 모두 생성 AI 기반 서비스를 개발하거나 사용하는 데 상당한 영향력을 행사한다. 이러한 서비스는 기본 생성 AI 모델을 API 형태로 활용하거나 사전에 학습된 생성 AI 모델을 특정 목적에 맞게 더욱 세밀하게 조정하여 개발하고 있다. 끊임없이 변화하는 생성 AI 기반 서비스 개발의 지형 속에서 신뢰성과 윤리적 고려라는 두 가지 축을 보장하는 데 필요한 실용적인 지식과 도구를 관련 전문가에게 제공하고자 노력하였다.

본 안내서는 학계와 업계에 종사하는 도메인 전문가, 연구자, 산업계 실무자, 법률 전문가의 집단적 지혜와 공동의 노력으로 만들어졌다. 이들의 적극적인 참여는 내용을 풍부하게 만들었을 뿐만 아니라 실제 현장에서의 실용성이라는 귀중한 본질을 심어 주었다. 또한 제작 과정에서는 인공지능 및 생성 AI 서비스 전문 기업과도 적극적으로 교류하였으며, 이러한 협업을 통해 심도 있는 연구를 수행하고, 포괄적인 사례 연구를 수집하며, 비판적인 피드백 과정을 거쳐 실무 활용도를 높이고자 했다.

3.1. 인공지능 신뢰성 프레임워크

안내서 개발 과정 중 가장 우선적으로, 신뢰성 확보를 위해 어떤 요소가 실무적으로 고려되어야 하는지를 탐색해 보았다. 그 결과 세 가지 설계 요소를 도출하여 안내서에 반영하였다. 각 설계 요소는 요구사항과 검증항목을 마련할 때 모두 반영되었으며, 이러한 접근법을 다음 그림과 같이 매트릭스(matrix) 형태로 체계화하여 '인공지능 신뢰성 프레임워크'로 정의하였다. 이 프레임워크는 생성 AI 분야뿐만 아니라 일반 분야 및 기타 산업에도 적용할 수 있다.

인공지능 신뢰성 프레임워크

첫째는 인공지능 구성요소이다. 인공지능을 구성하는 4가지 요소는 학습과 추론 기능을 수행하는 인공지능 모델 및 알고리즘, 인공지능 학습용 데이터, 실제 기능을 구현할 시스템, 사용자와 상호작용을 하기 위한 인터페이스가 있다. 각 구성요소는 개별적으로 또는 통합적으로 인공지능 서비스의 생명주기에 따라 개발・검증・운영된다. 따라서 구성요소별 신뢰성 확보 방안을 고민하고, 각 요소에 따른 요구사항과 검증항목을 제시하고자 했다. 각 요소에 대한 신뢰성 확보 방안은 다음과 같다.

인공지능 서비스 구성요소

인공지능 서비스 구성요소신뢰성 확보 방안

인공지능 학습용 데이터

인공지능 학습 및 추론 과정에 활용하는 데이터를 대상으로 편향성 등이 배제되었는지 검증

인공지능 모델 및 알고리즘

인공지능이 모델 및 알고리즘에 따라 안전한 결과를 도출하며, 그에 대한 설명이 가능한지, 악의적인 공격에 견고한지 등을 검증

인공지능 시스템

인공지능 모델 및 알고리즘이 적용된 전체 시스템을 대상으로 인공지능이 추론한 대로 작동하는지, 인공지능이 잘못 추론한 경우의 대책이 존재하는지 등을 검증

사람-인공지능 인터페이스

인공지능 시스템 사용자・운영자 등이 인공지능 시스템의 동작을 쉽게 이해할 수 있으며, 인공지능의 오작동 시 사람에게 알리거나 제어권을 이양하는지 등을 검증

둘째, 인공지능 서비스 생명주기는 첫째에서 살펴본 인공지능 서비스 구성요소를 구현하고 운영하는 일련의 절차를 말한다. 기존 소프트웨어 시스템에서 다루는 공학 프로세스나 생명주기와 비슷하나 인공지능 특성상 데이터 처리 및 모델 개발 단계가 별도로 필요하며, 이외의 단계에서도 주요 활동에 대한 정의가 조금씩 달라진다. 현재 인공지능 혹은 인공지능 서비스의 생명주기는 다수의 문헌에서 6~8단계로 구분하고 있다. 대표적으로 OECD와 ISO/IEC에서 제시한 생명주기가 있는데, 본 안내서는 두 기구에서 제시한 생명주기를 대표성 있는 사례로 참고하여, 실무자가 쉽게 활용할 수 있도록 각 생명주기 단계의 성격과 활동을 왜곡하지 않는 선에서 다음과 같이 5단계로 정리하였다.

인공지능 서비스 생명주기별 주요 활동

생명주기 단계주요 활동
  1. 생명주기 관리

  • 인공지능 시스템 관리 감독 조직 및 방안 마련

  • 인공지능 시스템 위험요소 분석 및 대응 방안 마련

  1. 데이터 수집 및 처리

  • 데이터 품질 확보, 데이터 사용자의 이해를 위한 정보 제공 방안 마련

  • 데이터 라벨링 및 데이터셋 특성(feature) 문서화

  • 인공지능 모델 구축을 위한 데이터셋 마련

  1. 인공지능 모델 개발

  • 비즈니스 목적에 따른 인공지능 모델 구현

  • 구현된 인공지능 모델 확인 및 검증

  • 인공지능 모델 튜닝, 데이터 분석, 추가로 필요한 데이터 수집

  • 인공지능 모델에 대한 성능평가

  1. 시스템 구현

  • 문제 발생 대비 안전모드 구현 및 알림 절차 수립

  • 인공지능 시스템 검증 및 사용자 설명에 대한 평가

  1. 운영 및 모니터링

  • 시스템 모니터링 및 인공지능 모델 재학습을 통한 성능 보장

  • 모델 편향 탐지, 공평성, 설명가능성 등 시스템 신뢰성 모니터링

  • 치명적 문제 발생 시 해결 방안 마련

인공지능 서비스의 생명주기 단계는 반복적・순환적인 성격을 띠지만 반드시 순차적인 것은 아니다. 본 안내서는 이해를 돕기 위해 1단계부터 5단계까지 순차적인 것처럼 설명했으나 실제 데이터를 수집하고 가공하거나 모델을 개발・운영하는 과정에서는 순서가 달라질 수 있다.

셋째, 인공지능 신뢰성에 필요한 특성을 정의하고자 '인공지능 윤리 기준'의 10대 핵심 요건을 준용하여 기술적 관점에서 필요한 요구사항과 검증항목으로 '다양성 존중', '책임성', '안전성', '투명성'을 도출했다.

EC, OECD, IEEE, ISO/IEC와 같은 국제기구 등은 인공지능 신뢰성의 하위 속성을 세분화해 제시하고 있다. 특히, ISO/IEC 24028:2020 - Overview of trustworthiness in artificial intelligence는 신뢰성 확보에 필요한 고려 사항의 형태로 키워드를 제공한다. 여기에는 투명성, 통제가능성, 견고성, 복구성, 공정성, 안전성, 개인정보보호, 보안성 등이 포함되어 있는데 키워드 간의 관계나 신뢰성과의 연관성은 정의되지 않았다. 이처럼 관점에 따라 유사해 보이지만 조금씩 다른 용어들이 여러 문헌에서 제각각 달리 정의되고 있으며, 합의된 속성 분류나 정의는 아직까지 없는 상황이다. 이에 앞서 언급한 EC, OECD, IEEE, ISO/IEC 등 여러 기구에서 제시한 속성과 키워드를 종합적으로 분석하고, 국내 학계・연구계・산업계 전문가의 의견을 수렴해 합의점을 모색했다. 이처럼 폭넓은 의견 공유 과정을 거쳐 인공지능 신뢰성 속성을 도출한 후, 이를 국가 인공지능 윤리 기준의 10대 요건에 대응시켜 기술적 측면에서 다룰 만한 특성을 최종 선정하였다. 각 특성에 대한 정의는 다음과 같다.

인공지능 신뢰성 특성

신뢰성 요건정의

다양성 존중

인공지능이 특정 개인이나 그룹에 대한 차별적이고 편향된 관행을 학습하거나 결과를 출력하지 않으며, 인종・성별・연령 등의 특성과 관계없이 모든 사람이 평등하게 인공지능 기술의 혜택을 받을 수 있는 것

  • 관련 속성: 공정성・공평성(fairness), 정당성(justice)

  • 관련 키워드: 편향(bias), 차별(discrimination), 편견(prejudice), 다양성(diversity), 평등(equality)

  • 국제표준(ISO/IEC TR 24027:2021 - Bias in AI systems and AI aided decision making)에서는 공정성을 정의하지 않는다. 공정성은 복잡하고 문화・세대・지역 및 정치적 견해에 따라 다양하게 인식되므로 사회적으로나 윤리적으로 일관되게 정의하기 힘들기 때문이다.

책임성

인공지능이 생명주기 전반에 걸쳐 추론 결과에 대한 책임을 보장하도록 메커니즘이 마련되어 있는 것

  • 관련 속성: 책무성(responsibility), 감사가능성(auditability), 답변가능성(answerability)

  • 관련 키워드: 책임(liability)

  • 국제표준(ISO/IEC TR 24028:2020 - Overview of Trustworthiness in artificial intelligence)에서의 정의: 엔터티(Entity)의 작업이 해당 엔터티에 대해 고유하게 추적될 수 있도록 하는 속성

안전성

인공지능이 인간의 생명・건강・재산・환경을 해치지 않으며, 공격 및 보안 위협 등 다양한 위험에 대한 관리 대책이 마련되어 있는 것

  • 관련 속성: 보안성(security), 견고성・강건성(robustness), 성능보장성(reliability), 통제가능성・제어가능성(controllability)

  • 관련 키워드: 적대적 공격(adversarial attack), 회복탄력성(resilience), 프라이버시(privacy)

  • 국제표준(ISO/IEC TR 24028:2020)에서의 정의: 용인할 수 없는 위험risk으로부터의 자유

투명성

인공지능이 추론한 결과를 인간이 이해하고 추적할 수 있으며, 인공지능이 추론한 결과임을 알 수 있는 것

  • 관련 속성: 설명가능성(explainability), 이해가능성(understandability), 추적가능성(traceability), 해석가능성(interpretability)

  • 관련 키워드: 설명 가능한 인공지능(XAI, eXplainable AI), 이해도(comprehensibility)

  • 국제표준(ISO/IEC TR 29119-11:2020 - Guidelines on the testing of AI-based systems)에서의 정의: 시스템에 대한 적절한 정보가 관련 이해관계자에게 제공되는 시스템의 속성

이와 같이 인공지능 신뢰성 확보를 위한 다양한 속성이 있으며, 신뢰성의 각 요건에 대한 정의를 파악하는 것뿐만 아니라 신뢰성 요건 간의 상호의존 관계도 중요하게 고려되어야 한다. 예를 들어 인공지능 서비스에 대한 과도한 투명성 요구는 프라이버시와 관련된 위험을 초래할 수 있다. 또한 설명가능성만으로 투명성을 보장하는 것은 부족하지만 설명가능성은 투명성을 확보하기 위한 중요한 요소 중 하나이다. 따라서 인공지능 신뢰성 요건에 대한 충분한 이해를 바탕으로 인공지능 서비스를 제공하는 것이 중요하며, 해당 인공지능 서비스가 고려한 신뢰성 요건을 적절하게 이행하고 있는지 지속적으로 검토해야 한다.

3.2. 생성 AI 기반 서비스의 주요 고려 사항 반영

첫째, 본 안내서에서 신뢰성의 대상으로 다루는 생성 AI 기반 서비스의 범위는 생성형 인공지능 시스템이나 콘텐츠 생성 도메인에 활용될 수 있는 모든 범위를 포함하지 않는다. 본 안내서는 도메인별로 세분화된 모델에 의해 콘텐츠 생성에 직간접적으로 사용되는 인공지능을 대상으로 하며, 안내서의 원활한 이해를 돕기 위해 필요시 해당 서비스의 활동 범위에 대한 몇 가지 예시를 포함하였다. 또한 생성 AI 또는 대규모 학습 모델 개발이 아닌 생성 AI 기반 서비스 개발과 관련된 내용을 주로 특화하여 정리했다.

생성 AI 기반 서비스를 개발하고 배포할 때, 특히 파인튜닝된 모델의 맥락에서 주로 고려해야 하는 몇 가지 사항이 있다. 가장 중요한 것은 학습 데이터의 품질과 다양성이다. 파인튜닝은 의도된 사용 사례를 반영하는 고품질의 대표 데이터셋에 크게 의존한다. 학습 데이터에 편견이 없고 실제 시나리오를 정확하게 반영하는지 확인하는 것은 생성된 콘텐츠에서 편견과 부정확성이 지속되는 것을 방지하는 데 매우 중요하다.

윤리적 고려 사항과 법적 고려 사항도 마찬가지로 중요하다. 개발자는 유해하거나 편향적이거나 논란의 여지가 있는 콘텐츠를 생성하지 않도록 윤리적 지침과 법적 규정을 준수하는 데 주의를 기울여야 하며, 환각 콘텐츠에 대해서도 주의해야 한다. 콘텐츠 생성 경계를 명확히 설정하고, 민감한 정보나 의사결정과 관련된 애플리케이션을 포함하여 다양한 애플리케이션에서 AI가 생성한 결과물의 잠재적 결과를 고려하는 것이 필요하다.

사용자 인터랙션과 피드백 메커니즘은 사용자 경험과 모델 성능을 개선하는 데 필요하다. 사용자가 AI가 생성한 콘텐츠와 상호작용을 하고 영향을 줄 수 있는 인터페이스를 설계하면 생성 AI 기반 시스템의 유용성과 가치를 높일 수 있다. 사용자 피드백을 수집하는 것은 모델을 반복하고 개선하여 최종 사용자의 특정 요구사항을 충족하는 데 중요한 부분이다.

견고성과 안전성은 기본적으로 고려되어야 한다. 정밀하게 조정된 모델은 다양한 조건에서 일관되고 안정적으로 작동하고, 적대적인 공격과 예기치 않은 입력(예: 즉각적인 인젝션 공격 포함)에 견딜 수 있도록 테스트해야 한다. 여기에는 비정상적이거나 범위를 벗어난 쿼리에 대한 모델의 응답을 평가하고 이를 원활하게 처리하는 메커니즘을 개발하는 것도 포함된다.

마지막으로, 투명성과 책임성도 필수 요소이다. 개발자는 생성 AI 기반 시스템의 기능과 한계에 대한 명확한 문서를 제공하여 사용자가 AI 생성 콘텐츠의 특성과 오류, 착각, 조작의 가능성을 이해할 수 있도록 해야 한다. AI 생성 콘텐츠 분쟁 또는 문제 발생 시 책임 소재를 규명할 수 있는 메커니즘을 구축하는 것은 사용자 및 이해관계자와의 신뢰를 구축하는 데 매우 중요하다.

생성 AI 범위

학습, 강화, 파인튜닝 및 보안 고려 사항의 맥락에서 딥 러닝과 생성 AI 기술을 구분하는 것이 중요하다. 딥 러닝에서 모델은 일반적으로 패턴 인식 및 분류에 중점을 두고 지도/비지도 학습 방법을 통해 방대한 데이터셋에 대해 학습된다. 딥 러닝 모델을 학습하거나 재학습하는 것은 진화하는 데이터로 최신 상태를 유지하는 데 매우 중요하다.

반면, 생성 AI 기술은 텍스트, 이미지, 음성, 동영상과 같은 콘텐츠를 생성할 수 있는 모델을 포함한다. 생성 AI의 핵심적인 부분 중 하나인 파인튜닝은 사전에 학습된 모델을 새로운 작업별 데이터에 노출시켜 특정 작업이나 도메인에 맞게 조정하는 작업을 포함한다.

딥 러닝과 생성 AI는 기능이 서로 다른 부분이 있어서 보안에 대한 고려 사항도 다르다. 딥 러닝 모델은 학습 및 추론 중에 민감한 데이터를 보호하기 위한 보안 조치가 필요할 수 있다. 그러나 생성 AI는 추가적인 윤리적 및 보안 문제에 직면해 있다. AI로 생성된 콘텐츠의 윤리적 사용을 보장하고 딥페이크와 잘못된 정보 등과 같은 기술의 오용을 방지하는 것이 가장 중요하다. 생성 AI 기술과 관련된 고유한 윤리적 문제와 콘텐츠의 진위 여부 및 잘못된 정보와 관련된 잠재적 위험으로 인해 보안 고려 사항이 달라진다.

둘째, 생성 AI 기반 서비스의 4가지 구성요소는 다음과 같은 범위를 고려하였다. 본 안내서는 주로 개인을 지원하는 데 사용되는 도구와 애플리케이션을 포함하는 생성 AI 기반 서비스 개발에 초점을 맞춘다.

생성 AI 시스템에서 인공지능의 서비스 구성요소

생명주기주요 활동
  1. 생명주기 관리

  • 생성 AI 기반 서비스 관리 감독 조직 및 방법 수립

  • 생성 AI 기반 서비스 관련 위험 요소 평가 및 적절한 대응 전략 개발

  • 생성 AI 기반 서비스 개발에 필수적인 평가 프로세스의 배포와 검증

  • 모델의 성능 평가, 반복 테스트 시나리오와 추가 사례에 대한 가상 테스트 시나리오를 포함하는 테스트 계획 수립

  • 인공지능 모델의 편향성을 해결하고 감소・완화하기 위한 전략 수립

  1. 데이터 수집 및 처리

  • 사례를 검토하여 데이터 편향성을 완화하고 윤리적 우려를 해결하기 위한 맞춤형 전략 개발

  • 데이터셋의 무결성을 보장하고 데이터 사용자가 데이터를 이해하는 데 도움이 되는 설명 정보 제공

  • 전문 분야의 전문가와 협력하여 생성 AI 기반 서비스를 위한 데이터 수집 및 처리

  1. 인공지능 모델 개발

  • 특정 애플리케이션에 맞는 인공지능 모델의 배포와 검증

  • 인공지능 모델 생성 결과의 편향성에 대한 감소・완화 결과 확인

  1. 시스템 구현

  • 생성된 추론 결과에 대한 설명 제공의 필요성 검토

  • 안전모드를 제정하고 문제 발생 시 이해관계자에게 경고

  • 시스템 사용자를 위한 설명서 작성

  1. 운영 및 모니터링

  • 모델 편향성, 윤리적 유해 생성 결과의 감지, 공정성 보장, 설명 제공 등 시스템에 대한 지속적인 신뢰성 지표 모니터링

  • 윤리적 이슈 발생 시에 대응 전략의 적용 수행

3.3. 요구사항 및 검증항목 도출

콘텐츠 생성 영역에서 생성 AI 기반 서비스를 개발하기 위한 구체적인 요구사항과 검증항목을 도출했다. 우선 표준화 기구, 기술단체, 국제기구, 주요국 및 정부에서 발표한 정책, 권고안 및 표준을 기반으로 준수해야 할 기술적 요구사항을 도출하고 구체화하였다. 그리고 ISO/IEC 38500:2015, ISO/IEC TR 24028:2020, ISO/IEC 38507:2022' 에서 다루는 내용을 주의 깊게 살펴보았다. 이와 함께 AI가 인권에 미치는 영향과 관련된 규제, 표준, 법률 측면에서도 검토를 진행하였다. 주목할 만한 부분은 OECD의 2022년 인공지능 시스템 평가 프레임워크, 한국 시민사회단체 120곳의 인공지능 정책 지지 선언[28], 개인정보보호위원회가 발표한 신뢰 기반 인공지능 데이터 규범에 관한 가이드라인이다. 또한 학생 데이터 활용 및 거버넌스에 대한 IEEE의 P7004 표준과 자율 및 지능형 시스템이 인간의 복지와 환경의 지속가능성에 미치는 영향을 평가하기 위한 7010-2020 권장 관행을 면밀히 모니터링했다. 주요 참고 문헌은 다음과 같다.

생성 AI 기반 서비스 분야 인공지능 신뢰성 관련 주요 참고 문헌

기관명발간 연월권장 사항 및 표준 명칭

OECD

2019.5.

인권과 민주적 가치를 존중하면서 혁신과 신뢰성을 촉진하는 인공지능(AI)에 대한 일련의 원칙

대한민국

「지능정보화기본법」, 인공지능 영향평가에 관한 법률

2021.5.

인권, 안전, 민주주의를 보장하는 AI 정책을 촉구하는 선언문

2023.8.

개인정보보호위원회(PIPC): 신뢰 기반 인공지능 데이터 규범에 대한 가이드라인 발표[29]

미국

(뉴욕 경찰청)

2021.4.

마이크로소프트와 함께 개발한 네트워크형 도메인인식시스템(DAS)인 테러 공격 탐지 및 방지 도구의 영향 및 사용 정책에 대한 문서

영국

2020.10.

Met연구윤리위원회(MetREC): 연구의 윤리적 고려 사항에 대해 메트로폴리탄 경찰에게 독립적인 조언을 제공한 영국 최초의 치안 관련 연구윤리위원회

WEF

2021.6.

조직을 위한 9가지 핵심 윤리적 AI 원칙

2022.3.

법 집행기관에서 안면 인식 기술을 책임감 있게 사용하기 위한 9가지 원칙을 설명하는 백서 발간. 이 백서는 유엔지역형사사법연구소(UNICRI), 인터폴, 네덜란드 경찰과 협력하여 개발

버지니아

2022.4.

법 집행기관의 기술 사용을 14가지 목적으로 제한하는 안면 인식 법안 제정

NIST

2023.1.

AI 위험관리 프레임워크(AI RMF)인 AI 거버넌스 솔루션

IEEE

2017.3

아동 및 학생 데이터 거버넌스를 위한 IEEE P7004 표준

2019.3.

IEEE P7002 데이터 개인정보보호 프로세스

2020.4.

IEEE 7010-2020, 자율 및 지능형 시스템이 인간 복지에 미치는 영향을 평가하기 위한 권장 사례

국제표준화기구(ISO/IEC)

2014.2.

ISO 13482:2014

- Robots and robotic devices - Safety requirements for personal care robots

2018.2.

ISO 31000:2018

- Risk management

2017.7.

ISO 9241-210: 2019

- Ergonomics of human-system interaction - Part 210: Human-centred design for interactive systems

2020.5.

ISO/IEC TR 24028:2020

- Artificial intelligence - Overview of trustworthiness in artificial intelligence

2021.5.

ISO/IEC TR 24030

- Artificial intelligence(AI) - Use cases

2021.11.

ISO/IEC TR 24027:2021

- Artificial intelligence(AI) - Bias in AI systems and AI aided decision making

2022.4.

ISO/IEC 38507:2022

- Governance of IT - Governance implications of the use of artificial intelligence by organizations

2022.12.

ISO 22322:2022

- Emergency management - Guidelines for public warning

2023.2.

ISO/IEC 23894:2023

- Artificial intelligence - Guidance on risk management

이를 통해 최종 도출한 요구사항은 다음 표와 같다. 인공지능 윤리의 핵심 요건에 대응시킨 결과도 함께 표시했다.

인공지능 신뢰성 확보를 위한 기술적 요구사항과 윤리 요건 매칭 결과

요구사항다양성 존중책임성안전성투명성

요구사항01 인공지능 시스템에 대한 위험관리 계획 및 수행

요구사항02 인공지능 거버넌스 체계 구성

요구사항03 인공지능 시스템의 신뢰성 테스트 계획 수립

요구사항04 인공지능 시스템의 추적가능성 및 변경이력 확보

요구사항05 데이터의 활용을 위한 상세 정보 제공

요구사항06 데이터 견고성 확보를 위한 이상 데이터 점검

요구사항07 수집 및 가공된 학습 데이터의 편향 제거

요구사항08 오픈소스 라이브러리의 보안성 및 호환성 점검

요구사항09 인공지능 모델의 편향 제거

요구사항10 인공지능 모델 공격에 대한 방어 대책 수립

요구사항11 인공지능 모델 명세 및 추론 결과에 대한 설명 제공

요구사항12 인공지능 시스템 구현 시 발생 가능한 편향 제거

요구사항13 인공지능 시스템의 안전 모드 구현 및 문제발생 알림 절차 수립

요구사항14 인공지능 시스템의 설명에 대한 사용자의 이해도 제고

요구사항15 서비스 제공 범위 및 상호작용 대상에 대한 설명 제공

3.4. 현장 적용 및 전문가 의견 수렴

신뢰성 확보를 위한 요구사항을 도출한 후에는 각 항목을 기술적 타당성, 효용성 및 포괄성 등의 관점에서 검토한 후 고도화했다. 각각의 세부 검증항목이 요구사항에 해당하는 내용이 맞는지(타당성), 개발 현장에서 실무적으로 활용 가능한 내용인지(효용성), 검증을 위한 내용이 과거부터 지금까지 연구 내용을 폭넓게 포함하는지(포괄성) 확인했다. 이를 위해 생성 AI 분야의 전문가가 참여하여 직접 검토하고 자문했으며 콘텐츠를 구체화하고 관련성과 효과를 높일 수 있도록 중추적인 역할을 하는 귀중한 피드백을 제공하였다. 생성 AI 기반 서비스 분야 전문가로는 업계・학계 연구자, 기업 기획자, 개발 프로젝트 리더, 교수, 도메인 전문가, 법률가까지 분야를 가리지 않고 다양한 의견을 수렴하였다. 또한 생성 AI 기반 서비스를 제공하는 기업과의 협업을 통해 안내서 기반 컨설팅을 진행하여 케이스 스터디를 마련하고 피드백을 받는 과정을 거쳐 실무 활용도를 높이고자 했다.

개선 의견 보내기

Last updated