인공지능 신뢰성 소개
인공지능 신뢰성이란?
1. 인공지능 확산에 따른 문제점
인터넷이나 스마트폰과 같은 신기술이 우리의 일상과 사회를 빠르고 편리하게 변화시킨 동시에 새로운 문제가 등장했듯, 사회의 많은 부분에 인공지능이 활용되면서 새로운 문제나 위험에 대한 우려가 등장했다. 이러한 문제 상당수는 사회적, 윤리적인 문제이므로 단순히 기술을 개선하거나 신기술을 도입하는 것만으로는 해결할 수 없다. 실제로 사용자가 인공지능 기술을 악의적인 목적으로 활용하거나 인공지능이 반사회 ・ 반인륜적인 판단을 하여 사회적 혼란을 유발하는 사건이 종종 발생하고 있다.
인공지능 사고사례

사고사례1:
챗GPT가 알려준 가짜 판례 제출한사고사례1: 챗GPT가 알려준 가짜 판례 제출한 美 변호사 美 변호사
미국의 한 변호사가 챗GPT가 제시한 판례가 담긴 의견서를 법원에 제출. 그러나 해당 판례는 모두 가짜인 것으로 드러났으며, 챗GPT에 ‘진짜 판례가 맞느냐’교 거듭 확인했으나, 끝까지 ‘그렇다고’ 주장(‘23.5.)
시사점
생성형 인공지능의 할루시네이션Hallucination 발생에 따른 우려

사고사례2:
가짜 인터뷰 기사를 만든 인공지능 챗봇
독일의 한 주간지는 인공지능 챗봇을 활용해 인터뷰 내용을 만들어 만난 적도 없는 유명 레이싱 선수의 가짜 인터뷰 기사를 대서 특필(‘23.4)
시사점
인공지능을 통해 가짜 정보를 제작 및 유포하여 사회적 혼란 유발
2. 인공지능 신뢰성 개념
앞서 사례에서 살펴봤듯 인공지능 제품・서비스는 단지 ‘구현할 수 있는가?’라는 기술적 측면뿐 아니라 ‘이 제품・서비스가 존재해도 괜찮은가?’라는 윤리적 측면에서도 검토해야 한다. 특히 인공지능이 다양한 분야에 활용되면서 인공지능 시스템과 학습 모델에 윤리적인 결함이 있는데도 이를 인지하지 못한 채 사용될 경우 매우 큰 파급효과를 낳을 수 있다.
‘인공지능 신뢰성’이란 데이터 및 모델의 편향, 인공지능 기술에 내재한 위험과 한계를 해결하고, 인공지능을 활용하고 확산하는 과정에서 부작용을 방지하기 위해 준수해야 하는 가치 기준을 말한다. 주요 국제 기구를 중심으로 인공지능 신뢰성을 확보하는 데 필수적인 요소가 무엇인지 활발한 논의가 이루어지고 있다. 일반적으로 안전성, 설명가능성, 투명성, 견고성, 공평성 등이 신뢰성을 확보하는 데 필수적인 요소로 거론되고 있다.
