기술혁신 성공사례

Innovation & Future Trend - 인공지능의 신뢰 이슈와 대응 방안

Innovation & Future Trend는 미래 혁신의 트렌드를 소개하기 위해 한국전자통신연구원과 협력하여 게재하고 있습니다.
 

5.png

▲ 김문구 책임연구원 한국전자통신연구원
 

6.png

▲ 박종현 선임연구원 한국전자통신연구원


들어가며

지난 2016년 인공지능 알파고와 이세돌의 세기적인 바둑대결로 촉발된 인공지능에 대한 높은 관심은 인공지능을 활용한 다양한 서비스(가상 비서, 지능형 스마트홈, 자율주행자동차, 인공지능 헬스케어, 인공지능 추천 서비스, 인공지능 변호사 등)가 우리 삶에 자연스럽게 스며들게 하였다.

이러한 인공지능은 인간에게 편리성, 생산성 향상, 비용 절감, 삶의 질 개선 등 많은 편익을 줄 것으로 기대됨에 따라 우리나라를 비롯한 해외 국가들은 인공지능의 글로벌 경쟁역량을 강화하기 위해 인공지능에 대한 적극적인 R&D 투자 및 정책적 지원에 집중하고 있다.

하지만 인공지능이 생활 속에서 활용이 확산됨에 따라 인공지능이 사회에 미치는 부정적 영향 또한 나타나고 있다.

2016년 7월 미국 캘리포니아 쇼핑몰에서 순찰 중이던 인공지능 로봇이 오작동으로 인해 16개월된 아이를 공격하였으며, 2016년 구글의 무인자동차가 시험 운행 중 버스와 추돌하였고, 2012년 미국 뉴욕 주식거래 시장에서 초단타 매매에서 인공지능 프로그램의 오류로 440만 달러의 손실이 발생하였다.
 
또한 2015년 구글 사진 서비스 앱은 얼굴 자동인식 기능의 오류로 흑인 사진에 고릴라라는 태그가 표시되어 인종차별 논란이 일어났다.

인공지능으로 인해 발생하는 각종 사고 및 위험에 대한 인식은 인공지능 기능에 대한 불신을 갖게 한다.

이는 결국 인공지능에 대한 신뢰 문제로 귀결된다.

이에 인공지능이 위협적인 존재가 아닌 인공지능과 인간이 공존하는 상호 협력관계 속에서 새로운 혁신적인 산업을 창출하며 편리하고 안전한 세상을 만들어가는 동반자적 관계를 형성하기 위한 노력이 필요한 시기이다.


인공지능 신뢰

사회학적 의미에서 사람들은 자신의 삶의 환경 속에 존재하는 복잡성으로 인한 두려움을 피하기 위해 이를 줄이는 방법으로서 신뢰를 사용한다고 한다.

따라서 신뢰는 사회현상의 복잡성을 줄이는 하나의 기제로서 그 의의가 있다고 할 수 있다. 일반적으로 어떤 기계·시스템에 대한 신뢰는 우리가 기대한 기능(Function)을 목적에 맞게 충실하게 수행한다는 것을 의미한다.

하지만, 인공지능 시대에는 위와 같은 기대와 달리 원하지 않는 결과가 발생할 가능성이 높다.

인공지능 알고리즘 설계의 기술적 복잡성이 증가함에 따라 예기치 않은 오류가 발생하고 이러한 오류가 어떻게 발생했는지 인과관계에 대한 인공지능의 충분한 설명 부족과 이로 인한 인간의 이해 부족은 인공지능에 대한 신뢰 형성에 의문을 갖게 만들 것이다.

따라서 인공지능에서 신뢰의 개념은 인공지능의 활용으로 인간에게 호의적인 결과 발생과 그러한 발생의 과정이 투명하게 설명 가능함으로써 예기치 않은 위험·위협이 줄어들 것이라는 기대와 믿음으로 정의할 수 있다.

이러한 인공지능 신뢰 이슈는 크게 3가지 유형으로 구분이 가능하다.

첫째, 기술에 대한 신뢰 이슈다. 인공지능 알고리즘·SW·시스템 등에 오류가 없어 사용자가 기대한 결과가 발현될 것이라는 기대와 믿음에 대한 의문이다.

인공지능 시스템 오류 및 오작동, 복잡한 알고리즘으로 인한 의도하지 않은 결과 발생, 악의적 데이터 입력에 취약한 알고리즘 등에 대한 우려를 들 수 있다.

둘째, 제공자에 대한 신뢰 이슈다. 인공지능 서비스 제공자가 악의적, 편향적인 가치관을 갖지 않고 객관적이며 합리적인 서비스를 이용자가 의심 없이 이용할 수 있도록 제공한다는 기대와 믿음에 대한 의문이다.

인공지능 알고리즘 설계시 인종차별, 성차별, 종교차별, 사회적 약자 차별 등 악의적이며 가치중립적이지 않은 의도를 반영하거나, 부정확한 데이터를 사용함으로써 야기될 수 있는 피해 발생 등의 우려를 들 수 있다.

마지막으로 제도·정책에 대한 신뢰 이슈다.

인공지능에 대한 법·제도적 문제로 인해 불이익을 받지 않을 것이라는 기대와 믿음에 대한 의문이다.

인공지능의 윤리적 가치 판단 및 의료·교통사고 발생시 인공지능과 사람 사이의 책임 귀속 문제 등에 대한 우려가 있을 수 있다.


국내 인공지능 신뢰 인식도
 

7..png


인공지능의 도입이 인류에게 많은 혜택을 줄 것이라는 낙관적 기대가 있는 동시에 시스템 오류 등에 의한 예기치 못한 인적, 물적 피해의 가능성 또한 높을 것으로 전망되고 있다.

이에 한국전자통신연구원(ETRI)에서는 2017년 하반기에 일반인 850명을 대상으로 인공지능에 대한 신뢰 관점에서 설문조사(7점 만점, 리커르트 7점 척도)를 수행하였다.

설문조사 결과에 의하면, 인공지능이 초래할 위험에 대한 인식은 특히, 거래와 보안 분야에서 높게 나타난 반면, 인공지능에 대한 신뢰는 높지 않은 것으로 나타났으며 상대적으로 제도와 기업에 대한 신뢰는 낮은 것으로 조사되었다.

이는 인공지능 서비스 제공자의 편향적 알고리즘 설계에 대한 우려와 인공지능에 자율적 판단·의사결정의 부여 및 이로 인한 결과의 책임소재 문제 등에 관한 불확실한 제도에 대한 우려가 반영된 것으로 미루어 짐작할 수 있다.

궁극적으로 인공지능의 산업적 활용이 확대되는 추세에서 인공지능의 부정적 영향 요인의 조기 해결 방안을 마련하는 것이 중요하다.

한편 인공지능이 이용자에게 신뢰를 제공하기 위해서는 인공지능 관련 다양한 이슈(윤리 문제, 책임소재, 정보보호 등)에 대한 사회적 합의를 통한 합리적인 제도 구축이 무엇보다도 중요한 것으로 나타났다.

또한 인공지능의 잠재적 위험에 대응하기 위한 기술적 완성도를 높여야 할 것이다.

인공지능의 판단·결정에 대해 알고리즘의 설명 가능성을 높임과 동시에 시스템 오류 등에 대비한 선제적 기술개발이 병행돼야 할 것이다.


인공지능 신뢰 이슈 및 대응 방안
 

8.png


음성인식 기반 인공지능 비서, 인공지능 변호사, 인공지능 로봇 기자, 자율주행자동차, 인공지능 헬스케어 등 인공지능을 활용한 다양한 제품·서비스가 시장에 출현하고 있다.
 
물론 이들 인공지능 서비스들은 우리에게 높은 생산성, 업무 효율성, 비용 절감 등의 편익을 제공함으로써 사회 전반에 광범위한 영향을 미칠 것으로 내다보고 있다.

하지만, 이러한 인공지능 서비스가 보편화됨으로써 발생할 수 있는 부작용 또한 간과하지 않을 수 없다.

이에 기술, 데이터, 윤리, 법·제도 등을 중심으로 인공지능이 초래할 수 있는 다양한 이슈를 살펴봄으로써 인공지능 신뢰 형성을 위한 사전 대응 방안을 어떻게 마련해야 할지 생각해 보자.

우선, 기술 측면에서 알고리즘의 기술적 복잡성에 의한 시스템상의 오류 및 결과 추론을 이해하고 설명하기 어려운 알고리즘에 대한 우려다.

자율주행자동차 시스템의 오류는 교통사고 발생으로 이어질 수 있으며 높은 성능을 지닌 인공지능 헬스케어 알고리즘의 진단 및 치료법이 어떤 추론 과정에 의해 결정을 내리는지 명확히 설명하기 어려운 알고리즘을 내포하고 있다는 점이다.
 
이에 인공지능 시스템 오류·오작동의 결함을 탐지하고 피해를 최소화할 수 있는 인공지능 기술 개발이 필요하다.

인공지능 알고리즘 설계시 투명성 및 검증을 위한 장치가 필요하며 오류·오작동에 의한 사고결과의 기술규명을 위한 법적 가이드라인 마련이 요구된다.

둘째, 부정확하고 편향적인 데이터 사용으로 부정확한 결과산출 가능성 및 개인정보 유출로 인한 프라이버시 침해에 대한 우려다.

마이크로소프트사의 인공지능 채팅봇 테이(Tay)는 부정확하고 편향적인 데이터 학습으로 성차별, 인종차별 등의 발언을 트위터에 쏟아내 서비스 개시 16시간 만에 중단되었다.

자율주행 자동차 운행정보 유출로 인한 프라이버시 침해, 악의적인 해킹 공격에 의한 자동차 테러 및 사고발생 위협, 개인 의료 데이터를 이용한 보험 사기 등 개인정보 침해 또한 우려할 만한 상황이다.
 
이에 인공지능 환경에 적합한 데이터 생성, 처리 및 저장 방식, 사용범위 등에 관한 DB 가이드라인 마련 및 해킹 방지를 위한 인공지능 보안 기술 개발이 필요하다.

셋째, 인공지능에게 자율적 의사결정의 윤리적 판단을 부여할지에 대한 신뢰 문제다.
 
자율주행자동차의 트롤리 딜레마(Trolley Problem)에서처럼 위급상황시 탑승자와 보행자 중 누구를 살릴 것인가에 대한 윤리적 판단의 문제에 직면하게 된다.
 
MIT Technology Review(2015)에 의하면 위급상황시 자율주행자동차가 탑승자와 보행자 중 누구를 살릴 것인가에 대한 설문조사 결과 대부분의 응답자들은 희생을 최소화하는 자율주행자동차 시스템을 선호하는 공리주의적 가치관을 피력하였으나, 정작 응답자 당사자들은 보행자 우선의 다수를 살리는 인공지능 알고리즘을 장착한 자율주행차를 선호하지 않을 것으로 나타남에 따라 인공지능에 윤리적 가치판단 부여는 결코 해결하기 쉽지 않은 난제다.

이에 인공지능에 자율적 의사 결정의 윤리적 가치판단을 부여하는 것이 합리적인지에 대한 평가와 사회적 합의 및 공론화가 선제적으로 해결되어야 할 과제다.

또한 인공지능에게 윤리적 판단을 부여할 경우 인간의 생명과 안전을 우선시하는 대전제하에 알고리즘 개발 단계에서부터 구체적인 가이드라인의 상세한 기준 마련이 수반돼야 할 것이다.

마지막으로 인공지능의 자율적 판단에 대한 책임소재의 불명확성에 대한 우려다.
 
즉, 인공지능에 의한 손해발생 책임이 인공지능 자체, 알고리즘 설계자, 소유자 또는 사용자, 제조사인지 불명확하다는 것이다.

예를 들어 완전자율주행자동차 사고발생시 누구에게 손해발생에 대한 배상책임을 귀속할지에 대한 것이다.

현행법 규정을 적용하면, 자동차손해배상보장법은 ‘자동차 운행하다가 다른 사람 다치게 하면 배상할 책임을 진다’라는 조항에 따라 탑승자에게, 제조물 책임법에 의하면 운전자가 아무것도 안 했는데 사고가 났다는 것은 결국 기계나 시스템의 하자에 의한 것이므로 제조사에게 책임을 물을 수 있다는 해석이 가능하다.
 
인명피해에 대한 형사책임의 경우 교통사고 처리특례법에 의하면 운전자의 주의 의무 태만에 대한 판단이 어려우므로 처벌 대상이 모호한 상황이다.

하지만 상기와 같은 법 적용은 인공지능 환경의 특수한 성격을 반영하지 못한 것으로 향후 책임귀속에 대한 지속적인 논의가 필요하다.
 
이에 우선적으로 고려해야 할 사항으로 인공지능이 책임주체로서 충분한 자격이 있는지에 대한 사회적 합의가 선결돼야 하며 인공지능 환경에 맞는 책임 소재에 대한 새로운 법체계의 정립이 선행되어야 할 것이다.
 

9.png



마치며

인간의 지능을 모방한 인공지능 기술은 앞으로도 계속 진화할 것으로 전망된다. 인공지능이 보다 똑똑해질수록 인간이 누리는 혜택 또한 커질 것이다.

그러나 반대급부로 잠재적 위험 또한 현재 우리가 예측할 수 없는 다양한 형태로 진화할 가능성이 높아질 것으로 예견된다.

무엇보다 중요한 것은 인공지능 활용의 확대로 인해 발생 가능한 인공지능의 역기능을 대비하는 것이다.

2017년 Beneficial AI 콘퍼런스에서 인공지능의 위험성에 대한 우려를 방지하기 위해 아실로마 인공지능원칙(Asilomar AI Principles)을 제정하였다.

이러한 인공지능에 대한 큰 틀의 원칙에 더해 앞으로는 인공지능의 위험성을 구체화하고 사회적·윤리적 공감대의 사전적 정립을 이루어 체계적이고 세밀한 대응 방안 및 제도 마련 등 인공지능 신뢰 형성 구축을 위한 연구가 본격적으로 추진되어야 할 시기다.

서경(書經)에 나오는 유비무환(有備無患)의 고사성어가 현재와 미래의 인공지능 신뢰를 바라보는 중요한 인사이트의 단초가 되지 않을까 생각한다.