‘채용시장 AI 도입’, ‘원격 생체인식 시스템 AI 헬스케어 서비스’ 등 AI에 대한 관심이 높아지면서 이를 활용한 다양한 서비스가 제공되고 있다. 유럽연합(European Union, EU) 인공 지능 법(Artificial Intelligence Act, 이하 AI 법)에 따르면, 앞서 제시한 AI 시스템(이하 AI)은 ‘고위험 AI’로 분류된다.
2024년 8월 1일, 최초의 인공 지능 규제법으로 일컬어지는 EU의 AI 법이 공식적으로 발효되었다.1) EU가 제시하는 AI 법의 목표는 다음과 같다. AI가 제공하는 것을 인간이 신뢰할 수 있도록 보장하는 것과, 인간의 기본적인 권리와 안전 및 윤리적 원칙을 존중하고 AI의 위험을 해결하는 것이다. EU에서 사용되는 AI의 위험등급을 마련하고 위험도에 따라 규제의 강도를 달리하는 것이 AI 법의 주요 골자다.2)
EU의 AI 법은 AI의 위험등급을 AI가 사회에 초래하는 위험 수준에 따라 4단계로 분류하였다. 우선, 우리가 일상에서 자주 사용하는 AI 기반의 비디오 게임, 스팸 필터 등 대부분의 AI는 ‘최소한의 위험(Minimal risk)’으로 분류된다. 이는 규제 대상에서 제외된다.
소비자와 상호작용하는 AI와 텍스트‧이미지를 생성하는 챗봇(Chatbot)은 ‘제한된 위험(Limited risk)’으로 분류된다. 이 등급의 AI를 사용할 경우 AI 기업은 소비자에게 기계와 상호작용을 하고 있다는 사실을 알려야 하며, 콘텐츠가 AI로 제작되었다는 표시를 해야 한다.
한편 ‘허용할 수 없는 위험(Unacceptable Risk)’ 등급은 말 그대로 위험도가 가장 높은 AI로 범죄 및 테러리즘 수사 등 예외적인 상황을 제외하고 활용이 금지된다. 개인의 특성·행동 정보를 수집하여 사람을 평가(Social scoring)하는 AI, 인터넷 혹은 CCTV 영상에서 안면인식 정보를 생성하고 확장하는 AI 서비스의 출시·제공·사용, 공권력이 실시간으로 생체 정보를 수집하여 식별하는 AI 시스템 등이 이에 해당한다.
AI 법은 ‘고위험(High risk)’ 단계의 AI를 엄격하게 관리하는 데 중점을 두고 있다. ‘고위험(High risk)’ AI는 사람의 건강, 안전 또는 기본권에 위험을 초래하는지를 기준으로 판단한다. 자율주행차, 의료기기, 대출 심사 평가, 원격 생체인식 시스템 등이 이에 해당한다.
EU의 AI 법은 AI의 규제와 동시에 AI 규제 샌드박스(Sandbox) 도입을 EU 회원국에 의무화하고 있다. EU 회원국은 규제당국의 감독 아래, 통제된 환경에서 혁신적인 AI의 시스템 개발, 교육, 테스트 및 검증을 수행할 수 있다.
세계 최초의 AI 규제법을 도입한 EU는 미국과 중국의 기술 선점에 대응하여 세계적인 규범 개발에 앞장서는 모습이다. EU는 사물인터넷부터 양자컴퓨터 등 디지털·AI 분야 산업에서는 열위에 놓인 상황이다. 하여 EU는 AI 규제법을 통해 안전하고 신뢰할 수 있는 AI 시스템을 구축하는 법적 틀을 마련하였다. 이제는 AI 혁신 주도국으로 도약하기 위해 노력할 것으로 보인다.
EU의 AI 법은 기술력 열위를 극복하기 위한 EU 차원의 대응으로 평가된다. EU 차원의 규제는 전 세계 규범으로 확대될 가능성이 높아 이러한 움직임을 주의 깊게 살펴볼 필요가 있다.
1) 본 법률은 EU 법률체계 중 ‘규정(Regulation)’으로, 모든 내용이 구속력을 가지며 모든 EU 회원국에 직접적인 효력이 적용됨
2) European Commission, “AI Act,” https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai