SPECIAL ISSUE 01

AI 패권 경쟁과
한국 AI 방향

 


그림 1. 전문가를 소개해주는 헤드헌팅에 적용할 수 있는 미야(mya. com)라는 AI는 하루에 수십만 건의 통화를 자동적으로 처리 할 수 있다.

 

 

기업들의 AI 활용도는 얼마나 될까? 얼마 전까지, ‘AI’라고 하면 대학의 저명한 학자들이 유명 학회에 발표한 논문을 열심히 읽고, 코드를 돌려보고, 비슷한 분야에서 따라 해보는 것이 보통이었다. 다시 말해 AI는 신기한 분야이자 새로운 비즈니스 기회 가져다 것만 같은 미지의 대상 같았다. 따라서 AI 기술을 가진 스타트업에 벤처 투자자들은 거의 ‘묻지 마’ 식으로 투자했 다. 하지만 이제는 기업 스스로 자문해야 시기 같다. “AI가 정말 기업 경영에 확실히 도움이 되어주는 걸까?”

 

지난 1월, 미국 라스베이거스에서 열린 CES 2020 을 참관했다. CES는 워낙 큰 곳, 넓은 곳에서 동시에 열리기 때문에 특정한 목적을 가지고 특정한 곳을 집 중적으로 눈 여겨 보지 않으면 보지 못하고 지나치는 것들이 많을 수밖에 없다. 필자는 그곳으로 떠가기 전 부터 AI 관련된 것들만 살펴보기로 작정했고, 실제로 AI에만 집중했다. 특별하게 진행된 AI 유료 컨퍼런스 를 들었던 것도 그 이유 때문이다. 컨퍼런스 내용을 정리하면 이렇다.

AI는 장기적으로 기존 산업구조를 바꿀 것이다. 글 로벌 컨설팅 기업인 PWC는 “향후 10년간 AI가 세계 경제에 약 16조 달러(약 20,000조 원)의 영향을 미 칠 것”이라고 강조했다. 한마디로 모든 산업, 모든 국 가에 영향을 끼칠 것이라는 뜻이다. 특히 컨택 센터 와 같은 고객 채널 분야, 특히 기업에서 고객과 스마 트폰을 통한 채널 분야는 획기적으로 바뀔 것이다. 얼 굴 인식을 통해 개인의 ID를 해결해주는 face ID 분야 는 ATM에서 현금을 찾을 수 있고, 식당에서 얼굴을 보여주면서 정산이 가능한 비즈니스 모델을 가능하 게 해준다. 변호사들의 계약서를 대신 써준다든가 작 은 글씨로 깨알같이 쓰여 있는 계약서의 함정 조항을 발견해주는 비즈니스 모델도 현실화되어 있다. 미야(mya.com)라는 AI는 헤드헌터를 대신해 하루에만 후 보자들에게 수십만 건의 연락을 취한다.

 

인공지능 스피커의 대명사, 아마존 알렉사(Alexa Ecosystem)

이번 CES에서 가장 인상적이었던 것은 아마존의 알렉사(Alexa Ecosystem)였다. 알렉사는 인공지능 스피커로 알려져 있고, 알렉사 기술을 활용한 알렉사 앱들만 이미 10만 개가 넘는다. 이 앱들은 피자를 주 문해주고, 의사와 약속을 잡아주며, 내 건강을 모니 터링해주고, 필요한 상품을 주문하고, 자동차와 연결해 음성인식으로 필요한 일들을 척척 수행한다. 이 알 렉사 앱을 개발할 때, AI나 프로그래밍 언어에 대해 몰라도 된다. 알렉사 블루프린트(Blueprints)를 사용 해 문답식 템플릿을 채워주기만 하면 알렉사 앱이 완 성된다. 우리나라에 있는 수많은 인공지능 스피커와 완전히 차별화 되어있다. 왜 우리는 지금까지 몰랐을 까? 알렉사는 영어, 독일어, 이탈리아어, 스페인어, 일본어까지만 지원이 되고 있기 때문이다. 다만 이번 CES에는 많은 한국기업들이 자신들의 서비스를 영어 화해서 사용자 인터페이스를 알렉사로 만든 사례가 꽤 눈에 띄었다. 앞으로, ‘말로 하는 분야’의 비즈니스 는 알렉사가 주도적인 역할을 수행할 것이 틀림없어 보인다.

 


그림 2. The Moonshot Factory라는 이름의 구글 내 연구 조직 ‘구글X’. 구글의 모회사인 알파벳 소속이며, 구글에서 개발 하기에는 예산과 시간이 많이 투입되어야 하는 프로젝트를 집중적으로 개발하고 있다.

 

CES 2020에서는 구글이 잘 보이지 않았다. 그래서 CES가 끝난 후에 구글X를 방문했다. 구글X는 “The Moonshot Factory”라는 이름의 구글 내 연구 조직이 다. 구글의 모회사인 알파벳 소속이며, 구글에서 개발 하기에는 예산과 시간이 많이 투입되어야 하는 프로 젝트들만 모아서 개발하고, 나중에 스핀오프(Spin- off) 시키는 구글의 사내 벤처 성격의 회사이다. 스핀 오프된 회사 중에서 가장 유명한 회사가 자율주행차 를 만드는 웨이모(Waymo)이다. 웨이모는 2019년 모 건 스탠리가 105조 달러(약 126조 원)로 평가했을 정 도로 성공적인 케이스이다. 구글X에 가면 자율주행 시험을 해왔던 자율주행차 한 대가 전시되어 있다. 웨이모는 처음부터 완전자율주행을 위해서 만들어졌다. 웨이모의 특징 중 눈에 띄는 것은 운전대와 백미 러가 없는 대신 카메라와 라이더(Lidar)만 달려있다는 점이다. 웨이모는 지금까지 2,000만 마일을 테스 트했고, 현재 피닉스에서 운전자가 없는 완전자율주 행 택시를 시범 운행하며 실제 상황에서 테스트 데이터를 수집하고 있다. 웨이모는 두 가지 비즈니스 모델을 준비 중이다.

자동차 제조사에게 자율주행 라이선스를 판매하는 비즈니스 모델과 이미 판매한 자율주 행차를 관제하는 클라우드 솔루션을 준비 중이다. 이 클라우드 솔루션은 자동차 센서로부터 수집되는 데이터 즉, 자율주행차의 위치, 운전습관, 주차위치, 시간 등에 대한 데이터를 수집한다. 이런 데이터를 활용하여 자동차가 고장 나기도 전에 이를 알려주는 예지정비(Preventive Maintenance), 자율주행차가 사고 났을 경우 책임소재를 판단하는 기능뿐 아니라 주차장 비즈니스, 각종 광고, 차내 엔터테인먼트 등 자율주행 으로부터 파생되는 엄청난 시장을 준비하고 있었다. 그들은 이 모든 것이 2030년 이내로 이루어질 것으로 예상한다.

 


그림 3. CES 2020에서 아마존 알렉사는 람보르기니와의 협업을 발표했다. 이는 자동차 제조사 중에서 음성인식 AI 알렉사를 적용한 첫 번째 사례로 기록될 것이다.

 

CES 2020을 통해 가늠해본 AI의 향방

지난 3월 코로나19 바이러스로 인해 구글은 텐서플 로우 개발 서밋(Google TensorFlow Summit 2020) 을 유튜브로 진행했다. 온라인으로 진행된 탓에 많은 사람이  관심을 두지 않았지만, 구글의 AI에 대한 목표 가 명확히 드러난 발표였다. 구글의 목표는 세계 모든 기업이 AI를 개발할 때 구글의 개발 툴을 사용하는 것 에서부터, 실제 AI를 사용할 때도 구글의 클라우드를 사용하게 하는 것이다. 구글은 지난해 그 동안 말이 많았던 AI 개발 프레임워크 텐서플로우(TensorFlow) 를 사용자 친화적으로 바꾼 텐서플로우 2.0을 출시했 다.

이와 함께 36가지의 기업용 AI 툴도 발표했는데, 이중에는 휴대폰, 각종 센서도 AI를 학습하고 사용할 수 있는 텐서플로우 라이트(TensorFlow Lite)가 있으 며, 지금까지 학계와 산업계에서 발표한 유용한 AI 모 델을 모두 모아 개발자들이 활용하도록 만든 텐서플 로우 허브도 포함되어 있다. 구글은 이로써 기업용 AI 시장을 장악하겠다는 의지다. 물론 아마존도 구글 못 지않은 클라우드 기반의 세이지메이커(Sagemaker) 라는 AI 개발 플랫폼을 가지고 있지만, 구글의 텐서플 로우와 같은 개발 프레임워크가 없다는 점이 다르다.

CES와 실리콘 밸리에서 체험한 향후 AI의 방향은 다음과 같이 요약된다.

 


그림 4. 코로나19 바이러스로 인해 구글은 텐서플로우 개발 서밋 (Google TensorFlow Summit 2020)을 유튜브로 진행 했다. AI에 대한 구글의 목표가 명확히 드러난 발표였다.

그림 5. 아마존의 클라우드 기반 AI 개발 플랫폼, 세이지메이커 (Sagemaker). 구글의 텐서플로우와 같은 개발 프레임워크가 없다는 점이 다르다.

 

첫째, 클라우드를 활용한 중앙집중식 AI 서비스 모 델이다. 이것은 자동차, 휴대폰과 센서에서 데이터를 중앙 클라우드로 모아, 중앙에서 트레이닝 시켜서 웹 이나 모바일 앱으로 서비스하는 형식이다. 지금까지 해왔던 것과 크게 다르지 않다. 이것은 보통 클라우드 AI(Cloud AI)라고 한다.

둘째, 각종 디바이스에 달려있는 인공지능 칩 (NPU, Neural Processing Unit)들이 점점 파워풀해 지면서 디바이스에서 데이터를 모아서 NPU가 학습하 고 이에 기반해 서비스하는 방식이다. 이것을 온 디바 이스 AI(On-Device AI)라고 한다. 삼성전자가 차세 대 NPU를 만드는 데 집중하고 있는데, 클라우드 컴퓨 팅에 반대되는 개념의 에지 컴퓨팅(Edge Computing) 의 AI 버전이다.

셋째, 대학 중심, 논문 중심으로 발표된 새로운 AI 알고리즘들이 기업 중심으로 바뀌고 있다는 것이다. 그 기업은 다름아닌 구글, 아마존, 페이스북, 테슬라, 삼성전자, 인텔 등이다. 이전까지 새로운 아이디어를 가지고 새로운 AI 알고리즘들이 발표되었다면, 최근 상황은 방대한 데이터, 컴퓨터 장비, 그리고 많은 학 자, 연구자, 개발자들이 연합된 거대한 집단이 만들어 내는 전쟁터에 비견된다.

넷째로, AI는 전이 학습(Transfer Learning)이라는 특성이 있다. 예를 들면 1,200만 장의 컬러 사진으로 학습해서 사진에 나온 사물을 알아맞히는 모델이 있다면, 이러한 모델을 학습시키는데 엄청난 시간과 컴퓨터 장비가 필요하다. 이러한 원천 모델을 글로벌 기 업이 만들었다면, 벤처기업은 이것을 활용해 X-ray 나 MRI를 읽고 암을 판단하는 데 사용할 수 있다. 확진 암 이미지를 수 천 만장 확보하지 못하더라도, 단 몇만 장만 있으면 거대한 컬러사진의 사물을 맞추는 모델을 활용해 암을 진단할 수 있다. 따라서 AI의 전 이학습은 수많은 벤처기업이 AI 애플리케이션을 개발하는 데 활용되고 있다. 반면 전이학습의 원천 모델을 만드는 곳은 위에서 언급한 몇 개의 회사들만 가능하 다는 것이다.

다섯째로 결국 AI의 시장은 글로벌 독점으로 갈 수 밖에 없고 전 세계 AI의 판도는 지금 거의 결정이 나 있는 상황이다. 지금부터 나오는 비즈니스 모델은 산업별, 특정한 사용자와 고객을 타깃으로 한 니치 (Niche) 시장을 향해 갈 수밖에 없다.

그렇다면 한국은 어떻게 해야 하는가? 정부는 ‘AI가 살길’이라며 앞으로 엄청난 돈을 투자하겠다고 한다. 정부가 AI 분야 R&D에 투자하는 것은 분명 긍정적인 일이지만, 앞서 언급한 세계적 흐름에 어떻게 대처해 야 우리나라 AI가 살아남을 수 있을까?

 

우리나라 AI 발전을 위한 화두, 한글 AI화를 위한 R&D

일단 우리말이 영어와 같지 않다는 점에서 세종대왕 에게 감사해야 할 것이다. 알렉사가 한국에서 서비스 한다고 해도 지금 우리가 알고 있는 인공지능 스피커 보다 엄청나게 똑똑할 것 같지는 않다. 그 이유는 영어 는 단어에 접사가 붙지 않고 어순에 의미를 부여하 는 독립어이기 때문이다. AI의 자연어 처리(Natural Language Processing) 분야에 나와 있는 이론들은 모두 ‘어순을 어떻게 기억하느냐’에서 시작된다. 페이 스북이나 구글에서 개발한 뛰어난 알고리즘은 모두 이 어순에 기반한 것이다. 그러나 우리말의 경우 어순 은 중요하지 않고 접사를 붙여 의미를 전달한다. 물론 접사의 변형은 무수히 많다. 학교에, 학교를, 학교에서, 학교만, 학교가 등등…. 그런데 우리말에는 한자, 영어 등 외래어가 섞여 있다. 이렇게 복잡한 한글의 AI화는 아직 걸음마 단계이다. 우리말의 AI화를 위해 서는 말뭉치(Corpus)라는 것이 필요한데, 대화형 말 뭉치 연구는 고작 시작단계에 불과하다. 그것도 매우 소규모로. 그러니 알렉사가 당장 한국에 와도 크게 어 필할 수 없는 이유이기도 하다.

AI는 사진, 영상, 행동 등을 판단하는 시각적인 분 야와 문자, 음성, 소리, 글을 해독·요약·번역·대답 하는 언어적인 분야가 있다. 물론 시각적인 분야는 전 이학으로 이미 많이 발전했지만, 언어적인 분야는 그렇게 쉽지 않다.

한국의 AI 발전은 한글에서부터 시작해야 한다. 말귀를 알아듣지 못하는 챗봇, 조금이라도 복잡하게 이야기하면 이해하지 못하는 인공지능 스피커, 글자를 스캔해서 판독을 못하는 것이 현실이다. 이것은 글로벌 기업이 개발한 언어 분야 모델을 전이학습할 수 없기 때문이다. 구글에서 만든 유명한 언어 분야 모델인 BERT를 한글화 해봐도 한글이 똑똑해지지 않는다.

결국 이 모든 원인은 한글에 대한 AI화가 이루어지지 않았기 때문이다. 한글의 AI화라는 것은 구글이 영어로 해 놓은 일들을 우리가 한글로 하는 것이다. 한글에 대해 완전히 새로운 AI 알고리즘을 개발하고, 한글 말뭉 치에서 학습시켜 한글만의 원천 모델을 만드는 것이 다. 그래서 이 원천 모델을 가지고 수많은 전이학습을 통해 비즈니스 모델을 만들자는 것이다.

언어의 장벽부터 넘지 못하면 AI라고 할 수 없으며 진정한 AI 비즈니스 모델은 나올 수 없다. 정부는 한글 의 AI화를 이루는 R&D에 집중적으로 투자해야 한다. 그때 비로소 우리는 진정한 AI의 길로 접어들 것이며, 기업도 한글을 AI화한 말뭉치, 한글을 읽고 요약할 수 있는 모델, 활자로 된 한글을 쉽게 읽고, 손으로 쓴 한 글도 인식할 수 있고, 말로 해도 이해하고 대답할 수 있는 원천 모델을 만들 수 있게 된다. 이것을 활용하 면 앞서 이야기한 전이학습을 통해 수없이 많은 AI 애플리케이션이 생기며, 이를 활용해 수많은 과제를 기업 스스로 하게 될 것이다. 이것은 민간 영역에서 는 할 수 없고 오직 정부가 해야 하는 일이기도 하다.

 


 


글/ 장동인 대표
AiBB Lab