글로벌오토뉴스

상단배너
  • 검색
  • 시승기검색
ä ۷ιλƮ  ͼ ѱ Ʈüũ 󱳼 ڵδ ʱ ڵ 躴 ͽ ǽ ȣٱ Ÿ̾  ֳθƮ Ʈ  Productive Product  ī

69. 자율주행차 – 9. 인공지능의 한계, 구글은 넘어설 수 있을까?

페이지 정보

글 : 채영석(charleychae@global-autonews.com)
승인 2018-10-25 23:32:22

본문

C.A.S.E., 즉 커넥티비티, 자율주행차, 공유 및 서비스, 전동화라는 화두가 본격적으로 전면에 부상한 지도 2년이 지났다. 그 사이 관련 뉴스는 홍수처럼 쏟아졌다. 특히 미래학자들은 배터리 전기차를 기반으로 하는 완전 자율주행차를 당연한 것으로 여기며 새로운 세계를 그리고 있다. 하지만 여전히 해결해야 할 과제가 많다. 그 중 주목을 끌고 있는 인공지능에 관한 것도 막연히 받아 들일 수만은 없는 것이 현실이다.

 

글 / 채영석 (글로벌오토뉴스 국장)

 

운전석에 앉아서 페달을 밟지 않거나 운전대를 잡지 않고 전방을 주시하지 않아도 탑승자가 원하는 방향으로 자동차 스스로 진행하는 것. 도로나 교통 상황에 대해 탑승자가 신경을 쓰지 않아도 위험을 피해 주행이 가능한 것. 진행 방향에서의 위험을 사전에 감지해 대처 할 수 있는 것. GPS와 카메라, 레이더, 센서 등으로 차선과 신호등, 도로의 장해물 등을 감지해 주행하는 것.

 

지금 많은 뉴스들은 머지 않아 이런 형태의 자율주행차가 우리 앞에 나타날 것이라고 전망하고 있다. 한 걸음 더 나아가 스마트 폰으로 렌터카를 예약하면 집 앞까지 자동차가 도착하는 무인자동차가 등장할 날도 머지 않다는 전망으로 넘쳐 나고 있다. 결론부터 말하자면 완전 자율주행차는 적어도 21세기에는 꿈일 가능성이 더 높다.

 

1960년대에는 6명이었던 파일럿이 지금은 2명으로 줄었지만 여전히 27년 전부터 진행되어온 완전 무인 비행은 실현되지 않고 있다. 조종사가 조종간을 잡고 수동으로 조작하는 시간이 3~5분에 지나지 않지만 조종석을 지켜야 한다.

 

1950년에는 나는 자동차의 개념이 등장했고 1960년이면 실현될 것이라고 했다. 어디까지나 꿈의 기술이었고 구체화되지는 못했다. 최근 비행 자동차 출시 뉴스가 등장하고 있지만 보편적인 교통수단이라기 보다는 특별한 사용자를 위한 것에 지나지 않을 가능성이 높다.

 

2010년을 전후 해 연간 130만명에 달하는 교통사고 사망자를 줄이기 위해 충돌하지 않는 차를 개발하자는 것이 지금의 자율주행차 개발 붐의 시작이다. 자율주행차는 페달에서 발을 떼고, 운전대에서 손을 떼고, 전방 주시를 하지 않고, 운전에 대해 생각하지 않고, 완전 무인 주행 등 5단계로 구분한다. 현 시점에서는 발을 떼고 운전하는 것은 정속 주행장치로 가능하지만 손을 완전히 떼고 주행할 수는 없다.

 

메이커에 따라 10초, 또는 1분 30초 정도(비공식 수치임) 손을 떼고 주행할 수 있도록 세팅하고 있다. 그마저도 도로 조건, 자동차의 중량 등 물리적인 조건 등으로 인해 완전하지는 않다.  지금의 기술은 1.5단계까지 와 있다. 3단계인 눈을 떼는 것보다 더 어려운 것이 손을 떼는 것이다.

 

기술적으로 폐쇄된 공간에서는 충분히 가능하지만 실제 도로에서는 실용화를 위해 많은 시간이 필요하다. 우리가 가끔씩 자동차회사의 광고를 통해 손을 놓고 주행하는 장면을 볼 수 있는데 자동차회사의 시험도로 등에서는 이론적으로 무인주행이 가능하다. 그러나 그 차가 일반 도로에 나오는 순간 30만 가지(?)가 넘는 각종 물리적 제약으로 인해 정상적인 주행을 할 수 없게 된다.

 

예를 들어 카메라로 차선과 신호등, 도로표지 등 모든 것을 읽을 수 있어야 한다. 그 인프라를 정비하기 위해서는 엄청난 비용과 시간이 필요하다. 케이블과 마커를 설치해야 할 수도 있다. 한 번 설치하는 것으로 끝나는 것이 아니라 차선을 끊임없이 선명하게 유지해야 하는 등 제약 조건이 많다. 각종 기상 악화로 차선이 흐려지고 자동차의 센서나 카메라가 막히게 되면 대응 방법이 만만치 않다.

 

그런 점은 고정밀도 디지털 맵을 통해 해결할 수 있을 것이라고 생각하지만 34개의 GPS를 기반으로 하는 기술로는 불가능하다. 때문에 디지털 맵상의 정적 지도 외에 자동차에 탑재된 센서를 활용한 동적 지도를 직접 작성해 가며 주행하는 것을 상정하고 기술이 개발되고 있다.

 

b10c18d2632d471bbb42c386dbd8f4b6_1540477 

GM은 최근 정밀도 향상의 주요 기술로서 3D다이나믹 맵 데이터를 활용한 수퍼 크루즈라는 이름의 자율주행 시스템을 선보였다. 360도 라이다(LiDAR)를 탑재한 데이터 수집 차량을 운행해 2년 가까운 시간에 걸쳐 완성했다고 한다. 다이나믹 맵의 데이터는 차선과 커브 곡률뿐만 아니라 교각과 가드레일, 분리대 등 노상의 구조물, 오르막과 내리막 등 거의 모든 지형을 포함하고 있다.

 

수퍼크루즈는 작동 시 2km 앞까지의 정보를 상시 인식한다. GPS를 기반으로 한 맵 데이터의 정밀도는 각종 센서를 동원해 자차 위치 오차를 6cm 이내까지 좁혔다. 운전자의 상태를 모니터하는 카메라도 스티어링 컬럼 위에 탑재해 긴급 상황에 대응할 수 있다고 한다.

 

 

센서 융합 알고리즘

최근에는 인공지능과 빅 데이터, 딥 러닝 등의 개념이 등장하면서 무인자동차에 대한 기대치는 훨씬 높아지고 있다. 이세돌과의 대결로 주목을 끌었던 알파고를 통해 인공지능이 생각보다 빨리 많은 부문에 도입될 것이라는 생각을 갖게 했다. 딥 러닝(Deep learning)이라는 단어도 이때부터 비로소 한국 사회에서도 관심을 갖기 시작했다. 이를 통해 심층학습형 AI의 도입이 대두되고 있다. 이는 주로 IT 업체들의 사고방식이다.

 

하지만 이 역시 새로운 시장을 발견하고 파이를 키워 수익을 올리고자 하는 IT업계와 반도체업계, 그리고 그들에게 주도권을 빼앗기지 않으려 하는 자동차와 자동차부품업계의 경쟁에서 비롯된 것이다.

 

자율주행 기술은 자기 위치 추정과 외부 인식, 행동 계획, 차체 제어 등 네 가지 프로세스로 구성된다. GPS나 센서로 자차는 물론이고 주변의 보행자나 자동차 등 움직이는 대상물의 위치를 추정하면서 스스로 차체를 제어하면서 목적지까지 이동하는 것이다.

 

아직까지는 이런 프로세스를 완전히 수행할 수 있는 자율주행이라는 단어를 본격적으로 사용할 수 있는 수준은 아니다. ADAS라는 표현대로 첨단 운전자 보조 시스템이다. ADAS는 위 프로세스를 수행하기 위한 밀리파 레이더와 비디오 카메라, 라이다 등 각종 센서로 구성된다.

 

b10c18d2632d471bbb42c386dbd8f4b6_1540477 

센서로 사용되고 있는 밀리파 레이더는 전파를 조사해 반사파를 캐치해 거리나 방향, 대상물의 크기 등을 파악한다. 측정 가능 거리는 100~200미터 이내다. 비디오 카메라는 움직이는 대상(보행자, 다른 차, 장해물 등)의 형상을 파악할 수 있고 그 대상물까지의 거리와 깊이도 측정할 수 있으며 200미터 이내까지 측정이 가능하다. 원리로는 밀리파 레이더와 같지만 전파가 아닌 빛을 사용하는 라이다(LiDAR)는 측정거리가 50~100미터 정도로 짧지만 대상 분석력이 비디오 카메라나 밀리파 레이더보다 높아서 대상물을 비교적 정확하게 파악할 수 있으며 어둠 속에서도 사용이 가능하다.

 

반면 카메라는 분명한 대상에 대해서는 인식을 하지만 야간이나 눈, 비, 안개 등에는 무용지물이고 밀리파 레이더는 악천후에도 사용할 수 있지만 보행자나 가로수등 비금속 대상물의 형태를 잘 인식하지 못한다. 또한 라이다는 야간에도 사용 가능하고 보행자나 비금속도 인식하며 대상물의 형태도 비교적 정확하게 파악할 수 있지만 악천후에는 대응하지 못한다.

 

때문에 이 모든 센서를 동원해 상호 보완하는 형태로 기술 개발이 이루어지고 있다. 센서 융합 알고리즘이 부상하고 있는 이유다.

 

 

패턴 인식 AI, 통계확률형 AI, 블랙박스화 현상

그런 점에서 테슬라 모델 S 오토파일럿의 사고는 시사하는 바가 크다. 오토 파일럿의 중대한 문제점은 7.0 버전과 8.0 버전 모두 라이다(LiDAR)가 탑재되지 않았다는 점이다. 테슬라의 CEO 엘론 머스크는 자율주행차에 라이다가 필요없다고 주장하고 있다. 카메라와 레이더, 초음파만으로 충분하다는 것이다.

 

당시 테슬라의 오토파일럿 기능이 채용된 자동차는 미국의 고속도로를 달리고 있었다. 운전자는 스티어링 휠에서 손을 놓고 있었다. 그런데 전방에서 커다란 트레일러가 갑자기 좌회전을 했고 테슬라 모델S는 트레일러 밑을 통과해 오른쪽 전신주를 들이받고 튕겨 나갔고 운전자는 사망했다.

 

테슬라의 오토 파일럿에는 고속도로에서는 직진만 하는 것으로 입력되어 있다. 패턴 인식AI로 인한 것이다. 미국의 하이웨이는 대부분 중앙 분리대가 있지만 가끔씩 비보호 좌회전을 할 수 있는 도로가 있다. 테슬라는 바로 그런 상황에서 전방의 자동차가 좌회전할 것이라는 예측을 하지 못하고 직진하다가 사고가 발생했다.

 

또 하나는 당시 전방의 트레일러는 하얀색이었다. 테슬라의 모델S에 장착된 비디오 카메라가 흰색 차체와 쾌청한 하늘을 혼동하고 트레일러를 장애물로 인식하지 못한 것이라고 테슬라는 밝혔다. 패턴 인식 AI의 한계를 보인 것이다. 나중에는 자동 브레이크가 작동하지 않았다고 말을 바꾸기도 했다. 이에 대해 미국연방교통안전위원회는 운전자가 경고음을 무시하고 스티어링 휠에서 손을 떼고 운전했다고 했다. 자동차의 문제가 아니라 운전자의 문제라는 것이다. 사고시 법적 책임 문제가 본격적으로 논의가 되어야 한다는 것을 보여 주는 반응이었다.

 

b10c18d2632d471bbb42c386dbd8f4b6_1540477 

여기에서 짚고 넘어갈 것이 인공지능의 패턴 인식에 관한 것이다. 고속도로라는 패턴을 개발자가 입력해 그에 대응할 수 있는 명령을 내릴 수 있도록 되어 있다. 고속도로에서 좌회전하는 것은 확률상 0에 가깝다고 여겼던 상황이 현실에서 발생했고 그에 대한 대응을 못한 것이다. 여기에서는 통계확률형 AI의 한계가 드러났다.

 

2018년 3월 발생한 우버의 사고도 마찬가지로 센서에 관한 것이다. 우버는 자율주행차를 포드에서 볼보로 바꾸면서 라이다를 7개에서 1개로, 카메라는 20개에서 7개로 줄였다. 센서가 부족해 주변 상황을 정확히 인식하지 못한 것이 사고의 주요 원인이었다.

 

라이다를 채용할 필요가 없다고 생각하는 테슬라나 우버 등은 언제라도 운전의 주도권을 사람에게 넘길 수 있다는 것을 전제로 한다. 이와는 달리 구글은 360도를 커버해 3D입체 지도를 작성할 수 있는 라이다를 필수장비로 한다. 그래서 목표하는 것도 스티어링 휠도 페달도 없는 완전 자율주행차다.

 

우리가 알아 두어야 할 것은 이 모든 기능들이 컴퓨터 기반이라는 점이다. 컴퓨터는 카메라로부터의 화상이든, 레이저로부터의 거리측정이든, 초음파 센서로부터의 주파수든, 클라우드로부터의 정보든 디스크 위에 1000101010…. 처럼 2진법 컴퓨터 용어로 입력하고 계산된, 또는 사전 입력된 경우의 수에 따라 대응하도록 되어 있다.

 

때문에 인간처럼 순간적인 상황에 대처하는 것이 불가능하다. 정해진대로 움직여야 하기 때문에 도로상 교통의 흐름에 대응할 수 없다. 확률상 더 안전한 것은 분명하지만 그로 인한 교통 체증이나 또 다른 부가적인 문제에 대해서는 아직까지 답이 없다. 더 큰 문제는 지금 등장한 각종 AI는 누구도 알 수 없는 오류가 발생한다는 것이다. 이세돌의 의외의 한 수에 이 후 말도 안 되는 응수를 한 것이 그 예다. 알파고는 구글의 주가를 58조원이나 폭등하게 만들었지만 어떻게 해서 이세돌을 이길 수 있었는지에 대한 설명은 하지 못한다. 그것을 개발한 개발자도 모른다. 그것을 블랙박스화 현상이라고 한다.

 

 

기술의 완성과 사용자 수용의 괴리

때문에 소비자들 입장에서는 당분간은 ADAS를 안전장비로 여기는 자세가 필요해 보인다. 기술을 이해하는 미래학자들은 인공지능이 아무리 발달해도 사회적 동의를 이루어 내기까지는 많은 시간이 걸릴 것이라고 지적한다.

 

예를 들어 드론이 우리 집 앞을 날아 다니는 것을 허용할 수 없다. 소프트웨어의 개발로 촬영된 화면을 순간순간 지우면서 비행한다고 하지만 그에 대한 신뢰성 역시 담보하지 못한다. 이런 기술의 수용을 결정하는 기준은 결국 기술적으로나 경제적으로 실현 가능한지가 아니다. 그로 인해 발생하는 변화를 과연 인간이 수용하느냐에 있다. 누구에게 운전대를 맡기겠는가? 친구인가, 부모인가, 아니면 자신이 통제할 수 없는 블랙박스인가? 안전하기 위해 구입한 자동차가 나의 의지와 상관없이 상황을 파악하고 그로 인해 내가 사고를 당할 수 있는 상황을 쉽게 받아 들일 수 있을까?

 

주행 중 갑자기 전방에 나타나는 동물에 대해 어떻게 대응해야 할까 하는 문제는 간단치 않다. 동물을 살리기 위해 차선 변경을 왼쪽으로 하면 반대차선 주행차와 충돌할 수 있다. 오른쪽으로 변경하면 인도 위의 보행자를 칠 수 있다. 공사중인 곳의 파일런이 나타나도 마찬가지이다. 지도상에는 공사중인 곳의 표시가 없다. 그럴 때는 운전자에게 스티어링 휠을 넘겨야 한다. 그보다 더 큰 걸림돌은 앞서 언급한 개발자도 모르는 블랙박스화 현상이다.

 

비행기 추락사건이 터지면 대규모의 정밀조사가 장기간 실시되는데 답을 쉽게 내놓지 못하는 경우가 많다. 소프트웨어 작동 불능으로 고속도로에서 다중 충돌사고가 발생한다면 시스템을 끄라는 요구가 빗발칠 것이다. 실제로 필자는 시험 도로 내에서 주행 소프트웨어가 다운되어 도로 가운데 정지한 적이 있다. 배터리를 동력으로 하는 드론은 영하 15도 이하에서는 작동이 되지 않는다. 차량에 탑재된 각종 소프트웨어는 혹서에 다운되어 무용지물이 된다.

 

이런 문제들 때문에 자동차회사들은 운전의 즐거움을 포기 하지 않으면서 교통 정체 시와 고속도로 장거리 운행에서 스트레스를 줄여주는 4단계인 고도로 자동화된 자율주행을 내 세운다. 노약자와 장애인의 이동권 보장도 중요한 포인트다. 유럽과 미국에서는 대형 트럭 운전자 부족의 해소를 위한 수단으로도 이용하기 위한 노력이 이루어지고 있다. 카 셰어링과 주차 편의성 등도 포함된다. 미국의 한 조사를 보면 자율주행차로 인해 하루 56분의 시간을 절약할 수 있다는 데이터도 있다. 단계적인 발전을 염두에 두고 있는 것이다.

 

크게 보면 자쥴주행차는 사회자본을 최대한 효율적으로 활용하자는 것으로 귀결된다. 교통정체와 사고로 인한 사회적인 손실을 줄이자는 것이다. 이를 위해서는 전체 교통사고의 95%에 달하는 인간의 부주의를 줄이기 위해 인간의 개입을 최소화하거나 배제하자는 것이 지금의 자율주행차 붐의 기본 사상이다.

 

최근에는 자율주행차의 상용화를 위해 전용차선에 관한 이야기도 나오고 있다. 실현된다면 지금까지 그랬던 것처럼 일반 승용차보다는 버스나 트럭 등에 우선적으로 배려가 될 수 있을 것이라고 상상할 수 있다.

 

b10c18d2632d471bbb42c386dbd8f4b6_1540477 

하지만 구글은 완전 자율주행차-무인자동차-의 세계를 그리고 있고 당연히 인간은 새로운 세계로 도약할 것이라고 주장하고 있다. 현 시점에서 가장 많은 시험 주행 데이터를 축적하고 있는 구글은 게임의 법칙이 근본적으로 바뀌었다는 주장을 하고 있다.  그런 구글의 무인자동차가 구현될지 전통적인 자동차회사들이 주장하는 4단계의 자율주행차 시대가 인간으로부터 수용될지 결과가 나오려면 꾀나 긴 시간이 필요할 것으로 보인다. 어떤 전문가는 2,200년이 되도 무인자동차 시대는 오지 않을 것이라고 주장하기도 한다.

  • 페이스북으로 보내기
  • 트위터로 보내기
  • 구글플러스로 보내기
하단배너
우측배너(위)
우측배너(아래)