글로벌오토뉴스

상단배너

  • 검색
  • 시승기검색

ADAS의 센서 융합 알고리즘과 딥 러닝

페이지 정보

글 : 채영석(charleychae@global-autonews.com)
승인 2018-12-04 14:55:28

본문

자율주행 기술은 자기 위치 추정과 외부 인식, 행동 계획, 차체 제어 등 네 가지 프로세스로 구성된다. 좀 더 요약하면 인지와 판단, 조작으로 정리된다. GPS나 센서로 자차는 물론이고 주변의 보행자나 자동차 등 움직이는 대상물의 위치를 추정하면서 스스로 차체를 제어하면서 목적지까지 이동하는 것이다. 이런 센서와 딥 러닝 등 인공 지능이 결합하면서 ADAS 기술은 한층 빠른 속도로 진화하고 있다.

 

글 / 채영석 (글로벌오토뉴스 국장)

 

아직까지는 이런 프로세스를 완전히 수행할 수 있는 자율주행이라는 단어를 본격적으로 사용할 수 있는 수준은 아니다. ADAS라는 표현대로 첨단 운전자 보조 시스템이다. ADAS는 위 프로세스를 수행 하기 위한 밀리파 레이더와 비디오 카메라, 라이다 등 각종 센서로 구성된다.

 

가장 먼저 레이더와 카메라, 라이다 등의 센서로 도로와 도로 주변의 대상물에 대한 인식 정밀도를 높이는 것이 관건이다. 이런 센서를 통해 획득한 정보가 얼마나 정확하느냐에 따라 다음 단계인 행동계획(판단)과 차체 제어(조작)가 원활하게 이루어질 수 있다.

 

인지하는 과정은 사람이 눈과 귀로 주변을 인식하는 것과 같다. 다만 사람의 눈처럼 직관적으로 대상물을 특정하지 못한다. 사람은 도로상에, 혹은 주변의 물체에 대해 구체적으로 인식할 수 있다. 자동차의 브랜드는 물론이고 모델명, 사람에 따라서는 연식까지 금새 알 수 있다. 사람과 동물을 구분하고 남자와 여자, 어린이 등 구체적이고 직관적으로 알 수 있다. 그 사람이 누구인지도 알 수 있다.

 

하지만 카메라를 비롯한 센서는 그렇지 못하다. 그 대상물과의 거리, 또는 형태를 기반으로 하는 패턴 인식을 한다. 예를 들어 카메라 센서는 도로상에서 전고가 2미터, 전폭이 1.8미터, 전장이 5미터 가량의 각진 형태의 움직이는 물체에 대해 자동차라고 인식한다. 물론 똑 같은 자동차라고 해도 이동하면서 각도가 달라지기 때문에 인식하는 크기도 달라진다. 두 발로 직립 보행하면 사람이고 네 발로 움직이는 물체는 동물로 인지한다. 물론 남녀 구분은 물론이고 어떤 동물인지도 정확하게 파악하지 못한다. 그만큼 정확하지는 않다는 것이다.

 

b329c261e440703a459edef4828bd6a3_1543902 

때문에 레이더와 라이더 등 다른 장비로부터 얻은 정보를 융합해 주행에 필요한 정보로서 결과를 도출한다. 이런 인지를 위해 필요한 장비는 고정밀 디지털 지도를 시작으로 디지털 카메라, 레이더, 라이다, GPS 등 다양하다. 이들 각종 센서로부터 얻은 정보를 해석해 디지털 지도상에서 자기 위치를 추정하게 된다. 그 이야기는 센서가 얼마나 정밀하느냐에 따라 자기위치도 정확하게 추정할 수 있다는 것이다. 그만큼 센서와 그 해석 기술이 중요하다고 할 수 있다.

 

센서로 사용되고 있는 밀리파 레이더는 전파를 조사해 반사파를 캐치해 거리나 방향, 대상물의 크기 등을 파악한다. 측정 가능 거리는 100~200미터 이내다. 주파수를 이용한 센싱 수법으로 비나 눈 등 악천후의 영향을 받지 않는다는 것이 장점이다. 주로 앞 차와의 거리를 측정하고 충돌 위험성을 감지하는데 이용된다. 밀리파 레이더는 악천후에도 사용할 수 있지만 보행자나 가로수등 비금속 대상물의 형태를 잘 인식하지 못한다.

 

카메라 센서는 움직이는 대상, 즉 보행자나 다른 차, 장해물 등의 형상을 파악할 수 있고 그 대상물까지의 거리와 깊이도 측정할 수 있으며 200미터 이내까지 측정이 가능하다. 카메라 센서의 장점은 분명한 대상에 대해서는 인식을 정확히 한다는 것이다. 카메라를 하나 사용하는 것과 두 개 사용하는 것에 따라 인식 정밀도에 차이가 있다.

 

싱글 카메라로 감지한 정보는 3차원 정보가 아니기 때문에 대상물의 위치와 거리를 정확히 측정하지 못한다. 반면 스테레오 카메라는 대상물의 색상이나 형상 등 자세한 정보를 인식할 수 있어 다른 센서가 하지 못하는 신호 상태나 움직이는 표지판, 보행자의 움직임과 거동 등을 인식할 수 있다. 하지만 야간이나 눈, 비, 안개 등에는 무용지물이다.

 

b329c261e440703a459edef4828bd6a3_1543902 

라이다(LiDAR)는 원리는 밀리파 레이더와 같지만 전파가 아닌 빛을 사용한다. 펄스상의 레이저를 조사해 그 반사광과의 시간차를 측정함으로써 대상까지의 거리와 3차원 형상의 정보를 취득할 수 있다. 그 형상정보와 고정밀 디지털지도와의 매칭에 의해 자차 위치를 확인할 수 있다. 때문에 신호등과 도로표지, 건물 등 정적 지도는 정확하게 측정 가능하다. 긴급 제동장치를 위해 전방에만 사용하는 경우도 있으며 구글처럼 360도 카메라를 차체 지붕 위에 달고 있는 예도 있다.

 

라이다는 측정거리가 50~100미터 정도로 짧지만 대상 분석력이 비디오 카메라나 밀리파 레이더보다 높고 어둠 속에서도 사용이 가능하다. 라이다는 야간에도 사용 가능하고 보행자나 비금속도 인식하며 대상물의 형태도 비교적 정확하게 파악할 수 있지만 악천후에는 대응하지 못한다. 또한 동적으로 변화하는 신호등과 도로 표지, 도로 공사 현장, 보행자의 움직임을 식별하지 못한다.

 

인지를 위한 센서 기술은 빠른 속도로 발전하고 있다. 자율주행 프로세스의 첫 번째 단계인 인지를 위한 센서 부문에서 보쉬가 최근 공개한 VMPS(Vehicle motion and position sensor)도 그 중 하나다. 센티미터 단위로 오차 범위를 좁힌 이 센서에는 GNSS(글로벌 내비게이션 위성 시스템)신호용 고성능 수신기가 포함되어 있다. VMPS가 수신하는 것은 GNSS 신호뿐 아니라 인간의 감각과 유사한 휠 속도 및 조향각 센서로부터 차의 방향과 속도를 알 수 있다. 관성 센서도 통합되어 있어 인간의 두뇌에 필적한다고 한다. 사람들이 감각과 균형감으로 움직일 수 있는 것처럼 센서는 이 데이터를 사용해 차량이 가고 있는 곳을 알 수 있다.

 

중요한 것은 이 모든 센서를 동원해 상호 보완하는 형태로 기술 개발이 이루어지고 있다는 것이다. 센서 융합 알고리즘이 부상하고 있는 이유다.

 

알고리즘에서 중요한 인공지능 기술이 패턴 인식이다. 대상물의 명암이라든지 각 등을 인지하면 입력된 화상 중 일치하는 것을 찾아내는 것을 말한다. 하지만 자동차를 둘러싼 이용 환경의 변화는 방대하다. 중앙 분리대라고 해도 형태가 같지 않으며 색깔도 다르다. 똑 같은 대상물이라고 해도 다른 물체에 의해 부분적으로 다른 모양으로 비쳐질 수도 있다. 구름이 낀 날씨와 맑은 날씨에 보이는 대상물은 다른 색깔로 변한다. 하얀색 트레일러를 하늘이라고 인식해 사고를 낸 테슬라의 오토파일럿이 그 예다.

 

b329c261e440703a459edef4828bd6a3_1543902 

지금까지의 패턴인식은 인간이 경험한 것을 바탕으로 한 것들에 관한 정보를 기초로 했다. 하지만 거기에는 한계가 있어 등장한 것이 심층학습, 즉 딥 러닝(Deep Learning)이다. 이미 알고 있는 화상을 대량으로 입력하고 그것을 바탕으로 다양하게 나타날 수 있는 가능성을 컴퓨터가 찾아내게 하는 것이다. 이세돌과 대국을 벌인 알파고도 그런 패턴인식과 더불어 통계확률형 AI의 산물이다.

 

지금은 인간의 인식 정도를 넘어서는 수준에 달했다. 간단하게 말하면 인간의 눈처럼 직관적이지는 않지만 프로세스의 두 번째 단계인 판단을 위한 정보는 충분히 얻어낼 수 있다는 것이다. 이 부문의 전문업체들의 인식률은 99%를 넘는 곳도 있다.

 

심층 학습이 적용된 예 중에는 차로 유지 기능이 있다. 차로 유지보조 시스템의 주 장비는 카메라센서다. 카메라 센서로 차선을 정확히 읽어내야 차로를 이탈하지 않는다. 그런데 비가 오거나 야간, 또는 터널 출구 등에서는 차선을 감지하는 것이 쉽지 않다. 이 때 필요한 것이 딥 러닝이다. 수많은 상황을 사전에 입력해 조우 가능한 상황과 매칭해 차로를 이탈하지 않게 해 준다. 조금씩 다른 정보에 대해서도 대응할 수 있다. 물론 이때도 고정밀 디지털 맵이 필요하다. 메르세데스 벤츠는 심층 학습 기능을 이용해 전방의 차선이 정확치 않을 때는 앞 차의 궤적을 따르도록 하는 패턴인식을 적용했다.

 

나비간트는 2018년 1월 자율주행차 기술 수준에 대해 GM과 구글의 웨이모가 가장 앞서 있고 테슬라가 가장 꼴찌라고 평가했다. 그 배경에는 360도 라이다의 사용 여부가 있다. 하지만 디지털 지도와 고정밀 GPS, 고속 통신망인 5G에 지나치게 의존하지 않고도 대응하고자 하는 움직임도 있다. 지난 11월 서울에서 개최된 엔비디아의 세미나에서는 싱글 카메라만으로 모든 것을 해결할 수 있다는 업체도 등장했다. 360도 라이다가 필수장비는 아니라고 엔비디아의 자동차 담당 엔지니어는 밝히기도 했다. 360도 라이다 센서의 가격이 5,000~7,000만원 가량의 고가이기 때문이기도 하겠지만 심층학습 등 인공 지능 기술의 발전으로 인한 것도 있다.   

  • 페이스북으로 보내기
  • 트위터로 보내기
  • 구글플러스로 보내기
하단배너
우측배너(위)
우측배너(아래)