지난달 23일 발생한 테슬라 자율주행 차량의 사망사고 현장. 지난해 9월 일어난 중앙분리대 충돌사고처럼 오전 역광(아래 사진)이 사고 원인이라는 주장이 제기됐다. [미 폭스TV·ABC 방송 캡처]
지난달 발생한 테슬라의 자동주행(오토파일럿 모드) 차량 사고는 태양의 역광에 따른 센서 인식률 저하 때문이라는 주장이 제기됐다. 자율주행차가 눈·비·안개 등 특정 자연 변수에 대응력이 떨어지는 것으로 밝혀지면서 안전성 논란도 커지고 있다.
미 ABC방송의 서부지역 네트워크인 KGO-TV는 이번 테슬라 운전자 월터 후앙의 사망 사고가 지난해 9월 발생한 테슬라의 자동주행 차량 사고와 비슷하다고 최근 보도했다.
지난달 테슬라의 사고는 오전 역광이 내리쬐는 상황에서 차량이 중앙분리대를 들이받아 발생했는데, 6개월 전 사고도 오전 역광으로 눈부신 상황이었다는 것이다. 이에 앞서 테슬라는 2016년 발생한 트레일러 충돌 사고에 대해 "자동주행 차량이 역광 탓에 흰색 트레일러를 하늘로 오인해 충돌 사고를 냈다"고 사고 원인을 밝힌 바 있다.
실제 지난해 9월 테슬라 차량이 중앙분리대에 충돌한 직후 구조차량이 찍은 영상에는 역광으로 시야 확보가 쉽지 않다. 사람의 눈처럼 주변을 인식하는 센서가 차선이나 장애물을 분간하기 쉽지 않다는 얘기다. 짐 맥퍼슨 ‘세이프셀프드라이브’ 컨설턴트는 "지난해 9월 사고와 이번 사고는 오전 시간, 밝은 태양 아래서, 오토파일럿 모드로 고속 주행하다가, 차선을 잘못 인식해 벌어졌다는 점에서 공통점이 있다"며 "태양의 고도가 낮을 경우 (역광에 의해) 테슬라에 장착한 카메라가 문제를 일으킬 수 있다"고 설명했다.
방송은 지난달 사망 사고가 난 고속도로를 오전 시간대에 주행하다가 이번처럼 중앙분리대에 충돌할 뻔한 상황을 경험한 다른 테슬라 운전자의 인터뷰도 전했다. 오토파일럿 모드로 운행하다가 강한 빛을 만날 경우 센서가 제대로 작동하지 않아 안전성에 문제가 생길 수 있다는 게 방송의 판단이다.
이번 테슬라 사고뿐 아니라 자율주행차가 악천후에 주변 사물 인지능력이 떨어지는 것이 확인되면서 자율주행차 상용화에 박차를 가하던 주요 기업들은 큰 난관에 부닥쳤다.
캐나다 브리티시컬럼비아대 연구진은 최근 비가 오는 밤에 자율주행차 인공지능(AI)이 사물을 어떻게 인식하는지 살폈다. 인공지능은 차량과 사람·도로를 구분하는 데 애를 먹었다. 부족한 조명과 앞을 가로막는 와이퍼의 움직임 등 때문에 정확한 이미지 확보가 어려웠기 때문이다. 짐 리틀 브리티시컬럼비아대 연구원은 "사람이 비가 내리는 밤에 시야 확보가 어려운 것처럼 자율주행차도 비슷한 어려움을 겪는다"고 설명했다.
올 초 미국 라스베이거스에서 열린 ‘소비자가전전시회(CES) 2018’에선 폭우로 인해 프랑스 정보기술(IT) 기업 ‘나브야’의 첨단 자율주행 시연이 취소되기도 했다.
[그래픽=김영옥 기자 yesok@joongang.co.kr]
지난겨울 미국 북동부 지역 폭설 이후 자율주행차 개발 업체들 사이에 골칫거리로 떠오른 것은 눈(雪)이다. 눈이 도로를 덮으면 차선이 어딘지, 도로의 좌우 끝은 어딘지 분간하기 힘들다. 대기 중에 흩날리는 눈은 앞을 가리고, 노면과의 마찰력도 작아지기 때문에 운전 방식도 보통 때와 달라야 한다.
그간 자율주행차 관련 업체들은 주로 미국 캘리포니아·애리조나 등 온화한 지역에서 시험운행을 해 왔다. 파이낸셜타임스(FT)는 "기업들이 눈 내리는 상황에 대한 기술 실험을 위해 북부 도시에 자율주행차를 보내고 있다"며 "얼어붙은 길을 달리는 요령과 센서 기능 저하에 대한 대비책 등이 시급한 과제"라고 전했다. 이 밖에 흙이나 죽은 벌레, 새의 배설물, 물방울 등이 센서의 작동을 방해하거나 온도 차로 렌즈에 김이 서리는 등의 문제도 발생할 수 있다.
이에 구글 웨이모는 미국 북부 도시 디트로이트에서, 헝가리의 AI모티브는 핀란드에서 겨울철 주행 실험을 진행할 예정이다. 일본은 15만㎡ 규모의 자율주행차 시험장 ‘J-타운’에서 각종 악천후에서 나타나는 센서의 취약점을 파악하고 있다.
이런 센서 문제를 해결하기 위해 전문가들이 내놓는 해법은 역설적으로 센서 기술의 진화다. 현재 자율주행 차량에 쓰이는 센서는 크게 카메라·레이더(Radar)·라이다(LiDAR) 세 가지다. 카메라는 사람의 눈과 비슷하게 인식하지만 악천후에 약하다. 레이저를 쏘는 라이다는 주변 환경의 3차원(3D) 인식이 용이하나 레이저를 흡수하는 검은색 물체의 인식이 어렵다. 전파를 이용하는 레이더는 날씨와 관계없이 사물을 인식하지만, 정밀도가 낮은 게 단점이다.
정구민 국민대 전자공학부 교수는 "각 센서가 뚜렷한 장단점을 가지기 때문에 각 센서의 단점을 서로 보완해 줄 수 있도록 세 가지 센서를 조합하는 연구와 개발이 다양하게 진행되고 있다"며 "센서들의 인식률 향상과 함께 ▶정밀도를 높인 3D 레이더 기술 ▶열을 인지해 주변을 인식하는 열화상 카메라 기술 ▶더 넓은 통신 대역에서 신호를 전달하는 UWB 기반 기술 등이 기존 단점을 보완할 것으로 예상한다"고 말했다. 그는 이어 "자율주행 레벨이 더 높은 단계로 넘어가면서 더 많은 센서가 추가될 것"이라고 덧붙였다.
자율주행 차량 초정밀 지도도 센서의 빈틈을 메워준다. 이 지도는 자동차가 주행하는 데 필요한 다양한 도로 정보를 포함할 뿐만 아니라 기존 지도보다 10배 이상 정밀해 실제 도로와 10~20㎝ 이하 오차를 갖는다. 센서 인식이 어려울 때 지도 데이터를 기반으로 차량이 도로의 어디에 있는지, 차로는 언제 변경해야 하는지 등을 알 수 있다.
쌍방향 통신인 ‘V2X’도 대안으로 꼽힌다. 도로를 주행하는 다른 차량, 관제 시스템과 실시간으로 정보를 주고받으면서 다양한 교통상황에 대응할 수 있다.
이강원 SK텔레콤 소프트웨어기술원장은 "비행기가 이착륙할 때 등 관제탑과 교신하는 것처럼 자율주행차가 5G 통신망을 기반으로 주변 차량 및 도로 인프라 정보를 공유하면 안전성을 확보할 수 있다"고 설명했다.
손해용 기자 sohn.yong@joongang.co.kr