주메뉴바로가기.. 본문바로가기

[CES 2018] 자율주행차, 센서와 반도체 기술 무장하고 상용화 성큼

카카오스토리 네이버밴드 구글플러스

2018년 01월 11일 10:23 프린트하기

어느샌가 CES와 모터쇼가 헷갈릴 정도로 자율 주행 차량 기술은 중요한 주제가 됐다. 엔진 출력이나 연비, 디자인을 넘어 IT 기술, 특히 주행 보조 장치가 자동차의 차별성을 만드는 듯하다. 2013년 CES만 해도 혼자 움직이는 차량이 그 개념 자체만으로도 놀라운 일이었고, 2016년 CES에서는 관람객을 태우고 주행하는 수준에 올라섰다. 실제로 어느 정도 차량에게 맡겨둘 수 있는 레벨3 차량이 상용화되고 있는 게 요즘의 현실이다.

 

2018 CES (라스베이거스=최호섭)
2018 CES (라스베이거스=최호섭)

CES2018에서는 그 자체로 놀라게 할 만한 기술이 따로 나오지는 않았다. 자율주행의 상용화가 점차 가까워 오면서 그 동안 기술 그 자체에만 집중했던 분위기가 상품화로 가다듬어지는 듯하다. 실험실에서나 나올 것 같이 카메라와 센서를 치렁치렁 달고 있던 차량들은 이제 매끈한 원래의 모습을 되찾아가고 있다.

인텔이 부스에 전시한 BMW 7er 차량은 센서 44개, 카메라 11개가 숨겨져 있지만 겉으로 드러나는 카메라 몇 대 정도가 눈에 띌 뿐이다.

 

자율주행차라고 해서 센서가 요란하게 달리던 것은 이제 예전 이야기다. 언뜻 보면 구분이 안 될 정도로 깔끔하게 갖춰지고 있다. 기술이 자리를 잡아간다는 이야기다. (사진=라스베이거스 최호섭)
자율주행차라고 해서 센서가 요란하게 달리던 것은 이제 예전 이야기다. 언뜻 보면 구분이 안 될 정도로 깔끔하게 갖춰지고 있다. 기술이 자리를 잡아간다는 이야기다. (사진=라스베이거스 최호섭)

많은 부분이 센서를 통해 이뤄지지만 주변의 돌발 상황은 카메라를 통한 컴퓨터 비전 기술이 중심에 있다. 지난해 파트너십을 발표했던 인텔과 모빌아이가 한솥밥을 먹게 된 것도 결국 인텔이 자율주행 기술을 갖기 위해 컴퓨터 비전 기술이 필요했기 때문이다. 마찬가지로 엔비디아의 ‘드라이브PX2’ 등 자동차용 플랫폼이 주목받았던 것 역시 GPU를 이용한 병렬 컴퓨팅이 실시간으로 쏟아지는 이미지 분석을 처리하기에 유리했기 때문이다.

 

소니는 CES2018에서 자동차의 ‘눈’ 역할을 하는 카메라 이미지 센서를 공개했다. 소니는 이미 지난해 4월 차량용 이미지 센서를 개발하겠다고 밝혔다. 소니는 이미 카메라 모듈을 차량과 자율주행 관련 플랫폼에 가장 많이 공급하고 있는 회사이기도 하다. 다만 기존 사진을 담는 카메라 센서가 아니라 자동차에 최적화된 이미지를 별도로 개발하는 것으로 보면 된다.

 

실제 소니는 부스에 500미터 이상 떨어진 피사체를 정확하게 잡아내거나 카메라 하나로 거의 180도에 이르는 시야각을 확보하는 데모를 시연했다. 역광 상태나 별빛 정도의 밝기로도 차량과 사람 등을 명확하게 읽어내기도 했다. 또한 이 카메라들을 다양하게 묶어서 차량 주변을 360도로 파악해 안전을 유지하는 ‘세이프티 코쿤’이라는 개념도 콘셉트로 공개했다.

 

세이프티 코쿤, 주변을 카메라로 읽어들여 안전을 확보하는 기술 개념을 공개했다 (사진=라스베이거스 최호섭)
세이프티 코쿤, 주변을 카메라로 읽어들여 안전을 확보하는 기술 개념을 공개했다.  (사진=라스베이거스 최호섭) 

단순히 센서의 반도체 집적도를 높이고 화소수를 높이는 것이 아니라 어두운 곳과 밝은 곳을 모두 파악하고 역광 등 사람의 눈으로 놓치기 쉬운 이미지 정보를 모두 담아내는 것이 자동차용 이미지 센서의 가장 큰 역할이다. 하지만 화소수는 곧 ‘시력’으로 통하기 때문에 더 업계는 높은 해상도의 카메라를 원한다. 하지만 상황은 조금 다르다.


소니는 지난해 10월에 발표됐던 IMX324 센서를 전시했다. 그 동안 100만~200만 화소에 머무르던 차량용 카메라의 해상도를 742만 화소로 높인 것이다.해상도가 높아지면 사물을 더 정확히 식별할 수 있고, 더 멀리 내다볼 수 있다. 하지만 그만큼 더 높은 이미지 처리 기술이 필요하다. 자동차 업계가 고성능 반도체를 찾게 되는 이유다. 단순히 카메라 한 두 대라면 큰 문제가 없지만 레벨3 이상의 자율 주행에는 보통 10개 이상의 카메라 정보가 필요하다. 이 카메라를 모두 800만 화소로 높이고, 컴퓨터 하나로 모든 것을 실시간으로 처리하려면 그만큼 막대한 컴퓨팅 파워가 뒷받침되어야 한다. 자동차에서 이미지 해석의 오류는 곧 사고로 이어질 수 있기 때문이다.

 

모빌아이의 아이큐(eyeQ) 칩은 현재 4세대 칩이 주력으로 공급되고 있다. 아이큐4H는 6와트의 전력으로 1초에 2.5조 번 명령어를 처리할 수 있는 2.5TOPs(테라 오퍼레이션)의 성능을 낸다. 올해 공개될 5세대 아이큐5H는 7㎚ 공정으로 만들어 10W 전력으로 초당 24조 번 명령어를 처리(24TOPs)한다. 처리량이 늘어난다는 이야기는 곧 더 많은 카메라를 통해 주변 환경을 받아들이고, 각 카메라는 더 높은 해상도 읽어들여도 무리가 없다는 이야기로 통한다.

 

모빌아이는 성능을 끌어올린 5세대 아이큐(EyeQ)칩을 발표했다. 4세대 칩보다 10배 더 높은 성능을 낸다. 또한 모빌아이는 아톰 프로세서를 결합해 성능을 더 끌어올리겠다고 밝혔다.(사진=라스베이거스 최호섭)
모빌아이는 성능을 끌어올린 5세대 아이큐(EyeQ)칩을 발표했다. 4세대 칩보다 10배 더 높은 성능을 낸다. 또한 모빌아이는 아톰 프로세서를 결합해 성능을 더 끌어올리겠다고 밝혔다.(사진=라스베이거스 최호섭)

모빌아이는 인텔과 합병하면서 협업에 대해 언급하기도 했는데, 아이큐 프로세서와 아톰 프로세서를 결합해 더 강력한 컴퓨팅 파워를 내겠다고 밝혔다. 아톰 프로세서라고 하면 으레 성능을 무시하게 마련인데, 이는 과거 PC의 이야기이고, 자동차에 쓰이는 반도체로는 고성능 프로세서로 꼽힌다.

 

엔비디아는 소형화에 힘을 쏟았다. 엔비디아는 키노트를 통해 자비에(Xavier)라는 이름의 통합 프로세서를 발표했다. 이는 지난해 발표하고, 현재 테슬라와 아우디를 비롯한 차량에 들어간 드라이브PX2와 비슷한 성능을 내지만 칩 크기를 획기적으로 줄이고, 전력 소비량도 10분의 1로 낮췄다. 8코어 CPU, 512개 볼타 GPU 코어를 품고 초당 30조 번(30TOPs)의 데이터를 처리한다.

 

엔비디아의 자비에 칩. 1년 전 발표한 드라이브PX2와 비슷한 성능을 내면서 크기와 전력 소비량을 줄였다. (사진=라스베이거스 최호섭)
엔비디아의 자비에 칩. 1년 전 발표한 드라이브PX2와 비슷한 성능을 내면서 크기와 전력 소비량을 줄였다. (사진=라스베이거스 최호섭) 

지난해까지는 차량 한 대에 5~10TOPs 정도의 성능을 냈다면 다음 세대의 차량은 20~30TOPs 정도의 칩을 1~2개 묶어 50~60TOPs까지 성능을 내는 것이 기준이 된다고 볼 수 있다. 또한 성능을 끌어올는 것만큼이나 더 작게 만들고 낮은 전력으로 작동하는 것이 중요한 가치가 됐다. 몇 십 와트대의 전력 소비량이 크지 않은 것 같지만 자동차의 구동이 전기로 넘어가면서 모바일 기기만큼이나 전력 효율을 그야말로 ‘쥐어 짜야’ 하는 것이 중요한 과제가 됐다. 자동차에서도 반도체가 겪는 일들은 결국 PC나 모바일과 비슷해 보인다.

 

 

 

※ 필자소개

최호섭. PC사랑을 시작으로 최근 블로터까지 IT 분야만 팠다. 차에서 보내는 시간이 아까워서 들여다보기 시작한 노트북과 팜 파일럿 PDA는 순간이 아니라 인생을 바꿔 놓았다. 기술 하나에 일희일비하지 않고 역사와 흐름을 읽고자 한다. 세상은 늘 배울 게 많고, 기술은 거짓말하지 않는다고 생각한다.

카카오스토리 네이버밴드 구글플러스

2018년 01월 11일 10:23 프린트하기

 

혼자보기 아까운 기사
친구들에게 공유해 보세요

네이버밴드 구글플러스

이 기사가 괜찮으셨나요? 메일로 더 많은 기사를 받아보세요!

2 + 8 = 새로고침
###
과학기술과 관련된 분야에서 소개할 만한 재미있는 이야기, 고발 소재 등이 있으면 주저하지 마시고, 알려주세요. 제보하기

관련 태그뉴스