자율 주행 자동차 센서 | [다큐S프라임] 자율주행의 눈, 라이다 / Ytn 사이언스 23365 투표 이 답변

당신은 주제를 찾고 있습니까 “자율 주행 자동차 센서 – [다큐S프라임] 자율주행의 눈, 라이다 / YTN 사이언스“? 다음 카테고리의 웹사이트 th.taphoamini.com 에서 귀하의 모든 질문에 답변해 드립니다: https://th.taphoamini.com/wiki/. 바로 아래에서 답을 찾을 수 있습니다. 작성자 YTN 사이언스 이(가) 작성한 기사에는 조회수 235,244회 및 좋아요 2,729개 개의 좋아요가 있습니다.

Table of Contents

자율 주행 자동차 센서 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 [다큐S프라임] 자율주행의 눈, 라이다 / YTN 사이언스 – 자율 주행 자동차 센서 주제에 대한 세부정보를 참조하세요

운전자 없이도, 안전하고 똑똑하게 주행할 수 있는 자율주행 자동차의 시대.
과거 영화나 책에서만 보던 스마트 시티의 꿈은 이미 현실에서 실현이 되고 있죠.
이를 가능하게 한 건, 과연 무엇이었을까요?
라이다 기술은, 지리 및 천연자원의 탐사와
보안시스템의 정확도를 높이는데 쓰이고 있으며 게임을 통한 가상현실 체험.
또 공간을 스캔하고 측정해 3D 공간 모델을 만들어 내는 등 건축 설계에도 관여하고 있죠.
그리고 항공 우주 분야에도 적용되는 기술입니다.
라이다 기술은 이미 우리의 일상 아주 가까이 그리고, 더 깊숙이 스며들고 있는데요.
과거엔 기상 관측이나 지형을 정밀하게 그리기 위해
또 비행기 착륙을 유도하기 위해서 일부에만 적용되던 기술이
이제는 산업 전반에 다양하게 활용되고 있습니다.
라이다 기술을 기반으로 앞으로 사회는 더욱 긴밀하게 연결될 것으로 예상되는데요.
세상은 라이다를 중심으로 더 빠르게, 더 정밀하게 정보를 주고받고 있습니다.
4차 산업 혁명의 핵이라고 해도 결코 모자람이 없는
우리가 상상했던 그 미래를 가능하게 한 기술.
지금부터 라이다 기술에 대해 살펴보도록 하겠습니다.
#자율주행 #4차산업혁명 #라이다기술 #메타버스 #가상현실
[원문 제목] 자율주행의 눈, 라이다 / YTN 사이언스
[YTN 사이언스 기사원문] https://science.ytn.co.kr/program/program_view.php?s_mcd=1213\u0026s_hcd=\u0026key=202109240954152422\u0026page=1

자율 주행 자동차 센서 주제에 대한 자세한 내용은 여기를 참조하세요.

자율주행을 가능하게 하는 기반 기술들 – 소프트웨어정책연구소

자율주행자동차는 센서(IoT), 통신(Mobile 및 Network) 빅데이터, 인공지능 기술이 모두 융합된 객체이다. 완전한 자율주행이 가능하기 위해서는 위 기술들이 에러와 …

+ 더 읽기

Source: spri.kr

Date Published: 1/4/2021

View: 8712

자율주행차, 사람보다 안전한 운전 비밀은 ‘센서 3형제’에 있다

자율주행차의 주변 환경 인식은 크게 카메라와 레이더, 라이다 등을 포함한 3개의 센서에서 시작된다. 인간의 눈, 코, 입, 귀의 역할이 다른 것처럼 각 …

+ 여기에 더 보기

Source: www.hankookilbo.com

Date Published: 11/17/2022

View: 7539

(3) 자율주행차를 가능하게 하는 센서 기술 – 인공지능신문

자율주행차가 주변을 감지할 수 있도록 하는 기술은 대표적으로 3가지를 들 수 있다. 라이다, 카메라, 레이더이다. 현재 이들 각각의 기술이 각기 …

+ 여기에 자세히 보기

Source: www.aitimes.kr

Date Published: 4/28/2021

View: 7319

인간보다 ‘1000배’ 안전하다고?…’자율주행차’ 센서에 숨겨진 비밀

자율주행 차량에는 반드시 ‘초음파, 레이더, 라이다 그리고 카메라’ 등 4가지 센서가 탑재돼 있어야 한다. 이 센서들은 자율주행차의 눈 역할을 한다. 이 …

+ 여기에 보기

Source: www.newstree.kr

Date Published: 10/23/2021

View: 5158

[車블랙박스]카메라부터 초음파까지…안전한 자율주행 … – 뉴시스

자율주행차는 크게 카메라, 라이다, 레이더, 초음파 등 네 가지 센서를 통해 주변 환경을 인식한다. 인간의 눈, 코, 입, 귀가 각각의 역할이 있듯 이 센서 …

+ 여기를 클릭

Source: mobile.newsis.com

Date Published: 6/6/2021

View: 5237

Special Report – 자율주행차 센서 기술 동향

범주에서 머물러 있던 자율주행차 기술이 환경인지. 센서 기술의 비약적인 발전과 인공지능 기술의 확. 산으로 말미암아 이제는 미래 사회에 커다란 변혁.

+ 여기에 보기

Source: www.tta.or.kr

Date Published: 10/4/2022

View: 1445

자율주행 자동차에는 ‘센서’ 기술이 중요

자율주행 자동차에서 센서는 주변의 정보를 수집하는 역할을 하게 된다. 센서는 인간의 시각·청각 등을 대체하는 기술로, 차량 내부에 장착되는 각종 …

+ 여기에 표시

Source: www.msdkr.com

Date Published: 6/7/2021

View: 1492

자율주행을 위한 센서기술동향 – 한국자동차공학회

자율주행 시스템의 구성요소들은 도로와 GPS를 포함한 인프라부터 제동과 조향 시스템의. Redundancy 확보 등 다양하지만, 레이더, 카메라, 라이다 등의 센서들이 가장 …

+ 여기를 클릭

Source: www.ksae.org

Date Published: 4/18/2021

View: 8917

완전한 자율주행을 위한 도전, 카메라와 라이다 – 기술과혁신 웹진

자동차 전용도로에 올라서 자율주행모드를 켜자, 차량은 스스로 차선을 지키고 앞차와 거리를 유지했다. … 자율주행차에는 다양한 센서와 카메라가 활용된다.

+ 더 읽기

Source: webzine.koita.or.kr

Date Published: 12/15/2022

View: 1110

주제와 관련된 이미지 자율 주행 자동차 센서

주제와 관련된 더 많은 사진을 참조하십시오 [다큐S프라임] 자율주행의 눈, 라이다 / YTN 사이언스. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

[다큐S프라임] 자율주행의 눈, 라이다  / YTN 사이언스
[다큐S프라임] 자율주행의 눈, 라이다 / YTN 사이언스

주제에 대한 기사 평가 자율 주행 자동차 센서

  • Author: YTN 사이언스
  • Views: 조회수 235,244회
  • Likes: 좋아요 2,729개
  • Date Published: 2021. 9. 24.
  • Video Url link: https://www.youtube.com/watch?v=oy4UrfQ0vnY

자율주행차, 사람보다 안전한 운전 비밀은 ‘센서 3형제’에 있다

인간의 외부 자극은 오감(시각·청각·후각·미각·촉각)으로부터 수용된다. 이 자극은 전기 신호를 통해 중추신경계로 전달되고, 이를 통해 사고하고 행동한다. 자율주행차는 전통적인 차량과 달리 인간처럼 사고하고 스스로 운행해야 한다. 자율주행차의 운행 원리도 인간이나 동물의 사고 과정과 유사하다. 인간이 신경세포(뉴런)로부터 감각을 느끼듯, 자동차도 기본적으로 탑재된 센서들이 주변 환경 요소를 인식한다. 차량 내 인공지능(AI) 컴퓨터(PC)는 센서에서 수집한 정보로 차량을 제어한다. 이 제어기가 자동차의 각 부품에 명령을 내리면, 마치 인간이 두 발로 움직이듯 자동차도 스스로 움직인다.

이처럼 생각과 움직임의 근간은 감각기관을 통해 수집되는 정보다. 인간이 사고하고 행위하는 것도 두 눈으로 활자를 읽고, 귀로 음성을 듣기 때문이다. 때문에 정확한 정보 수집은 매우 중요하다. 수집된 정보가 부정확하면 이후 중추신경계의 판단과 이에 따른 움직임도 잘못될 가능성이 크기 때문이다. 자율주행차가 인간의 도움 없이 스스로 안전하게 운행하기 위해서 고도화된 감지 능력이 필요한 이유다.

자율주행차 핵심 센서…카메라·레이더·라이다

자율주행차의 주변 환경 인식은 크게 카메라와 레이더, 라이다 등을 포함한 3개의 센서에서 시작된다. 인간의 눈, 코, 입, 귀의 역할이 다른 것처럼 각 센서의 전문 분야도 다르다. 우선 카메라 센서는 사람과 사물, 차량 등으로 분류하면서 주변 물체 식별에 사용된다. 다만 어두운 공간이나 악천후 상황에선 확실한 사물 식별이 어렵다. 카메라를 차선 인식 용도로만 이용했던 과거와는 달라진 모습이다. 이스라엘 카메라 알고리즘 업체인 ‘모빌아이’ 정도만 앞차와의 거리나 도달 시간 등을 이용해 운전자보조장치(DAS)를 상용화했다. 최근 들어선 테슬라와 현대모비스 등이 연석이나 자갈, 잔디를 인식하는 카메라 기술 개발에 성공해 양산 중이다. 평면에만 국한됐던 인식 기능이 돌출된 구조물 파악까지 가능해진 셈이다.

원래 군사목적으로 개발됐던 레이더의 경우엔 전자기파를 발사하고 반사돼 돌아오는 신호를 기반으로 주변 사물과의 거리, 속도, 방향 등의 정보를 추출하는 센서다. 또 날씨, 시간과 관계없이 제 성능을 발휘한다. 레이더는 주파수에 따라 단거리부터 중거리, 장거리를 모두 감지할 수 있다는 점에서 현재도 긴급자동제동장치, 스마트 크루즈 컨트롤 등 다양한 첨단운전자보조시스템(ADAS) 기술에 적용되고 있다.

주파수는 긴 파장의 저주파일수록 상대적으로 동일한 출력의 전파를 쏘아도 도달 거리가 길어지는 반면 정확도는 떨어진다. 이런 특성으로 장거리 레이더 센서는 저주파인 77기가헤르츠(㎓) 대역을 사용한다. 보다 명확한 정보가 요구되는 단거리 레이더 센서의 대역폭은 79㎓ 대역을 이용한다. 장거리 레이더는 150~200m 이상까지 확인되지만 화각이 40도 안팎이다. 단거리 레이더의 경우엔 100m 이내 거리를 감지하지만 화각은 100도 이상이다.

라이다는 레이저(빛)를 물체와 주고받으며 3차원 지도를 만들어낸다. 주로 905나노미터(nm)의 짧은 파장을 이용해 레이더보다 공간 분해능력이 훨씬 정밀하다. 또 자체 광원으로 빛이 부족환 환경에서도 성능에 영향을 덜 받는다. 때문에 카메라, 레이더가 감지하지 못하는 환경에서도 활용할 수 있다. 최근에는 출력을 1,550nm까지 높여 훨씬 더 넓은 공간을 인식할 수 있는 기술도 개발됐다. 이는 사람 눈에 흡수되지 않고, 태양광의 간섭현상도 적어 안정성이 뛰어나다.

작동 방식이 사람의 눈과 유사한 라이다는 ‘자율주행차의 눈’으로 불린다. 사람은 왼쪽 눈과 오른쪽 눈 사이의 거리, 왼쪽 눈에서 보이는 물체와 오른쪽 눈에서 보이는 물체의 거리를 계산해서 실제 대상 물체와의 거리를 파악한다. 라이다는 초당 수십 번의 레이저를 주변 사물들과 주고받으면서, 정밀하게 거리 정보를 파악할 수 있다. 이는 자율주행 시스템의 신뢰를 높이는 데 중요한 역할을 한다. 다만 고가인 라이다의 경우, 빛을 이용하는 만큼 악천후 시 정확도가 떨어진다.

자율주행 안전성 대결…”카메라 vs 센서퓨전”

이처럼 자율주행차의 안전하고 정확한 운행엔 각 감각기관들의 특징이 적절하게 발휘돼야 한다. 레이더만으로는 물체의 정확한 식별이 불가하고, 카메라는 혼자서 원근감을 정확히 판별하기에는 아직 한계가 있기 때문에 각자의 부품들이 제 역할에 맞게 기능해야 한다. 이런 다양한 센싱 기술의 연구와 개발은 자동차 업계의 미래 경쟁력 확보에선 필요충분조건이다.

자동차 업계는 이런 기술력을 실제 주행에 완벽히 녹여내기 위해 소프트웨어(SW) 개발에도 주력한다. ‘센서 퓨전’은 각 센서에서 인식된 정보를 하나로 결합, 자율주행이 가능하도록 한 기술이다. 카메라, 레이더, 라이다 등 각 기술의 장·단점을 서로 보완하는 것이다. 최근에는 AI 기술까지 더해지면서 자동차 시스템이 사람 뇌처럼 각 센싱 정보를 융합해 차량 주행 알고리즘까지 설계한다.

일부 업체들은 가격적인 측면에서 센서 퓨전 기술 대신, 하나의 센서만 이용한 자율주행 기술을 개발하고 있다. 미국의 전기차 업체 테슬라가 대표적이다. 일론 머스크 테슬라 최고경영자(CEO)는 라이다의 가격이 비싸고, 소비전력이 크다는 이유로 카메라 센서만 이용한 자율주행차를 만들겠다고 선언했다. 8대의 카메라가 입체적으로 촬영하면 물체의 형태, 거리를 측정해 자율주행이 가능하다는 것. 오히려 레이더는 왜곡된 데이터가 많아 정밀도를 떨어뜨린다는 게 머스크 CEO의 판단이다.

하지만 여전히 대부분 자율주행차는 다양한 센서를 사용하고 있다. 자율주행 선두주자인 구글의 웨이모는 라이다를 중심으로 레이더, 카메라를 함께 사용한다. 볼보는 내년 출시할 차세대 전기차에 카메라, 레이더와 함께 라이다 센서 업체인 루미나 제품을 장착한다. 아우디는 2017년 최초로 A8에 센서업체 발레오의 라이다를 사용했다. 현대자동차도 내년 출시할 제네시스 G90에 2개의 라이다를 탑재할 예정이다.

류종은 기자 [email protected]

0 0 공유 카카오

페이스북

트위터

이메일

URL 기사저장

[기고] 자율주행 기술: (3) 자율주행차를 가능하게 하는 센서 기술

마크 패트릭(Mark Patrick) 마우저 일렉트로닉스(Mouser Electronics) 유럽·중동·아프리카(EMEA. Europe, Middle East, and Africa) 기술 마케팅 매니저

필자, 마크 패트릭(Mark Patrick)은 세계에서 가장 다양한 글로벌 반도체 및 전자부품들을 보유 및 유통기업인 마우저 일렉트로닉스(Mouser Electronics)의 유럽·중동·아프리카(EMEA. Europe, Middle East, and Africa) 기술 마케팅 매니저로 지역 내에서 기술 컨텐츠의 개발과 유통을 담당하고 있다. (연재는 총 5부로 진행된다. 편집자 주)

▷자율주행 기술: 자동차 업계 지형을 바꾸다

▷자동차의 자율주행 주요 단계 정의

▶자율주행차의 주요 기술 1부: 센서

▷자율주행차의 주요 기술 2부: V2V/V2I 통신

▷자율주행의 기본 윤리

자율주행차를 가능하게 하는 센서 기술

자율주행차가 사람들의 삶을 편리하게 하고 현재 도로 상에서 빈번히 발생되고 있는 사고를 줄이기 위해서는 차가 전방뿐만 아니라 주변을 360°로 감지하고 주변에서 어떤 일들이 일어나는지 알 수 있어야 한다.

그러기 위해서는 자동차로 다양한 방식의 센서 메커니즘을 통합해야 한다. 이 중의 어떤 것들은 오늘날 첨단운전자지원시스템(ADAS. Advanced Driver Assistance System)에 이미 사용되고 있으며, 또 어떤 것들은 자율주행차 용으로 새롭게 부상하고 있다.

센서들을 사용하지 않고는 자동차를 자율화하는 것이 가능하지 않을 것이다. 사람이 운전하는 차에서부터 완전한 자율주행차까지 이르는 자율화 6단계에 대해서는 이전 글에서 살펴보았다. 이번 글에서는 자율주행차를 가능하게 하는 센서 기술에 대해서 살펴본다.

센서 메커니즘

자율주행차가 주변을 감지할 수 있도록 하는 기술은 대표적으로 3가지를 들 수 있다. 라이다, 카메라, 레이더이다. 현재 이들 각각의 기술이 각기 다른 개발 단계에 있다.

자율주행차에 사용되는 센서 기술들 비교

이중에서 가장 단순한 기술은 레이더이다. 레이더는 적응식 주행 제어 같은 기능에 이미 사용되고 있다. 자율주행차를 위해서도 레이더가 중요한 역할을 할 수 있다. 특히 주차나 서행 같은 저속 상황을 들 수 있다. 고속도로에서 차선 변경 같이 고속으로 실행되는 기능에도 활용될 수 있다.

최근의 빛에 가까운 성질을 가지고 있으며, 파장이 1~10밀리미터, 주파수가 3만~30만 메가헤르츠(MHz)인 전자기파인 밀리미터파(mmWave) 자동차 레이더 시스템은 단파 전자기파를 사용해서 물체의 거리, 속도, 상대적 각도를 계산할 수 있다. 통상적으로 77기가헤르츠(GHz) 주파수 대역으로 동작하고 매우 작은 움직임까지 구분할 수 있다.

특히, 레이더의 장점은 여러 가지를 들 수 있다. 검증된 기술로서 환경 조건이 변화하는 것에 상관없이 신뢰하게 동작할 수 있다. 하드웨어가 컴팩트하고, 업계에서 확립된 기술로서 규모의 경제를 달성하고 있기 때문에 비교적 가격이 저렴하다.

하지만 근본적인 한계점 또한 존재한다. 이 중에서도 특히 중요한 것이 제공할 수 있는 데이터 양이다. 이러한 이유에서 자율주행차를 위해서는 어느 한 센서 방식에만 의존하는 것이 아니라 일련의 센서들을 결합하는 것이 필요하다.

라이다(Lidar)는 현재 거의 모든 자동차 회사들이 자사 개발 프로그램에 포함시키고 있는 기술로서, 자동차 레이더 시스템을 보완할 수 있다. 레이저 광원으로부터 광 펄스를 방출하면 이 빛이 물체에 부딪혀서 반사된다. 이 각각의 펄스가 출발점으로 되돌아오는 시간을 사용해서 물체까지의 거리를 계산할 수 있다.

이 과정을 초당 수백만 회 반복해서 주변 환경에 대한 실시간 3D 맵을 생성할 수 있다. 그럼으로써 다른 자동차, 도로 인프라, 자전거, 보행자 같은 것들을 식별하고 장애물을 피해서 운전할 수 있다. 다른 센서 방식들과 비교해서 라이다의 가장 큰 장점은 ‘조감도(bird’s eye)’ 뷰를 생성할 수 있으므로 좀더 포괄적인 조망을 제공할 수 있다는 것이다.

포드(Ford)는 이미 이 기술에 집중적으로 투자하고 있다. 이 회사는 현재 진행되고 있는 자율주행차 개발 및 테스트에 벨로다인(Velodyne)의 HDL-64E 라이다 시스템을 사용하고 있으며, 이 시스템을 채택한 첫 모델을 2021년 중으로 출시할 예정이다.

HDL-64E 라이다(사진:밸로다인)

HDL-64E는 64채널 시스템으로서 360° 수평 시야각(FoV)과 26.9° 수직 FoV에 최대 120미터에 이르는 거리를 특징으로 한다. 지원되는 채널 수는 자동차 속도와 관련해서 중요하다. 벨로다인에 따르면, 32채널 시스템을 채택한 차량은 최대 57kph로 자율 주행을 할 수 있는데, 채널 수를 두 배로 늘림으로써 훨씬 더 높은 속도를 지원할 수 있다고 한다.

라이다 보급을 가로막는 가장 큰 걸림돌은 비싼 가격이다. (이 때문에 일론 머스크 같은 업계의 유명 인사가 라이다는 필요 없다고 하는 것이다.) 현재 라이다 시스템은 가격대가 수천 유로에 달하고 있다. 라이다 시스템은 규모가 늘어난다고 해도 여전히 매우 비쌀 것으로 전망된다.

걸림돌은 가격만이 아니다. 라이다는 자동차 주변에 대한 맵을 생성하는 것은 정확하게 할 수 있으나, 도로 표지판 인식 같은 여타 용도로 필요로 하는 세밀성은 제공하지 못한다. 이와 같은 이미지 인식 및 분류 작업을 위해서는 자율주행차로 고선명 카메라 시스템을 사용해야 한다.

이미지:TI

자동차로 전방, 측면, 후방으로 카메라들을 설치하고 화면을 이어 붙여서 주변에 대한 360° 실시간 뷰를 제공할 수 있다. 그럼으로써 사각지대를 최소화하고, 속도 제한이 변경되는 것을 알려주고, 차선을 유지할 수 있다. 필요로 하는 카메라 대수는 시스템의 FoV(최대 120° 가능)와 어안 카메라(초광각 렌즈를 사용해서 파노라마 뷰 제공)를 구현하고자 하는지 등에 따라서 달라질 것이다.

카메라 역시 여느 센서 기술과 마찬가지로 장점과 단점을 모두 따져 보아야 한다. 카메라 시스템은 주변을 세밀하게 구분할 수 있으나, 깊이와 거리가 문제가 될 수 있다. 감지된 물체의 정확한 위치를 이해하기 위해서는 물체까지의 거리를 알아야 한다. 또한 카메라는 시정이 좋지 않은 상황에서 물체를 구분하기가 어려울 수 있다(악천후나 야간 같은 때).

시스템 개발자들이 인지하기 시작한 또 다른 문제는, 센서 시스템이 다른 자율주행차로 영향을 미칠 수 있다는 점이다. 최근에 라이다가 디지털 카메라 시스템 작동을 방해하지 않는지에 관해서 논의가 이루어지고 있다. 만약 그렇다면 자율주행차들이 마주보며 접근할 때 (생명을 위협할 수도 있는) 심각한 문제가 될 수 있다.

미래의 자율주행차로 센서들을 어떻게 결합할지에 대해서 현재 많은 연구가 활발하게 진행되고 있다. 한 가지 확실한 것은, 다양한 방식들(레이더, 이미지 센싱, 라이다 등)을 조합함으로써 각각의 장단점을 보완할 수 있다는 것이다. 다양한 센서들을 결합해서 자율주행차에 필요로 하는 다양한 기능을 구현하면서 또한 자율주행차를 위험하지 않게 만들기 위해서 필요로 하는 중복성을 달성할 수 있다.

다음은 ‘자율주행차의 주요 기술 2부: V2V/V2I 통신’ 시리즈가 이어집니다.

인간보다 ‘1000배’ 안전하다고?…’자율주행차’ 센서에 숨겨진 비밀

▲인텔·모빌아이 CES 2021 프레스 콘퍼런스 영상 (사진=CES 2021 홈페이지 캡처)

▲콘티넨탈 CES 2021 프레스 콘퍼런스 영상 (사진=CES 2021 홈페이지 캡처)

11일 미국에서 온라인으로 개막된 세계 최대 가전·IT 박람회 ‘CES 2021’에서는 한층 진보된 자율주행 기술들이 선보였다.인텔 자회사이자 자율주행기술 전문업체 모빌아이는 운전자없이 완전자율주행이 가능한 ‘로보택시’ 서비스를 내년에 선보이겠다고 밝혔다. 또 모빌아이는 카메라 센서를 이용해 인간보다 1000배 이상 안전하게 운전하는 자율주행 자동차를 미국 등 주요 4개국에서 올초에 시범주행하겠다고 했다.자동차 부품업체 콘티넬탈은 이날 최초의 4차원(4D) 영상레이더 ‘ARS 540’을 공개했다. 기존 시스템은 범위, 속도, 방위각에 대한 정보만 취합했지만 ‘ARS 540’은 범위, 속도, 방위각은 물론이고 사물의 고도와 위치까지 계산해 최대 300m 반경의 주변환경에 대한 지도정보까지 생성할 수 있다.이처럼 자율주행자동차는 우리의 일상으로 성큼 다가왔다. 모빌아이는 자율주행차가 사람보다 1000배 안전하다고 장담하는데 과연 그럴까. 자율주행자동차는 어떤 원리로 자동차가 스스로 운전할 수 있는 것인지 그 궁금증을 하나씩 풀어봤다.우선 자동차가 스스로 운전하려면 3가지 요소가 필요하다. △주변상황 정보를 수집하는 센서 △센서를 통해 수집된 정보를 처리해서 차량을 움직이는 소프트웨어 △자율주행차의 정보수집에 도움을 주는 도로 인프라가 바로 그것이다.자율주행 차량에는 반드시 ‘초음파, 레이더, 라이다 그리고 카메라’ 등 4가지 센서가 탑재돼 있어야 한다. 이 센서들은 자율주행차의 눈 역할을 한다. 이 센서들은 자동차 주변의 다양한 정보를 수집해 내부 컴퓨터로 전송한다.

□ 초음파(Ultrasonic)

가장 먼저 기본이 되는 센서라고 할 수 있는 초음파센서가 있다. 초음파센서의 원리는 간단하다. 산 정상에 올라가 큰소리로 소리를 질러본 경험이 있을 것이다. 이때 내질렀던 소리는 잠시 후 되돌아온다.

같은 원리로 초음파센서는 전기신호를 통해 초음파를 내보낸다. 발사된 초음파는 물체까지 갔다가 튕겨나와 다시 센서로 돌아오게 된다. 이때 걸린 시간을 거리로 계산한다. 주차 중 물체와 가까워지면 ‘삐비빅’ 경고음이 나는 것도 초음파센서를 이용한 것이다.

□ 레이더(Radio Detection And Ranging)

레이더센서는 앞에 나온 초음파와 비슷하지만 초음파가 아닌 라디오웨이브 파장을 이용한다. 그래서 더 멀리가고 더 정확하다. 이 파장의 크기는 건물 크기 정도이며, 포인트까지의 거리를 측정하는데 굉장이 유용하다.

또한 물체와의 거리를 측정하고 돌아온 전파의 위치를 반복적으로 측정해 고정된 물체인지 움직이는 물체인지 파악한다. 움직인다면 그 물체의 이동속도까지 파악할 수 있다. 하지만 레이더는 정지해 있는 물체를 인식하지 못한다.

□ 라이다(LIght Detection And Ranging)

레이더가 파장을 이용한다면, 라이다센서는 빛을 이용해 범위를 탐색한다. 직진성이 강한 고출력 레이저를 발사해 주변 범위를 3D로 구현해낼 수 있다. 강력한 직진성 덕에 레이더센서와 비교했을 때 오차가 적고 더 정확한 이미지를 얻을 수 있다. 하지만 빛을 이용하다보니 악천후에서는 레이더보다 기능이 조금 떨어진다.

□ 카메라(Camera)

앞서 나온 센서들은 물체의 위치와 이동방향, 이동속도 등을 측정할 수 있지만 도로주행에서 꼭 필요한 신호등은 인식할 수 없다. 그래서 필요한 것이 카메라센서다. 카메라센서를 통해 촬영된 이미지를 분석해 주변의 물체가 무엇인지, 신호는 어떤 색인지 등을 파악할 수 있다.

▲(이미지=모션엘리먼츠)

◆ 머리 역할을 하는 ‘딥러닝 소프트웨어’

다음으로는 수집된 정보를 처리해서 인지·판단·제어를 담당하는 ‘딥러닝 소프트웨어(SW)’가 있다. 센서가 자동차의 눈이라면, 딥러닝 소프트웨어는 자동차의 머리라고 보면 된다. 아무리 주변환경을 완벽하게 수집하더라도 이를 처리해줄 소프트웨어가 없으면 자동차는 앞으로 나갈 수 없다.

소프트웨어는 주행 중 발생하는 수많은 상황과 변화하는 환경을 센서를 통해 전달받고 이에 적절하게 반응하기 위해 끊임없이 학습한다. 또한 섬세하고 정확한 위치정보를 파악하기 위해 차량 바퀴의 회전속도, 핸들의 각도, 차량의 속도 등을 수집해 자동차의 위치를 좀 더 정확하게 인지할 수 있다.

하지만 한국전자통신연구원(ETRI)은 소프트웨어 이외에 다른 기술들도 함께 개발되어야 한다고 강조했다. 한국전자통신연구원 자율주행지능연구실 민경욱 실장은 “만약 레벨5의 딥러닝 소프트웨어가 개발되더라도 일반 PC를 차량 뒤에 달고 갈 수 없으므로 소프트웨어를 탑재할 수 있는 초소형 컴퓨터를 만드는 기술과 이를 안정적으로 서비스할 수 있는 차량개발이 뒷받침돼야 한다”고 말했다.

▲국토교통부가 제작한 실제 사용되는 ‘정밀도로지도’

◆ 내비게이션 역할을 하는 ‘도로 인프라’

마지막으로 자율주행차를 위한 ‘도로 인프라’가 필요하다.

2016년 미국에서 자율주행차 사망사고가 발생했다. 미국 고속도로안전국(NHTSA)은 사고원인에 대해 “사고 당시 밝게 빛나는 하늘로 인해 차량의 자동주행센서가 트럭의 흰색 면을 미처 구분하지 못해 브레이크가 작동되지 않았던 것으로 보인다”고 밝혔다.

이처럼 아무리 성능이 좋은 센서도 모든 정보를 정확하게 수집하기 힘들다. 폭설로 인해 보이지 않는 차선이 있을 수도 있고, 무성하게 자란 나무에 가린 신호등이 있을 수 있다. 또 기계적인 오작동이 생길 수도 있다.

이런 상황을 대비하는 데 필요한 것이 바로 ‘도로 인프라’다. 그중 정밀도로지도가 있다. 국토교통부는 “정밀도로지도는 자동차의 눈(센서)을 보완하는 데 꼭 필요한 중요한 인프라”라고 말했다. 이어 “현재 고속국도에 대해서는 제작이 완료됐고 2022년까지 전국 일반도로 약 1만4000km의 정밀도로 구축을 완료할 계획”이라고 밝혔다.

정밀도로지도는 자율주행차를 위한 새로운 내비게이션 지도라고 할 수 있다. 지금 현재 이용하는 내비게이션은 차량의 진행방향만 알려주지만 정밀도로지도는 도로의 차선 개수, 거리, 신호등 위치 등 도로 전반에 대한 정보들이 정밀하게 담겨있다.

다음으로는 양방향 지능형 교통정보 공유시스템(C-ITS)이 있다. C-ITS는 일방적으로 정보를 제공하는 지능형 교통체계(ITS)와 다르게 양방향으로 교통정보를 실시간 교환한다. C-ITS의 주요 서비스는 △위치기반 차량 데이터를 수집 △도로 위험구간 정보를 제공 △보행자를 감지해 차량에 제공 △도로 노면·기상정보 수집 등이 있다.

이를 통해 차량과 끊임없이 상호통신하며 교통정보를 교환 및 공유하므로 자율주행차는 사고에 대해 더욱 신속하고 능동적인 대응이 가능하다.

국제자동차공학회(SAE)에서는 자율주행차는 제공하는 기술수준에 따라 ‘레벨0~레벨5’까지 총 6단계로 분류하고 있다.

◇자율주행차의 기술 5단계 레벨0

(비자동화) 운전자가 전적으로 차량 제어를 수행 레벨1

(운전자 보조) 운전자가 동적 주행에 대한 모든 기능을 수행하고, 특정 주행 모드에서 조향

또는 감, 가속 지원시스템 중 하나만 실행 레벨2

(부분 자동화) 특정 주행 모드에서 조향 및 감, 가속 모두 실행되지만 운전자가 적절하게 자동차를

제어해야 하며, 그에 따른 책임도 운전자가 부담 레벨3

(조건부 자동화) 특정 주행모드에서 시스템이 차량 제어를 전부 수행하며 운전자는

시스템 개입 요청 시 적절한 제어 필요 레벨4

(고도 자동화) 특정 주행모드에서 시스템이 차량제어를 전부 수행하며 운전자 개입 불필요 레벨 5

(완전 자동화) 주행 상황에서 시스템이 차량의 모든 제어를 수행

현재 대부분의 글로벌 자동차업체들의 자율주행 기술력은 레벨3 수준이지만, 완전자동화된 자율주행차가 도로에 등장할 날이 머지 않았다. 미국 비영리단체 에너지시스템스네트워크(ESN)와 자동차 경주서킷 인디애나폴리스 모터 스피드웨이는 11일(현지시간) ‘CES 2021’에서 자율주행 레이싱대회 ‘인디 자율주행 챌린지'(IAC)를 오는 10월 23일 개최한다고 발표했다.

이 대회는 경주차량이 가장 빨리 결승선을 넘도록 하는 소프트웨어를 개발하도록 독려하기 위해 열리는 것이다. 초고속으로 달리는 차량이 예기치 못한 장애물을 만나는 극한의 시나리오에서 이를 얼마나 잘 모면하느냐가 대회의 관건이 될 전망이다. 주최 측은 이번 행사가 완전 자율주행 기술이 탑재된 자동차와 ‘첨단운전자 지원시스템'(ADAS)의 상업화에 속도를 내도록 하기 위한 것이라고 밝혔다.

우리나라도 레벨3 소프트웨어 기술을 보유하고 있다. 한국전자통신연구원은 “자율주행을 위한 인지·판단·제어를 담당하는 소프트웨어 기술은 레벨3 수준”이라며 “사용시기는 정확하진 않지만 올해 제주와 상암 등에서 진행될 것”이라고 했다.

한편 정부는 지난해 7월 세계 최초로 레벨3 안전기준을 제정, 자율주행차 출시와 판매가 가능하도록 했다.

김현호 기자 khh@

[車블랙박스]카메라부터 초음파까지…안전한 자율주행, 4개 센서에 달렸다

[인천=뉴시스] 정일형 기자 = ‘가평 용소계곡 남편 살인사건’ 용의자 이은해(왼쪽)와 공범 조현수. (사진은 인천지방검찰청 제공)

[인천=뉴시스] 이루비 기자 = ‘계곡 살인사건’ 피고인 이은해(31)·조현수(30)씨의 재판에 증인으로 나온 피해자 윤모(사망 당시 39세)씨의 유족이 법정에서 오열하며 피고인들의 엄벌을 촉구했다.

22일 인천지법 형사15부(재판장 이규훈)는 살인 및 살인미수, 보험사기방지특별법 위반 미수 혐의 등으로 구속기소된 이은해씨와 조현수씨의 15차 공판을 진행했다.

이날 검찰은 피해자 윤모씨의 친누나인 A씨 등을 증인으로 불러 신문했다.

A씨는 “지난 2019년 6월30일 동생을 보낸 뒤 지금까지도 이은해로부터 어떠한 설명이나 사과도 듣지 못했다”면서 “저 여자(이은해)를 엄히 다스려서 유족의 억울함을 풀어달라”고 재판부에 호소했다.

그러면서 “제 동생이 왜 계곡에서 뛰어내려야만 했는지, 왜 빈곤하게 살아야만 했는지 저희는 아직도 알지 못한다”며 오열했다.

아울러 A씨는 “지난 2007년 가족끼리 대관령 계곡으로 여행 갔을 때도 동생은 ‘나 물 무서워하는 것 알잖아’라면서 물에 들어가지 않았다”고 회상했다. 이어 “수영을 못하는 제 동생이 절대 계곡에서 ‘자의적으로’ 뛰어내리지는 않았을 것”이라고 강조했다.

이후 반대신문에 나선 이씨·조씨 측 변호인은 A씨에게 “동생 윤씨가 수영을 못하고 물을 싫어하는데 왜 대관령 계곡에서 물놀이를 권유했냐”며 “모순 아니냐”고 지적했다. 그러자 A씨는 “모순이 아니라 발이라도 담그라고 한 것”이라고 반박했다.

또 변호인은 “윤씨가 보트 타는 것을 즐겼다는데 그게 겁 많고 조심스러운 성격이냐”고 물었다. 이에 A씨는 “변호사님!”이라며 분노했고, 변호인은 “질문에 대답만 해달라”며 선을 그었다.

이어 A씨는 “일반적으로 해외여행에 나가면 패키지에 그런 활동이 포함돼 있고, 가이드에게 의지해 그런 놀이를 즐기도 한다”면서 “저도 그런 활동을 좋아하지 않지만 해외에 나가면 한번쯤은 즐기는데 이걸 일반화하지 말라”고 불쾌함을 드러냈다.

이 밖에도 변호인은 “윤씨의 장례식을 치르는 동안 이은해가 유족들과 어울리거나 슬픔을 나누지 않았다는데, 증언에 모순이 있다”며 “이은해가 평소 시댁과 교류가 많지 않았으면 어색해서 그럴 수 있는 것 아니냐”고 의문을 제기했다.

이에 대해 A씨는 “말이 안 되는데요, 변호사님”이라며 황당해했고, 변호인은 “왜 말이 안 되냐”고 되물었다.

A씨는 “가족이라면 최소한 그런(유족끼리 슬픔을 나누는) 모습을 보여야 한다”면서 “교류가 많고 적었던 것을 떠나 이은해는 친구 2명을 데리고 와 그들과 내내 붙어 있었다”고 진술했다.

마지막으로 변호인은 A씨에게 윤씨의 성격 등에 대해 “소심, 소극적이거나 낯을 가리는지”, “자존심이 센지” 물었다. A씨는 “동생이 내성적이긴 해도 사람을 멀리하는 성격은 아니다”면서 “자존심이 센 것도 아니다”고 답했다.

이를 들은 변호인은 “윤씨의 친구들 증언이랑 다르네요”라며 사족을 붙였고, 재판장은 “그런 말은 굳이 하지 말고, 증인에게 질문만 하라”고 경고했다.

이씨와 조씨의 결심공판은 23일 오후 2시에 같은 법정에서 열릴 예정이다.

[인천=뉴시스] 이영환 기자 = ‘계곡살인’ 사건의 피의자 이은해(왼쪽)·조현수씨가 19일 오후 구속 전 피의자 심문(영장실질심사)을 받기 위해 인천시 미추홀구 인천지방법원으로 들어서고 있다. 2022.04.19. [email protected]

이씨 등은 지난 2019년 6월30일 오후 8시24분 경기 가평군 용소계곡에서 수영을 못하는 이씨의 남편 윤모씨에게 다이빙을 강요해 물에 빠져 숨지게 한 혐의로 기소됐다.

이들 피고인은 앞서 2019년 2월 강원 양양군 펜션에서 윤씨에게 독이 든 복어 정소와 피 등을 섞은 음식을 먹이거나, 3개월 후인 같은 해 5월 경기 용인시 소재의 한 낚시터에 윤씨를 빠뜨려 살해하려 한 혐의 등도 받고 있다.

검찰은 이들이 보험금 8억원을 노리고 범행을 한 것으로 보고 있다.

아울러 이씨와 조씨는 검찰의 2차 조사를 앞둔 지난해 12월14일께 잠적한 뒤 4개월 만인 지난 4월16일 경기 고양시 덕양구 3호선 삼송역 인근 오피스텔에서 경찰에 검거됐다.

◎공감언론 뉴시스 [email protected]

자율주행 자동차에는 ‘센서’ 기술이 중요

카메라, 레이다, 라이다, 초음파 등이 핵심 역할

지난 3월27일부터 4월7일까지 열린 ‘2019 서울모터쇼’에 마련된 전자부품연구원의 부스. 여기에는 자율주행을 기반으로 운행되는 셔틀버스에 어떤 센서들이 필요한지 설명하는 영상이 있었다. 이 영상의 내용은 자율주행 자동차에서 센서가 얼마나 중요한지를 강조하는 것이었다.

자율주행 자동차는 사람이 아닌 자동차가 운전에 필요한 의사결정을 내려야 하기 때문에 자동차 주변에 존재하는 각종 정보를 수집하는 것이 중요하다. 이 정보를 바탕으로 자동차는 자체적인 판단을 내려 스스로 운행을 하게 된다.

자율주행 자동차에서 센서는 주변의 정보를 수집하는 역할을 하게 된다. 센서는 인간의 시각·청각 등을 대체하는 기술로, 차량 내부에 장착되는 각종 카메라, 레이다, 라이다, 초음파 등이 차량에 장착되는 센서의 종류들이다.

차량 내부에 장착되는 센서들은 광학 기반의 센서와 비광학 기반의 센서로 구분된다. 광학 기반의 센서는 지형지물과 거리를 인식하는데 주로 사용되며, 그 종류로는 카메라와 레이저 스캐너(라이다, LiDAR) 등이 있다. 그리고 비광학 기반의 센서는 거리측정에 많이 사용되는데, 레이더(Radar)와 초음파가 이에 해당된다.

업계에 따르면 현재의 고급 자동차에는 2개~5개 정도의 카메라가 장착되고 있다. 그러나 자율주행 자동차에는 10개 이상의 카메라가 필요할 것이라는 게 일반적인 견해이다.

저작권자 © MSD(Motion System Design) 무단전재 및 재배포 금지

완전한 자율주행을 위한 도전, 카메라와 라이다

완전한 자율주행을 위한 도전,

카메라와 라이다

1993년 6월, 차 운전석에 앉은 한민홍 고려대 교수는 잠을 제대로 못 잔 기색이 역력하다. 사고라도 나면 어쩌나 걱정한 탓이다. 그럴만한 이유가 있었다. 겉모습은 당시 아시아자동차에서 만든 ‘록스타’로 흔히 볼 수 있는 차량이었지만, 한 교수는 여기에 자율주행 기능을 넣었다. 세계 최초였다. 전례가 없는 기술이었기에 공공도로에서 첫 시험주행을 앞두고 극도에 긴장감에 시달린 것도 당연하다.

그림 1. 한민홍 교수가 제작한 자율주행차. 현재는 고려대학교에 전시되어 있다. © 고려대학교

주행은 성공이었다. 자동차 전용도로에 올라서 자율주행모드를 켜자, 차량은 스스로 차선을 지키고 앞차와 거리를 유지했다. 2년 후에는 경부고속도로로 서울에서 천안까지 110km 구간을 자율주행하는 데 성공했다.

한 교수가 국제 학회에서 이 성과를 발표하자 독일의 벤츠와 폴크스바겐이 기술을 배우러 찾아올 만큼 관심을 보였다고 한다. 그러나 우리 손으로 만든 세계 최초의 자율주행 기술은 정부의 산업기술 지원 프로젝트에서 탈락하면서 산업으로 연결되지 못했다. 자율주행이 자동차산업의 총아처럼 여겨지는 지금을 생각하면 무척이나 아쉬운 일이다.

운전자의 지각을 모방하다-카메라

한 교수가 적용한 방법은 시각인지 기술이었다. 그가 이용한 장비는 도로의 상황을 인지하는 3대의 카메라와 광센서, 그리고 주행을 제어하는 386급 컴퓨터가 전부였다. 카메라는 차선과 앞의 장애물을 인식해서 이 정보를 컴퓨터로 보낸다. 컴퓨터는 이미지를 분석해 조향장치와 페달을 제어한다. 아주 단순하다. 차선이 휘어져 있으면 휘어진 만큼 조향장치를 조작하고, 앞의 장애물과 거리가 가까워지면 감속페달을 작동한다. 앞쪽 15m 이내에 차가 없으면 미리 입력한 속도에 도달할 때까지 가속한다. 보고 판단하고 조작하는, 별다른 장애물이 없는 한적한 길에서 운전자가 하는 행동과 유사하다.

한 교수의 방법론은 자율주행 기술이 상당한 수준으로 발전한 지금도 여전히 유효하다. 자율주행하려면 5가지 종류의 기술을 조합해야 한다. 환경인식, 위치인식 및 맵핑, 판단, 제어, 인터랙션이다.

여기서 가장 중요한 단계는 환경인식이다. 주변 환경을 인식해야 판단에 정보를 수집할 수 있기 때문이다. 문제는 자동차가 주변 환경을 어떻게 인식하느냐다. 열쇠는 운전자에게 있다. 운전자는 운전 중 끊임없이 외부 환경을 관찰하고 판단한다. 예외적인 경우를 제외하고는 운전자는 오직 시각에만 의존해 관찰한다. 시각정보만으로도 운전에 필요한 판단을 하는 데는 무리가 없는 셈이다.

그림 2. 테슬라 오토파일럿의 작동화면. 카메라에 비친 정보를 딥러닝 시스템이 분석해서 화면 속 개체를 실시간으로 분류해 추적한다. © Tesla

한 교수가 카메라를 이용한 이유도 시각정보가 운전에 필요한 유일한 정보라는 판단에서였다. 시각정보가 입체적이지 않아 거리를 판별하기 어렵다는 문제는 카메라를 추가해서 양안시의 원리를 적용함으로써 해결했다. 두 대의 카메라를 이용해 피사체와의 거리를 판단해 자동차 주변의 상황을 3차원적으로 인식한다. 한 교수가 자율운행을 선보인 이래, 자율주행기술에는 카메라를 이용한 시각정보가 반드시 들어갔다. 현재 자율주행 기술 상용화의 선두주자인 테슬라 역시 카메라를 이용한 시각정보를 기반으로 자율주행을 구현한다.

운전자의 기억을 모방하다-라이다

정보량이 많은 도심 운전에서는 한눈팔지 않더라도 판단이 조금만 늦으면 사고로 이어지곤 한다. 그러나 운전자의 운전 경험이 쌓일수록 판단에 필요한 정보가 점점 풍부해져서 더 쉽고 정확하게 예측할 수 있다.

그림 3. 자율주행차에는 다양한 센서와 카메라가 활용된다. 각각은 상호 보완적인 기능을 한다. © 현대자동차

자율주행차가 도심에서도 제대로 작동하려면 운전자들의 이러한 판단을 모방해야 한다. 기계가 사람을 흉내내려면 보이지 않는 정보, 사람이라면 직접 눈으로 보지 않아도 암묵적으로 아는 정보가 필요하다.

여기에 활용된 기술이 바로 라이다(Lidar)와 고해상도지도(HDMap)다. 두 기술은 카메라만으로는 얻을 수 없는 차량 주변의 상황을 컴퓨터에 전달한다. 라이다는 빛(Light)과 레이더(Radar)의 합성어다. 레이더는 전파가 물체에 반사돼 돌아온 시간과 방향을 이용해 물체의 위치를 실시간으로 알아내는 기술이다. 레이더는 눈으로 보이지 않을 만큼 멀리 떨어질 큰 물체를 찾을 목적으로 개발됐다. 해상도는 낮지만 적은 에너지로도 멀리까지 뻗어나가는 전파의 성질을 이용했다. 전파나 가시광선이나 파장만 다를 뿐 모두 전자기파이므로 레이더 시스템에 가시광선을 활용할 수도 있다. 가시광선은 생성하는 데 전파보다 큰 에너지가 필요하고 멀리까지 전달하기 어렵지만, 파장이 짧아서 정확성과 해상도가 매우 높다. 물체의 단면을 한층씩 스캔하는 주사식 라이더의 경우, 고성능 제품은 0.001mm 정도, 상업용으로 널리 사용되는 제품은 1mm 정도의 정밀도를 보여준다. 짧은 시간 단위로 일정 면적을 인식하는 섬광식 라이더는 이보다 정밀도가 낮지만 인식시간이 빠르다.

그림 4. 라이다는 주변의 사물을 인식해 객체를 지정하고 각각을 레이블링한다. 객체 데이터는 학습을 통해 습득하고 갱신된다. © Popular Science

라이더를 차량에 장착하면 주행하는 동안 내내 실시간으로 주위 사물을 3차원으로 인식할 수 있다. 영상 정보를 분석할 필요 없이 사물의 움직임을 개별적으로 확인하고 추적할 수 있으므로 카메라만 이용할 때보다 훨씬 빠르게 정확한 상황 인식이 가능하다. 이렇게 수집된 정보는 차량 주변 상황을 가상공간에 그대로 복제한 디지털 트윈인 ‘입체 지도’를 만들어낸다.

그림 5. 라이다는 이처럼 빛의 점으로 이루어진 세계를 가상공간에 구현한다. 각 점으로부터 빛이 돌아오는 데 걸린 시간과 방향이 3차원 공간상의 좌표를 표현하기에 완벽한 3D 지도를 만들 수 있다. © 현대자동차

라이더의 정보는 빛이 사물에 부딪혀 되돌아온 수백만 개의 ‘점’의 집합이다. 각각의 점은 반사되어 되돌아온 곳이 차량의 라이더 장치로부터 어느 정도 거리에 있는지에 대한 정보를 담고 있다. 수백만 개가 넘는 점 정보가 모이면 3차원 공간 좌표의 모임이 만들어져서 주변 상황을 3차원 영상으로 표현한다. 이렇게 만들어진 영상에서 운전에 필요한 정보를 각각의 객체로 추출하고 객체의 속성값을 자동차의 데이터베이스 포맷으로 변환하면 입체 지도가 만들어진다. 이를 cm 단위의 정밀도를 갖춘 고해상도 3D 지도와 대조하면 차량의 정확한 위치와 주행에 필요한 주변 정보를 충실하게 얻을 수 있다.

그림 6. 라이다 정보를 수집해 만든 HDMap. 일반적인 지도와 달리 1:1 축적의 가상공간이다. HDMap은 현실 도로의 디지털 트윈이라고 할 수 있다. © Deepmap

이러한 장점 때문에 라이다는 자율주행차의 필수품으로 자리잡았다. 시험용 자율주행차량의 지붕 위에는 원반 모양의 장치가 있는데, 이것이 바로 라이다다. 구글의 자율주행 스타트업인 웨이모를 비롯하여 많은 기업은 라이다와 HDMap을 활용해 카메라의 시각정보를 보조 수단으로 활용한다. 라이다와 같은 기술이 있다면 차량을 둘러싼 360도 3차원 지도가 시각으로 얻은 정보보다 훨씬 정확하고 풍부한 정보를 제공할 것이다. 이러한 판단에 따라 현대자동차나 아우디, GM과 같은 상용차 기업도 라이다 시스템에 기반하여 자율주행 기술을 개발하고 있다.

마지막 남은 과제, 데이터

카메라와 라이다, 여기에 근접한 물체를 인식하는 초음파 센서와 중거리 레이더를 조합하면 자율주행차가 제대로 작동하는 데 필요한 데이터를 촘촘하게 수집할 수 있다. 여기에 더해 무선 네트워크 기술이 발전하면서 실시간 원격 컴퓨팅이 가능해지자 자율주행기술이 상용화에 근접한 수준으로 발전했다. 차량에는 운전자와 상호작용하고 주어진 정보를 바탕으로 순간적인 판단을 하는 데 적합한 수준의 인공지능 칩만 탑재하고 심층 분석, 규칙 생성에 필요한 복잡한 계산은 원격지의 고성능 서버에서 수행하는 방식이다. 개별 차량이 매 순간 수집한 방대한 정보는 실시간으로 원격지에 수집되며, 딥러닝 기술을 바탕으로 지도와 알고리즘을 개선하는 데 활용된다.

그러나 현시점에서 자율주행 기술을 가장 활발하게 상용화하는 테슬라는 라이다를 배제한 채 자율주행기술을 개발하고 있다. 테슬라의 CEO 일론 머스크가 보기에 라이다 시스템은 아무리 가격을 낮춘다고 하더라도 카메라보다는 비싸고, 초당 10회 이상 회전하면서 주변을 스캔해야 하기에 고장 가능성이 높을뿐 아니라, 레이더처럼 가까운 자동차에서 내보낸 신호끼리 간섭할 위험이 있다. 이러한 문제점으로 인해 머스크는 라이다 기반으로 자율주행 기술을 개발하는 회사는 실패할 수밖에 없다는 단언마저 한 바 있다.

그림 7. 웨이모는 미국 애리조나주 피닉스 인근에서 거의 완전한 형태의 자율주행을 선보이고 있다. 사용자가 호출하면 자율주행차가 집까지 찾아오고, 목적지를 입력하면 알아서 주행하는 방식이다. 사용자는 문제가 있을 때만 자율주행기능을 정지하면 된다. © Waymo

현재 테슬라의 자율주행은 운전자의 적극적인 개입이 필요하다. 사실상 자율주행이라기보다 주행보조에 가깝다. 이에 비해 자율주행차 기업 중 가장 앞선 웨이모는 제한된 지역에서긴 하지만 거의 완전한 형태의 자율주행 서비스를 선보였다. 테슬라의 자율주행은 운전자가 필요할 때 켠다는 개념이지만 웨이모의 자율주행은 항상 켜두었다가 문제가 있을 때 잠시 멈춘다는 개념이다.

그러나 라이다 시스템은 3D 지도 제작과 센서에 많은 비용이 필요해 상용차로 판매하는 것은 아직 어렵다. 자율주행차가 사고를 냈을 때 책임 소재도 여전히 논란거리다. 이 때문에 라이다를 선택한 기업들은 특정 지역에서만 공유모빌리티 형태로 서비스를 제공하고 있으며, 완성차 업계에서는 고급 모델에만 제한적으로 자율주행기술을 적용한다. 현재의 자율주행 기술의 완성도를 높이는 데 가장 중요한 것이 실제 도로에 대한 데이터 축적인데, 이처럼 실제 주행하는 차량이 적어서는 시스템 개선도 지연될 수밖에 없다.

그러나 테슬라는 사정이 다르다. 테슬라는 2020년 기준 120만 대에 달하는 판매 차량으로부터 48억km에 달하는 실제 도로 데이터를 축적했고 2021년 말까지 64억km의 데이터를 축적할 예정이다. 웨이모는 1,000여 대의 자동차를 운행하여 3,200만km의 실제 도로 데이터를 축적했을 뿐이다. 그나마도 웨이모 본사가 있는 애리조나주 피닉스 근처 지역이 대부분이다. 물론 웨이모는 160억km에 달하는 시뮬레이션 데이터도 보유했지만, 테슬라가 고객들의 실제 주행으로부터 수집한 정보에 비하면 유용성에서 차이가 크다.

이는 기술의 차이보다는 전략의 차이다. 테슬라는 차량에 불완전한 상태의 자율주행 기능을 장착해 판매하고 운전자가 직접 제한적인 상황에서만 자율주행 기능을 사용하게 했다. 데이터가 축적되어 자율주행 기능의 성능이 높아지면 소프트웨어 업데이트를 통해 자율주행 기능을 개방하거나 판매하는 식이다. 이러한 전략의 차이로 테슬라는 일찍부터 실제 주행 정보를 방대하게 수집했으며 제한된 환경에서 예측하기 어려운 수많은 예외적인 상황에 대한 데이터를 얻었다. 이처럼 크라우드소싱으로 수집된 방대한 데이터는 딥러닝을 통해 자율주행기능을 더 개선하는 데 활용된다.

그림 8. 보행자만 해도 엄청나게 많은 형태로 도로에 나타날 수 있다. 이처럼 다양한 형태를 보행자로 순간적으로 판단하려면 방대한 데이터를 통한 학습이 필요하다. © Dassault

자율주행기술이 목표로 하는 인간 운전자보다 안전한 수준을 달성하려면 지금까지보다 훨씬 많은 데이터가 필요할 것이다. 단 하루만에 웨이모가 현재까지 주행한 거리의 데이터를 얻을 수 있는 테슬라는 출발은 늦었지만 웨이모에 비해 유리한 위치에 있는 셈이다. 실제로 테슬라는 2021년까지 완전한 자율주행 기능을 선보이겠다고 발표한 바 있다.

머스크의 자신감은 현재의 발전된 카메라 기술만 사용하고도 완전자율주행에 필요한 데이터를 충분히 얻을 수 있었다는 경험에 기반한다. 라이다에 비해 카메라는 훨씬 저렴하고 기술적 완성도가 높아 오작동의 여지가 별로 없다. 따라서 라이다를 배제하고 카메라만 갖춘 제품을 빠르게 보급함으로써 데이터를 확보하고, 이를 통해 자율주행 인공지능을 개선한다는 것이 테슬라의 전략이다.

물론 웨이모의 전략도 이유가 있다. 자율주행차가 보편화되면 사람들은 값비싼 차량을 구매하기보다 필요할 때마다 호출해 사용하려 할 것이다. 차량 공유서비스가 확대되어 운전이 중산층의 취미 정도로 남을지도 모른다고 예측하는 전문가도 있다. 이런 환경에서는 수많은 구매자가 적당한 수준의 실제 주행 데이터를 보내 데이터를 축적하는 방식으로는 자율주행 서비스를 유지하고 개선하기는 쉽지 않을 것이다. 특정 지역에 대해 정교한 데이터를 집중적으로 빠르게 얻으려면 라이다를 이용한 3D 지도가 훨신 유용할 수 있다.

자율주행 기술은 아직 완성되지 않았다. 각종 사회적, 윤리적 문제가 해결되기까지도 얼마나 걸릴지 알 수 없는 상황이다. 테슬라의 데이터 축적이 빠르다고는 하지만, 웨이모의 기술적 완성도가 높게 평가받는 것도 사실이다. 머스크의 말처럼 라이다가 불필요한 장비인지, 아니면 많은 기업이 선택한 라이다가 느리더라도 확실한 방법인지는 시간만이 평가해줄 것이다.

글/ 김택원

과학칼럼니스트

과학사를 전공하고 동아사이언스의 기자, 편집자로 활동했다. 현재는 동아사이언스의 고경력 과학기자들이 의기투합해 독립한 동아에스앤씨의 커뮤니케이션 담당 부장으로 근무하고 있다.

키워드에 대한 정보 자율 주행 자동차 센서

다음은 Bing에서 자율 주행 자동차 센서 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

See also  해상 펜션 가격 | [다리Tv] 대박!! 여긴 뭐지?! 모든 어종이 다나오는 해상펜션!!! 빠른 답변
See also  Ordenador Portátil Elite Plus Opiniones | Hp Elite Dragonfly Max Review - Premium 2-In-1 Laptop 답을 믿으세요

See also  Vacaciones Costa Brava Todo Incluido | 🌍 10 Consejos / Tips Para Viajar A Girona Capital, Provincia Y Costa Brava | España | Guía De Viaje 180 개의 정답

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 [다큐S프라임] 자율주행의 눈, 라이다 / YTN 사이언스

  • 다큐멘터리
  • 라이다
  • 라이다 기술
  • 가상현실
  • 자율주행
  • 자율주행 자동차
  • 4차산업혁명
  • 스마트시티
  • 메타버스
  • 라이다 센서
[다큐S프라임] #자율주행의 #눈, #라이다 # #/ #YTN #사이언스


YouTube에서 자율 주행 자동차 센서 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 [다큐S프라임] 자율주행의 눈, 라이다 / YTN 사이언스 | 자율 주행 자동차 센서, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

Leave a Comment