자율 주행 Ai | 인공지능의 학습방법은 무엇일까? 168 개의 베스트 답변

당신은 주제를 찾고 있습니까 “자율 주행 ai – 인공지능의 학습방법은 무엇일까?“? 다음 카테고리의 웹사이트 th.taphoamini.com 에서 귀하의 모든 질문에 답변해 드립니다: th.taphoamini.com/wiki. 바로 아래에서 답을 찾을 수 있습니다. 작성자 EBS 컬렉션 – 사이언스 이(가) 작성한 기사에는 조회수 7,531회 및 좋아요 85개 개의 좋아요가 있습니다.

자율 주행 ai 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 인공지능의 학습방법은 무엇일까? – 자율 주행 ai 주제에 대한 세부정보를 참조하세요

인공지능은 인간의 인식, 판단, 추론, 문제 해결, 그 결과로서의 언어나 행동 지령, 더 나아가서는 학습 기능과 같은 인간의 두뇌 작용을 이해하는 것을 연구 대상으로 하는 학문 분야이다. 세계 최고의 기술 산업들이 탄생한다는 미국 캘리포니아 실리콘밸리를 찾아가 자동차 자율주행 기술과 인공지능 학습방법에 대해 알아본다.
#인공지능 #딥러닝 #자율주행

자율 주행 ai 주제에 대한 자세한 내용은 여기를 참조하세요.

AI가 만든 초현실적 가상세계, 자율주행차 개발 속도 높여줄까

자율주행 자동차 개발은 투입되는 돈과 노력에 비해 성장 속도는 더딘 사업이다. 이미 오랫동안 막대한 노력과 수십억 달러가 투자됐지만 이 기술은 …

+ 더 읽기

Source: www.technologyreview.kr

Date Published: 1/15/2022

View: 886

자율주행차와 인공지능

본고에서는 운전자의 개입 없이 운행이 가능한 자율주행차를 중심으로 현재까지 기술발전 상황을 정리한다. 1. 개괄. 스마트폰 기반의 교통 서비스를 제공하는 우버(UBER) …

+ 여기를 클릭

Source: www.autoelectronics.co.kr

Date Published: 3/1/2021

View: 3341

AI 자율주행 – 스마트 자동차 기술 – 센스타임 – SenseTime

비전 인지 기술; 라이더 감지 기술; 멀티 센서 통합 기술; 차량/행인/비동력 차량의 동작 예측; 의사결정 프로그래밍과 제어 기술; 고정밀도 지도의 구축 및 위치 추적 …

+ 여기에 자세히 보기

Source: www.sensetime.com

Date Published: 2/7/2022

View: 6775

자율주행 자동차의 인공지능 – Korea Science

자율주행 자동차는 기본적으로 ‘인지-판단-제어’. 의 3단계를 거치면서 작동하게 된다. 인지단계에서는. 카메라·라이더(LiDAR)·레이더(RADAR) 등의 센서.

+ 여기에 자세히 보기

Source: www.koreascience.kr

Date Published: 12/8/2021

View: 5107

자율주행 AI 운전능력 평가기법 및 모형개발에 관한 연구 Ⅲ

그러나 실. 제도 자율주행차의 상용화 전 면허 발급 여부를 두고 평가를 내릴 때는 충돌여부뿐 아. 니라 다른 항목도 같이 고려해야 할 것으로 판단된다. 첫째로 현재 도로 …

+ 여기에 자세히 보기

Source: www.koroad.or.kr

Date Published: 2/12/2022

View: 3388

AI 인공지능 자율주행 자동차 | 장문철 | 앤써북 – 교보문고

만들기+데이터 수집 학습+딥러닝 with 라즈베리파이 | [ AI 인공지능 자율주행 자동차 만들기+데이터 수집 ㆍ 학습+딥러닝 with 라즈베리파이 ] 책은 다음 6단계의 …

+ 여기에 더 보기

Source: www.kyobobook.co.kr

Date Published: 3/19/2022

View: 1047

주제와 관련된 이미지 자율 주행 ai

주제와 관련된 더 많은 사진을 참조하십시오 인공지능의 학습방법은 무엇일까?. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

인공지능의 학습방법은 무엇일까?
인공지능의 학습방법은 무엇일까?

주제에 대한 기사 평가 자율 주행 ai

  • Author: EBS 컬렉션 – 사이언스
  • Views: 조회수 7,531회
  • Likes: 좋아요 85개
  • Date Published: 2021. 1. 14.
  • Video Url link: https://www.youtube.com/watch?v=GMTktxagR6s

AI가 만든 초현실적 가상세계, 자율주행차 개발 속도 높여줄까

자율주행 자동차 개발은 투입되는 돈과 노력에 비해 성장 속도는 더딘 사업이다. 이미 오랫동안 막대한 노력과 수십억 달러가 투자됐지만 이 기술은 여전히 시험 단계에 머물러 있다.

하지만 이러한 상황을 개선할 수 있다고 자신하는 사람이 있다.

바로 와비(Waabi) 창업자 라퀼 어타슨(Raquel Urtasun)이다. 어타슨은 자율주행 자동차 개발에 진척이 없자 싫증을 느끼고, 4년 간 몸담았던 승차호출 서비스 회사인 우버를 떠나 지난해 와비를 세웠다. 현재 자율주행 자동차 관련 실무를 보는 동시에 토론토 대학 교수도 겸직 중인 그녀는 “현시점을 기준으로 자율주행에 대한 기존의 접근 방식들은 진전이 너무 느리다”며 “이전과는 근본적으로 다르게 접근해야 한다”고 창업 동기를 밝혔다.

최근 와비는 어타슨이 자율주행 자동차 개발 속도를 획기적으로 단축할 수 있다고 믿는 새로운 해결책을 내놓았다. 바로 ‘실차’ 테스트를 포기하는 것이다.

조금 더 자세히 설명해 보면 이렇다.

지난 여섯 달 동안 와비는 ‘와비 월드(Waabi World)’라는 극사실적 가상환경(super-realistic virtual environment)을 구축해왔다. 이들은 실제 자동차로 인공지능(AI) 운전자를 훈련시키는 대신 시뮬레이션 내에서 가능한 모든 상황을 구현하려고 한다. 최종 개발 단계 전까지는 실제 도로에서 실제 차량을 대상으로 한 AI 테스트도 하지 않아 시간을 단축하겠다는 계획이다.

문제는, AI가 실제 도로처럼 혼란스러운 상황에 대처하는 법을 배우려면 현실에서 당면할 만한 모든 사건에 미리 노출되어야 한다는 점이다. 자율주행 자동차 회사들이 지난 10년 동안 세계 곳곳에서 수백만 킬로미터를 주행한 이유가 바로 이 때문이다. 크루즈(Cruise)나 웨이모(Waymo) 등 몇몇 기업은 미국 내 한적한 도시 환경에서 자율주행 자동차 주행 테스트를 시작했다. 하지만 여전히 진행이 더디다. “왜 이런 무인 자동차들이 현실 세계에서 더 자주 보이지 않을까? 왜 그 차량들은 상용화되지 못했을까?” 어타슨은 묻는다.

와비는 도로 주행 테스트를 하지 않을 뿐만 아니라 아직 완성된 차조차 없지만, 그럼에도 불구하고 어타슨은 대담한 주장을 펼치고 있다. 실제 거리에서 소프트웨어를 시험하는 데 드는 비용을 크게 절약함으로써, 그녀는 와비가 경쟁사보다 더 빠르고 저렴하게 인공지능 운전자를 개발하여 산업 전반에 공급할 수 있을 것이라고 생각한다.

가상 운전자

그 전에도 자율주행 소프트웨어를 시험할 목적으로 가상 현실 세계를 만들려는 시도는 있었다. 수년 전부터 시뮬레이션은 자율주행 자동차 업계의 중추였다. 그러나 문제는 시뮬레이션만으로 최종적인 기술 장벽을 충분히 극복할 수 있느냐는 것이다. 아마존이 2020년 인수한 자율주행차 스타트업 죽스(Zoox)의 공동창업자이자 CTO인 제시 레빈슨(Jesse Levinson)은 “아직 아무도 자율주행차를 위한 가상공간(Matrix)를 구축하지 못했다”라고 말했다.

실제로 현재 거의 모든 자율주행차 회사가 어떤 형태로든 시뮬레이션 기법을 채택하고 있다. 이들은 실제 도로에서 마주칠 수 있는 것보다 더 다양한 시나리오에 AI를 노출시키면서 테스트 진행 속도를 높이고 비용도 절감한다. 그러나 대부분은 시뮬레이션을 실제 테스트와 결합하여 실제 주행과 가상 주행을 오가는 방식을 사용한다.

와비 월드는 시뮬레이션을 한 단계 더 발전시킨 형태이다. 와비 월드는 운전 강사이자 가상공간 매니저 역할을 하는 AI에 의해 생성되고 제어된다. 이러한 AI는 AI 운전자의 약점을 파악한 후, 취약한 부분을 테스트하기 위해 가상 환경을 재정비한다. 또한 와비 월드는 동시에 여러 AI 운전자에게 서로 다른 능력을 가르친 뒤 이들을 단일한 수행능력(skill set)으로 결합한다. 어타슨에 따르면, 이 모든 것은 인간의 도움 없이 쉬지 않고 이어진다.

돌발 상황

자율주행 자동차 회사들은 시뮬레이션을 통해 차량 통제 신경망이 어떻게 돌발 상황에 대처하는지 테스트한다. 자전거 배달원이 급작스럽게 끼어드는 경우, 차량 색상이 하늘색이라 색깔로는 차체를 인식하기 어려운 경우 등의 다양한 상황이 그 예다. 신경망은 이 결과를 바탕으로 적절하게 적응해 나간다.

크루즈는 샌프란시스코 지역 내 특정 도로에 한해 완전자율주행차를 시험하기 시작했다. 이 회사에서 시뮬레이션 분야를 연구하는 시드 간디(Sid Gandhi)는 “실제 도로에서 돌발 상황을 제대로 시험하기 위해서는 수천 마일을 주행해야 한다”라고 말했다. 정말 드문 상황은 굉장히 낮은 확률로 발생하기 때문이다. 그는 “우리가 시뮬레이션으로 희귀한 상황에 대응하는 훈련을 할 수 있게 됨에 따라, 실제 주행 테스트에 대한 의존도가 점차 줄어들고 있다”고 덧붙였다.

크루즈는 소프트웨어를 업그레이드할 때마다 수십만 번의 시뮬레이션을 통해 소프트웨어를 테스트한다. 간디에 따르면, 크루즈는 앞으로 자동차 주행 중에 경험할 법한 까다로운 상황에 기초해 수천 개의 시나리오를 제작할 예정이다. 그리고 다양한 잠재적인 시나리오를 다루기 위해 세부적인 부분을 조정할 계획이다. 시뮬레이션을 더욱 사실적으로 만들기 위해 이들은 실제 자동차에서 촬영한 데이터도 사용할 것이다.

여기에 더해 엔지니어는 도로 배치를 바꾸고 차종을 교체하며 보행자 수를 변경할 수 있다. 마지막으로, 소프트웨어는 시뮬레이션에서 다른 차량들이 현실적인 반응을 보이도록 하기 위해 자율주행 알고리즘을 사용한다. 이러한 합성 데이터로 소프트웨어를 테스트하는 것은 실제 데이터를 사용하는 것보다 180배 빠르고 수백만 달러 더 저렴하다고 간디는 주장했다.

간디는 크루즈가 샌프란시스코 외 미국 도시들을 복제하여 만든 가상 거리에서도 소프트웨어를 실험하고 있다고 밝혔다. 실제 자동차가 해당 도시의 도로를 달리기에 앞서 시뮬레이션으로 구현된 곳에서 자율주행 소프트웨어를 테스트하기 위해서다.

다른 회사들도 자율주행을 위한 AI 훈련과 테스트에서 시뮬레이션이 중요하다는 데 동의한다. “여러 가지 면에서 실제 운전보다 시뮬레이션이 더 유용하다.”라고 레빈슨은 말한다.

영국에 본사를 둔 자율주행 자동차 회사인 웨이브(Wayve)도 시뮬레이션 테스트와 실제 주행 테스트를 번갈아 수행하고 있다. 런던 번화가를 달리는 이 테스트는 항상 차 안에 사람이 탄 상태로 진행된다. 웨이브의 수석 과학자인 제이미 쇼튼(Jamie Shotton)은 시뮬레이션을 통해 테스트 비용을 줄여 자율주행차 개발을 가속화할 뿐 아니라 테스트의 신뢰성을 높일 수 있다는 생각이다. 시뮬레이션을 통해 반복적으로 테스트를 시행할 수 있기 때문이다. 그는 “성공적인 시뮬레이션의 핵심은 현실성과 다양성을 늘리기 위해 끊임없이 노력하는 것”이라고 말했다.

그럼에도 불구하고, 와비는 다른 회사에서 하는 것보다 더 많은 일들을 시뮬레이션만으로 할 수 있다고 주장한다. 와비는 크루즈와 마찬가지로 라이다(lidar) 및 카메라 등의 실제 센서로 데이터를 수집하여, 이를 기반으로 현실을 모방한 디지털 복제 환경을 만든다. 그런 다음 가상 세계를 최대한 사실적으로 만들기 위해 AI 운전자가 보는 센서 데이터를 시뮬레이션으로 구현한다. 카메라를 교란시키는 반짝이는 표면 반사 현상이나, 라이다를 무용지물로 만드는 배기가스와 안개가 여기에 포함된다.

하지만 와비 월드의 핵심은 전지적인(god-like) 운전 강사 AI라고 할 수 있다. 이 가상 세계에서는 한 AI 운전자가 다양한 환경을 탐색하는 법을 배우면, 또 다른 AI가 취약점을 찾아 이를 테스트하는 구체적인 시나리오를 만들어낸다.

실제로 와비 월드에서는 두 AI에게 경쟁을 시킨다. 이때 운전 강사 AI는 실패 확률이 높은 맞춤형 과제(tailor-made challenges)를 선별하여 운전자 AI에게 제시하며, 반대로 운전자 AI는 이 문제를 해결하기 위해 노력한다. 어타슨은 운전자 인공지능이 점점 더 향상되면서 실패 사례를 찾기 더 어려워지고 있다며, “결점을 찾기 위해서는 수백만, 어쩌면 수십억 개의 시나리오에 노출시켜야 할 것”이라고 강조했다.

어타슨은 “수많은 시뮬레이션을 통한 AI 학습이 인간이 새로운 기술을 배우는 과정을 더 잘 모방한다고 생각한다”면서 “새로운 경험을 할 때마다 우리 뇌 신경망은 새롭게 구성된다”라고 설명했다.

시뮬레이션 상에서 AI를 자기 자신 또는 상대편과 수없이 많이 대결시켜 훈련하는 방법은 매우 강력한 기술이 되었다. 이는 구글의 AI 자회사 딥마인드(DeepMind)가 AI에게 바둑과 스타크래프트 게임을 훈련시킬 때 사용한 방법이기도 하다. 딥마인드의 엑스랜드(XLand)와 오픈에이아이(OpenAI)의 하이드앤시크(Hide & Seek)와 같은 가상 놀이터에서 AI봇이 학습하는 방법도 이와 동일한 원리이다. AI는 시행착오를 통해 기본적이면서도 일반적인 기술을 습득한다.

하지만 시뮬레이션 속에서 AI가 자유롭게 활동할 수 있게 함으로써 생기는 단점도 있다. AI가 현실에 없는 시뮬레이션의 허점을 이용해 문제를 해결하는 법을 배울 수 있기 때문이다. 실제로 오픈에이아이의 하이드앤시크 봇은 다른 사람들을 피하거나 찾기 위해 서로 협력하는 방법을 시뮬레이션 속에서 스스로 학습했지만, 한편으로는 봇들이 허공으로 뛰어오르거나 벽을 통해 물체를 통과시키는 등 물리학을 거슬러 움직이는 결함이 발견되기도 했다.

와비는 AI 운전자의 잘못된 행동 학습을 방지하기 위해 시뮬레이션이 충분히 정확한지 확인해야 할 것이다. 그렇지 않으면 신경망은 계속해서 가상 세계와 현실 세계 사이의 불일치를 활용하는 방법을 터득할 것이다. 어타슨은 말한다. “인공지능도 편법을 쓸 줄 안다.”

어타슨은 와비가 실제 주행 환경과 가상 주행 환경 사이의 차이를 측정하여, 이 간극을 가능한 한 최소화하는 방법을 개발했다고 주장한다. 그녀는 이 기술에 대한 내용을 아직 자세히 밝히지는 않았지만, 와비가 이 연구를 발표할 계획이라고 말했다.

와비가 시뮬레이션만으로 어디까지 개선될 수 있는지는 와비 월드가 현실과 얼마나 닮았느냐에 달려있다. “시뮬레이션이 점차 개선되고 있기 때문에, 시뮬레이션에서 배울 수 없는 현실 세계의 사례가 점점 더 줄고 있다. 하지만 완전히 없어지기까지는 오랜 시간이 걸릴 것이다.” 레빈슨이 말했다.

웨이브의 쇼튼은 “시뮬레이션과 실제 테스트 사이에서 건전한 균형을 유지하는 것이 중요하다”면서 “실제 하드웨어와 관련된 모든 복잡성을 고려하여 자율 주행 자동차가 도로 위에서도 안전하게 운행될 수 있도록 하는 것이 자율주행 기업의 궁극적인 목표”라고 강조했다.

어타슨은 이 의견에 대체로 동의한다. 그녀는 실차 검증은 여전히 필요하지만 그 비중은 점점 줄어들 것으로 기대했다.

어찌 되었든 어타슨은 현 상태가 이대로 지속될 수 없다는 입장이다. “기존 업계는 방법의 개선 없이 계속해서 같은 길을 걷고 있다.그 과정을 가속화할 혁신이 필요하다. 우리의 새로운 접근법으로 계속해서 나아가야 한다.”

자율주행차와 인공지능

자율주행차와 인공지능

2016년 07월호 지면기사 / 글│박 재 호 _ [email protected]

자동차 분야에서 인공지능은 어떤 영향을 미치고 있을까. 최근 들어 인공지능이 다시 부각되는 이유는 무엇일까. 빅데이터와 클라우드 기술이 발전함에 따라 과거에 비해 수집된 자료량이 엄청나게 늘어났을 뿐만 아니라 컴퓨터 자체의 성능도 날이 갈수록 좋아지고 있기 때문에 방대한 자료 처리에 필요한 계산량을 뒷받침하는 것이 가장 큰 요인으로 볼 수 있다. 본고에서는 운전자의 개입 없이 운행이 가능한 자율주행차를 중심으로 현재까지 기술발전 상황을 정리한다.

이세돌 九단과 알파고의 대국 이후에 인공지능에 대한 관심이 급격하게 높아지고 있다. 딥러닝, 강화 학습, 과적합(overfitting)과 같이 일상에서 듣기 어려운 전문용어가 포함된 기사가 일간지에 실리고 있으며, 다양한 분야에서 인공지능을 이용한 응용 사례가 소개되고 있다. 인공지능 관련 연구개발 인력이 부족해서 기업 사이에 치열한 인재 쟁탈전이 벌어지고 있다는 소식도 들려온다. 정부는 물론 민간에서도 집중적으로 인공지능 관련 분야에 대한 투자를 집행하고 있다.

최근 들어 인공지능이 다시 부각되는 이유는 무엇일까? 빅데이터와 클라우드 기술이 발전함에 따라 과거에 비해 수집된 자료량이 엄청나게 늘어났을 뿐만 아니라 컴퓨터 자체의 성능도 날이 갈수록 좋아지고 있기 때문에 방대한 자료 처리에 필요한 계산량을 뒷받침하는 것이 가장 큰 요인으로 볼 수 있다. 또 전통적인 산업에 IT 기술이 접목되면서 복잡한 작업을 처리할 수 있는 소프트웨어 기술 향상도 다른 요인으로 볼수 있다. 융복합 기술의 발전은 생산 자체를 고도화할 뿐만 아니라 제품에도 부가가치를 더하는 촉매로 작용하고 있다. 인공지능이야말로 차세대 산업의 주축이 될 것으로 기대하는 사람도 많다.

그렇다면 자동차 분야에서 인공지능은 어떤 영향을 미치고 있을까? 본고에서는 운전자의 개입 없이 운행이 가능한 자율주행차를 중심으로 현재까지 기술발전 상황을 정리한다.

1. 개괄

스마트폰 기반의 교통 서비스를 제공하는 우버(UBER)의 예를 들면 자사 서비스에 인공지능 개념을 적극적으로 활용해 차량이 필요한 수요자와 차량을 운행하는 공급자(개인/법인) 사이에 원활한 연결을 제공함으로써 정보 비대칭성을 줄이고(지역과 시간대 별 차량 수요와 공급 관련) 자원의 활용을 극대화하고 있다. 여기서 한 걸음 더나가 우버는 운전사의 인건비를 줄이고 차량 가동률을 높이는 동시에 시간에 구애받지 않는 진정한 24×7×365 서비스를 목표로 자율주행차 기술에 집중하고 있다. 차량 소유시대의 종말에 대비한 자동차 업계의 관심까지 합쳐지면서 자율주행차에 대한 연구는 더 이상 먼 미래의 이야기가 아니며 현재 진행형으로 봐도 틀림없겠다.

구글과 같은 회사는 플랫폼을 확장해나가는 관점에서 차량에 주목하고 있다. 차량은 기존 웹(검색 엔진)과 스마트폰(안드로이드)에 이어 사용자의 데이터를 축적하고 이를 활용하는 새로운 플랫폼으로 떠오르고 있고, 그 중에서도 가장 강력한 애플리케이션이 바로 자율주행 기능으로 보면 틀림없다. 자율주행차에 장착된 센서에서 수집된 각종 정보를 IoT를 지원하는 클라우드 컴퓨팅 환경으로 보내고, 빅데이터 기술을 사용해 운행 패턴과 도로상황을 분석한 다음에 해당 정보를 내려 받아 안전한 운전이 가능하게 만든다.

테슬라 같은 경우에는 자동차의 아이폰화라는 기치를 내걸고 소프트웨어 업그레이드 만으로 제한적인 자율주행(고속도로 대상)이 가능하게 만들어 운전자들을 깜짝 놀라게 만들었다. 또한 소프트웨어 업그레이드로 소환(summon) 기능을 제공해 집에 도착해서 내리면 차량이 저절로 운전해서 차고로 들어간 다음에 시동이 꺼지고, 운행이 필요할 때 집 앞에 있으면 차량이 자동으로 시동을 걸고 차고 문을 열고 나와서 집앞으로 나올 수 있게 만들었다.

그렇다면 사람들이 자율주행차에 관심을 기울이는 이유는 무엇일까? 다음과 같은 사안을 생각해보자.

– 안전성: 사람 운전자와는 달리 과속운전, 난폭운전, 졸음, 음주, 스마트폰 사용에 영향을 받지 않는다. 교통법규를 정확하게 지키기 때문에 자율주행 차량만 운행될 경우 사고 가능성이 극도로 낮아진다.

– 효율성: 네트워크에 항상 물려있기 때문에 도로 정보를 활용해 정체 구간을 회피하며, 주변 차량과 협력해 차간 거리를 유지함으로써 도로의 처리량을 극대화한다.

또한 군집주행 기술을 활용해 대량의 물류를 신속하게 운송할 수 있다.

– 편의성: 운전자의 피로를 줄이며, 차량 이동 중에도 휴식, 여가 활용, 업무가 가능해진다. 또한 정상적인 운전이 힘든 노약자와 장애인을 배려할 수 있다. 차량 공유 서비스와 결합할 경우 차량의 대수를 줄일 수 있어 주차난과 같은 기반 시설 부족 현상에 따른 시간 낭비도 완화할 수 있다.

이렇듯 장점이 많은 자율주행차를 지탱하는 기술은 무엇일까? 하드웨어(센서, CPU/GPU)와 소프트웨어(인공지능) 관점에서 바라볼 필요가 있다.

2. 자율주행 차량의 눈과 귀: 센서

사람은 시각과 청각을 활용해 운전 중에 도로상황을 파악하는 반면에 자율주행차는 다양한 센서에 의존해 경로를 결정하고 사고를 회피해야 한다. 쉽게 말해 센서는 자율주행차의 눈과 귀라고 생각할 수 있다. 자율주행차는 크게 다음과 같은 센서를 탑재한다.

Radar

레이더는 무선신호를 방출한 다음 부딪혀서 돌아오는 신호를 찾는 원리로 동작하는 가장 범용적으로 사용되는 센서로 단거리, 중거리, 장거리 특성을 모두 갖추고 날씨에 무관하게 동작한다. 예를 들어, 적응형 순항제어 장치는 차량의 200 m 전방을 주시하며, 차량을 추적하며 가감속을 지령해 차량사이의 간격을 유지한다. 또한 레이더는 사각지대 감지와 차선이탈 경보 기능을 제공한다. 초기에는 운전자에게 임박한 문제를 음성으로 경고하는 선에서 그쳤지만, 자율주행형 차량에서는 문제를 회피하기 위해 운전자의 제어권을 자신이 가져간다. 레이더는 움직이는 물체가 산란된 파형의 주파수를 바꾼다는 도플러 효과를 이용해 정지된 물체를 추적할 수 없으며, 금속이 아닌 다른 재질의 물체를 감지하기 힘들다는 단점이 존재한다.

Lidar(Light Detection And Ranging)

라이더는 지상의 형태와 표면 특성에 대한 지리적인 정보를 정밀하게 제공한다.

원래 라이더는 지상, 얕은 물가를 대상으로 밀도가 높고 정확한 데이터를 수집하기 위해 만들어졌다. 일반적으로 비행기, 지상, 이동 차량에서 넓은 지역에 걸쳐 빠르게 여러지점(point)을 수집하며, 높은 정밀도와 풍부한 지점 밀도라는 특성 때문에 철도, 도로, 교량, 빌딩, 방파제, 해안선에 대한 정교하고 현실적인 3차원 표현을 가능하게 한다.

라이더는 레이저를 발사해서 감지되는 반향을 센서가 잡아내는 원격 감지기술을 일컫는다. 이런 정보는 물체에 대한 범위 또는 거리를 계산하는 데 쓰인다. 언뜻 보면, 라이더는 레이더와 비슷하지만 별개의 레이저 파동에 기반한다. 목표 객체의 3차원 좌표(예: 위도, 경도, 고도)는 발사한 레이저 파동과 반환된 레이저 파동 사이의 시간, 파동이 발사된 각도, 센서의 절대 위치를 사용해 계산된다. 하지만 라이더는 레이더와는 달리 구름, 비, 눈, 짙은 연무를 통과할 수 없다는 단점이 존재한다.

라이더는 대기 조성, 구조, 구름, 연무등을 연구하기 위해 고정된 위치의 지상 장비로 개발됐으며, 세상의 날씨 관측에 강력한 도구로 자리잡아 왔다. 또한 교량, 빌딩, 해안과 같은 특정 목표물을 탐색하기 위해 고정된 위치에 장착한 다음에 상황의 변화를 추적한다. 현대적인 내비게이션과 위치측정 시스템을 위해 라이더는 이동형 차량에 탑재돼 철도, 도로, 공항, 빌딩, 배관, 항만, 해안선 등 아주 정밀한 지도를 제작하는데 사용되기도 한다.

이렇게 40년 이상 축적된 기술을 바탕으로 라이더는 자율주행차 센서 중에서도 핵심을 차지하고 있다. 최근 자율주행차에서 많이 사용 중인 벨로다인 HDL(High-Definition Lidar)은 64개의 회전하는 레이저를 사용해 초당 220만 개의 지점을 수집하며, 이런 정보를 토대로 주변의 가상 모델을 생성한다. 레이더 대신 라이더를 사용하는 한 가지 이유는 레이저의 고에너지, 단파장 레이저가 비금속 표면(예: 인간과 나무 전신주)에 더 잘 반사되기 때문이다. 기존 시스템과 달리, 벨로다인 HDL은 조밀하게 레이저를 발사해 눈이나 비가 내리는 환경에서도 빈틈을 찾아 주변 환경을 파악할 수 있다.

Camera(일반/3D)

특정 이미지를 개별 픽셀로 인식해 숫자로 변환하는 장비로 물체에서 반사되는 빛을 광학 센서가 잡는 원리로 동작한다. 일반 카메라는 깊이를 인식하지 못하는 반면에 3D카메라는 렌즈를 두 개 사용하거나 다른 센서의 도움을 받아 깊이를 인식할 수 있다. 카메라는 다른 센서에 비해 높은 해상도를 자랑해 정확한 배경/물체 인식이 가능하다는 장점이 있는 반면에 빛의 반사를 이용하므로 주변 환경에 크게 영향을 받는 단점도 있다.

카메라를 반드시 사용해야 하는 상황이 존재한다. 고정된 도로 표지판의 경우에는 GPS와 도로 지도를 사용해 충분히 방어가 가능하지만 긴급 도로공사와 같은 임시표지판의 경우에는 카메라가 없다면 내용을 인식하지 못하는 문제가 발생한다. 또한 색상을 인식할 수 있어 신호등이나 브레이크 등을 판단하기에 적합하다.

Ultrassonic

음파(50 KHz 주변 초음파)를 보내 되돌아오는 반향을 듣는 장비로 음파가 미치는 주변 지역에 위치하는 물체를 감지할 수 있다. 잡음과 반사파의 반향으로 인해 매우 정밀하지는 않지만 보조적인 수단으로 활용이 가능하다. 자율주행차가 아닌 일반 차량에는 주로 후방 감지 센서와 측면 감지 센서로 사용되고 있으며, 자율주행차의 경우 저속에서 벌어지는 근접 이벤트(예: 병렬주차와 저속충돌회피)를 감지하기 위해 사용된다. 차량이 사람이 걷는 속력보다 빠르게 움직일 경우 탑재된 초음파 센서는 제대로 동작하지 않는다.

GPS(Global Positioning System)

GPS는 중궤도를 도는 24개 이상의 인공위성에서 발신하는 마이크로파를 수신기가 수신해 위치 벡터를 계산하는 방식으로 동작한다. 세 개 이상의 GPS 위성이 송신한 신호를 수신해 위성과 수신기의 위치를 결정한다. 위성에서 송신된 신호와 수신기에서 수신된 신호의 시차를 측정하면 위성과 수신기의 거리를 구할 수 있는데, 송신된 신호에 위성의 위치가 들어 있어 삼각 측량법을 활용해 정확한 수신기의 위치를 계산한다.

GPS를 사용할 경우 현재 이동 중인 자율주행차의 정확한 위치를 구한 다음에, 미리 구축된 정밀한 도로 지도 데이터베이스를 토대로 정적인 주변 상황을 파악할 수 있다. 기상 상태나 주변 장애물에 영향을 받지 않는 장점이 있다. 하지만 터널, 교량 아래, 지하도에 들어설 경우 GPS를 사용할 수 없는 상황이 발생하기 때문에 100% GPS를 신뢰할 수 없다는 문제점이 있다. 차량의 속도 정보를 사용해 현재 위치를 추정할 수 있는 추측항법시스템으로 이런 문제점을 해결한다.

적외선 LED와 광센서

적외선 LED와 광센서는 비 탐지/와이퍼 동작과 같은 분야에 사용되며, 충돌회피를 위해 차량 외부에 장착돼 상향등의 조명 범위를 벗어난 물체를 감지하기 위해 사용되기도 한다. 또한 에어백의 전개 속력을 조절하기 위해 탑승자의 위치를 파악하거나 운전자의 눈꺼풀을 감지해 졸음운전을 막기위해 사용될 수도 있다.

자율주행차의 두뇌: CPU와 GPGPU

사람의 감각기관에서 들어오는 전기적인 신호는 두뇌에서 처리한다. 마찬가지로 차량의 센서에서 들어오는 각종 정보 역시 CPU와 GPGPU(General Purpose GPU)에서 처리하게 된다. CPU는 소프트웨어의 실행이 이뤄지는 핵심이며, 외부에서 정보를 입력받고, 기억하고, 컴퓨터 프로그램의 명령어를 해석하고 연산하고 외부로 출력한다. 각종 전자부품을 단일 칩에 내장한 마이크로프로세서 형태로 만들어지면서 부터 CPU는 복잡한 범용 컴퓨터는 물론이고 가전제품이나 차량에도 탑재되기 시작했다. 또한 중앙처리장치의 한 블록인 코어를 여러 개 탑재한 칩이 등장하면서 단일 코어의 성능 한계(클록 주파수의 한계, 슈퍼 스칼라 아키텍처의 한계)를 극복해 나가는 추세이다.

CPU는 순차적인 직렬 처리에 최적화된 멀티코어를 내장하고 있기 때문에 일반적인 작업을 수행하기에 충분하다. 하지만 복잡한 수치 연산을 위한 병행(parallel) 작업이 필요한 경우에는 문제가 발생한다. 물론 단일 CPU 내부의 코어 수를 늘리거나 네트워크로 연결된 여러 컴퓨터를 사용해 작업하는 방법도 존재하지만 고려해야 하는 사항이 많아 현실적으로 쉽지 않다.

기존 임베디드 부문에서는 신호처리를 빠르게 하기 위해 특화된 칩인 DSP(Digital Signal Processor)가 많이 사용됐는데, 실시간으로 아날로그 신호를 표현하는 복잡한 수치 데이터를 빠르게 처리하기 위한 기능이 탑재돼 있었다. 하지만 DSP는 1차원(오디오)이나 2차원(이미지) 데이터는 어느 정도 실시간으로 처리할 수 있었지만, 자율주행차에서 요구하는 복잡한 2차원(높은 해상도나 복잡한 영상인식)이나 3차원 데이터는 처리하기가 곤란하다는 문제가 존재한다.

따라서 CPU와 DSP의 문제점을 해결하기 위해 뭔가 해법이 필요하다. 게임을 많이 하는 사람들은 GPU에 대해 이미 잘 알고 있을 것이다. GPU는 CPU에서 그래픽과 관련된 각종 연산 기능을 가져와서 전용으로 처리하게 만든 칩으로, 초기에는 2차원 가속(비트맵 복사와 이동) 기능을 중심으로 화면 출력을 빠르게 하는 쪽에 집중했지만, 점차 3차원 가속을 위한 각종 수치 연산 기능을 강화하는 쪽으로 발전해나갔다. 이를 위해 병렬처리용으로 특별히 설계된 수천 개에 이르는 소형 코어를 탑재하고 있으며, 계산이 필요한 작업을 CPU로부터 가져와서 빠르게 처리한다. GPU는 앞서 언급한 CPU와 DSP의 제약점을 극복하기 위한 훌륭한 대안으로 자리 잡고 있다.

현대적인 GPU는 기본적으로 SIMD(Single Instruction Multiple Data)계산 방식에 기반한다. 이런 유형의 GPU를 GPGPU라 부른다. GPGPU는 SIMD 계산 유닛으로 여러 독립적인 데이터에 대한 병행연산을 수행할 능력을 갖추고 있다. 현대적인 GPGPU는 수천 개에 이르는 병행 스레드를 띄우고 모든 스레드를 배치 방식으로 처리한다. 이런 특성으로 인해, GPGPU는 복잡한 대규모 DSP 문제를 여러 개의 작은 수치 문제로 쪼개고 한 번에 처리한다. 따라서 전반적인 시간 복잡도를 엄청나게 줄일 수 있다. 예를 들어, 두 M×M 행렬을 곱하는 작업은 출력 데이터 의존성 없이 GPGPU 장비에서 M×M 병행 스레드를 처리할 수 있다. 이와 같은 특성으로 인해 전통적인 CPU나 DSP와 비교해 상당한 성능 이익을 얻을 수 있다.

GPGPU는 화면과 중립적인 계산 전용 프로그래밍 인터페이스를 제공한다. 몇가지 예를 정리하면 다음과 같다. ▶CUDA: CUDA는 NVIDIA GPU를 프로그래밍하기 위한 표준 인터페이스다. 2006년에 처음 등장한 이후 엄청나게 많이 판매된 하드웨어 기반을 토대로 다양한 애플리케이션 제작에 사용돼 왔다. CUDA는 윈도우, 리눅스, MacOS X를 지원하며 C/C++ 프로그래밍 언어로 개발이 가능한 라이브러리를 제공한다. ▶OpenCL: OpenCL은 원래 애플이 제안한 업계 표준으로 CPU, GPU, DSP 등의 프로세스로 이뤄진 이종 플랫폼에서 실행되는 프로그램을 작성할 수 있게 한다.

로열티가 없는 OpenCL은 비영리 기술 컨소시엄인 크로노스에서 관리하고 있으며, 2008년 11월에 1.0 명세서가 완성됐다. AMD는 물론이고 NVIDIA에서도 OpenCL을 지원한다. ▶C++ AMP(C++ Accelerated Massive Parallelism): C++ AMP는 GPU와 같은 데이터 병행 하드웨어에서 컴파일돼 수행되는 프로그램을 쉽게 작성하게 도와주는 C++ 라이브러리다. C++ AMP는 마이크로소프트에서 개발한 개방형 명세이며, DirectX 11에 구현돼 있다. 마이크로소프트 윈도우 운영체제에서 동작하지만 향후 다른 플랫폼에도 이식될 예정이다(예: 인텔이 만든 Shevlin Park). ▶OpenACC(Open Accelerators): 크레이, NVIDIA 등이 개발한 병행 컴퓨팅을 위한 프로그래밍 표준으로 이기종 CPU/GPU 시스템에서 병행 프로그래밍을 단순하게 만들어준다. OpenMP와 유사하게 C, C++ 코드에 애노테이션(컴파일러 지시자)을 붙여 가속해야 할 영역을 지정한다.

GPGPU를 사용하는 주요 분야를 정리하면 ▶디지털 필터: 다차원 디지털 필터설계 ▶레이더 시그널 재구성과 분석: 실시간으로 엄청나게 많은 3D나 4D 데이터 샘플 재구성 ▶자율주행차 제어를 위한 3D이미지 인식 ▶초음파, X레이, MRI, CT와 같은 2D 또는 3D 영상 시그널 진단 등 의료 영상 처리 등이다.

4. 인공지능: 기계학습과 딥러닝

자율주행차에서 인공지능 기술을 바로 논하기에 앞서, 우선 인공지능을 응용하는 기능부터 짚고 넘어갈 필요가 있다. 앞서 GPGPU를 사용하는 주요 분야를 설명할 때 자율주행차 부문에서 차량 제어를 위한 3D 이미지 인식을 언급했는데, 조금 더 세부적으로 파고 들어가면 ▶보행자 충돌 경고(차량 운행 도중에 등장하는 보행자를 감지하고 회피하는 기능) ▶차선이탈 경고(차량 운행 도중에 차선이탈을 감지하고 경보하는 기능) ▶전방충돌경보(차량 운행 도중에 앞에 나타난 차량이나 장애물을 감지하고 경보하는 기능) ▶속도제한 경고(운행 중 속도 제한 표지판을 읽어 경보하는 기능) ▶교통신호 감지(각종 신호등과 표지판을 읽어 표시하는 기능) 등이다.

상기 기능을 구현하기 위해 일반적인 영상처리 알고리즘을 사용할 수도 있지만, 최근에는 맥락에 무관하고 정확도를 높이기 위한 방안으로 인공지능을 도입하는 추세다. 즉 알고리즘을 먼저 만들고 데이터를 넣어 가공하는 대신 데이터를 넣어 알고리즘을 만들어내는 방법이다. 이렇게 되면 매번 상황에 맞춰 알고리즘을 수정하지 않고 데이터를 추가로 넣어 학습하는 방법으로 문제를 해결할 수 있다.

즉 기계학습을 도입해 수많은 데이터를 토대로 정교한 패턴 인식과 분류 작업을 수행할 수 있게 됐다. 그렇다면 과거에는 어떤 문제가 있었기에 기계학습을 적용하기 어려웠을까?

90년대 유행했던 인공신경망(Artificial Neural Network, ANN)은 역전파(back propagation) 방법이라는 최적화 기법이 도입되면서 전성기를 맞이한다. 하지만 인간의 두뇌를 흉내내 데이터를 처리한다는 이 멋진 개념에는 한 가지 치명적인 문제가 있었다. 바로 국소 최저치(local minima)였다. 복잡한 함수를 회귀(regression)/분류(classification)하려면 여러 신경망 단계가 필요하기 마련인데, 깊이가 깊어질 경우 매개변수(parameter) 학습과정에서 전역 최적값을 찾아내지 못하고 중간에 멈춰버리는 현상이 발생했다. 잘못된 최적화에서 벗어나려면 뭔가 획기적인 탈출구가 필요했는데, 2006년에 제프리 힌톤 교수가 해법을 제시할 때까지 답보 상태에 머물렀다.

여기서 해법은 바로 요즘 알파고 때문에 유명해진 딥러닝이다. 딥러닝은 국소 최저치라는 문제를 해결하기 위해 데이터의 전처리 과정을 도입해 비지도 학습법(unsupervised learning)으로 각 층을 손질한 다음에 이렇게 처리한 데이터를 여러 층으로 쌓아올려 최적화를 수행한다.

딥러닝의 성공 요인을 크게 다섯 가지로 정리할 수 있다.

▶비지도 학습방법: 앞서 언급했지만, 비지도 학습방법은 사람이 데이터에 의미를 부여하지 않고 컴퓨터가 스스로 군집(cluster)를 찾게 만든다. 이 과정에서 잡음을 줄이고 특이한 자료를 필터링하는 효과를 얻는다.

▶CNN(Convolutional Neural Network)의 진화: 기계학습은 데이터에서 직접 지식을 추출하도록 학습할 수도 있지만, 보통 중간 단계인 특징(feature) 추출을 거쳐 데이터에서 특징을 찍고 이를 사용해 지식을 추출하도록 학습한다. 사물을 인식하기 위해 2차원 이미지의 픽셀 값에서 먼저 특징적인 선이나 색 분포를 추출한 다음에 이를 기반으로 실제 사물을 분류하는 방법을 사용한다.

기계학습의 성능은 얼마나 좋은 특징을 추출하느냐에 달려 있다. 이는 이미지 처리, 음성인식, 필기체 인식, 자연어 분석 등 다양한 부분에 동일하게 적용되는 원칙이다. 딥러닝에서는 사람의 개입 없이 특징조차도 기계학습으로 뽑기 때문에 특징 추출과 학습 양쪽을 모두 기계가 처리할 수 있게 됐다.

▶RNN(Recurrent Neural Network)의 진화: 시간의 흐름에 따라 변화하는 시계열 데이터를 처리하기 위해 등장한 RNN은 매 순간마다 인공신경망 구조를 쌓아올리는 방식을 사용한다. 과거 RNN은 인공신경망이 너무 깊기 때문에 오래 전 데이터를 잊어먹는 현상으로 인해 학습이 어려운 문제가 있었는데, LSTM(Long-Short Term Memory)라는 게이트 유닛을 노드마다 배치하는 방법으로 이런 문제를 극복했다.

▶GPGPU의 등장과 학습 방법의 진보: 과거에는 엄청나게 복잡한 벡터 연산을 위해서 슈퍼 컴퓨터를 동원해야 했지만, 최근에는 GPGPU로 대표되는 병행 컴퓨팅에 필요한 기반이 일반화됨에 따라 누구나 복잡한 계산이 가능해졌다. 또한 빅데이터 시대가 도래하면서 천만 장의 고해상도 사진(ImageNet)과 엄청나게 많은 동영상 클립(유튜브)을 확보할 수 있게 됐다. 또한 인공신경망의 알고리즘적인 측면에서 비선형변환에 사용되는 ReLU(Rectified Linear Unit)의 개발도 한몫을 거들었다.

▶프레임워크의 오픈소스화: 카페(Caffee), Deeplearning4j, 구글의 텐서플로우(Tensorflow)와 같은 딥러닝을 가능하게 만들어주는 프레임워크가 오픈소스로 공개됨에 따라 프로그래머들이 마음만 먹으면 GPU를 장착한 PC에서 쉽게 프로그램을 만들고 테스트할 수 있게 됐다.

지금까지 자율주행차에 대한 기술적인 내용과 인공지능에 대한 사항을 간략하게 살펴보았다. 본고에서는 주로 이미지/동영상에 대해 집중했지만, 기계학습은 데이터의 유형에 중립적이므로 카메라 뿐만 아니라 다른 센서에서 들어오는 데이터 역시 충분히 처리가 가능하다. 실제로 자율주행차 업계의 리더들은 카메라는 물론이고 라이더에서 얻는 정보를 빅데이터 기술로 처리해 차량의 주변 환경을 더 정확하게 파악하는 데 총력을 기울이고 있다.

차량과 보행자의 안전을 보장하고 정확하고 빠르게 목적지에 도착하기 위해 사용되는 다양한 기술이 하드웨어 뿐만 아니라 소프트웨어에도 크게 의존하고 있다는 사실을 기억하면, 선도적인 기업이 엄청난 자본을 투자해 데이터를 확보하고, 확보한 데이터를 사용해 의미있는 분석 작업을 수행하는 이유를 알게 될 것이다. 더이상 순수 하드웨어 만으로는 경쟁력을 발휘하기 어려운 세상이 왔기 때문에 소프트웨어 분야에 집중적인 관심과 투자가 필요할 것이다.

—————————————————————————————————————-

보행자 감지에 쓰이는 공개된 데이터베이스

기계학습, 특히 딥러닝은 엄청난 데이터를 사용해 학습하는 방법으로 각종 매개변수를 미묘하게 조율하는 방법을 사용한다. 따라서 그 무엇보다 학습을 위한 데이터가 중요하다. 자율주행차에서 가장 중요하게 생각되는 기능인 보행자 감지에 사용되는 데이터베이스를 사례로 소개한다. 캘리포니아 공과대학교(Caltech)에서 제공하는 칼텍 보행자 데이터 집합은 도심 환경에서 차량을 운전하며 찍은 640×480 30 Hz 10시간짜리 비디오를 제공한다. 총 35만 개의 바운딩 박스와 2,300명에 이르는 개별 보행자를 표시해 놓아 테스트 과정에서 검증이 손쉽다. 다음 URL을 참조하자.

http://www.vision.caltech.edu/Image_Datasets/CaltechPedestrians/

참고 문헌

– http://m.media.daum.net/m/media/issue/1338/newsview/20160524174507672

– https://en.wikipedia.org/wiki/Autonomous_car

– http://webzine.iitp.kr/html/vol06/sub02_01.html

– http://www8.cs.umu.se/kurser/5DV029/HT09/handouts/Sensors%20for%20autonomous%20vehicles%20.pdf

– https://en.wikipedia.org/wiki/Lidar

– https://coast.noaa.gov/digitalcoast/_/pdf/lidar101.pdf

– http://www.edn.com/design/automotive/4368069/Automobile-sensors-may-usher-in-self-driving-cars

– https://www.cs.utexas.edu/~pstone/Courses/393Rfall09/resources/sensing.pdf

– http://www.templetons.com/brad/robocars/cameras-lasers.html

– https://en.wikipedia.org/wiki/Multidimensional_DSP_with_GPU_Acceleration

– http://t-robotics.blogspot.kr/2015/05/deep-learning.html

– http://slownews.kr/41461

– https://devblogs.nvidia.com/parallelforall/deep-learning-nutshell-core-concepts/

– http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/

AI 인공지능 자율주행 자동차 – 교보문고

얼마 전에 라즈베리파이 AI카를 접하게 되었어요. 너무 다양한 것들을 할 수 있다는 것이 참 좋았고, 손쉽게 어플로, 리모콘으로 AI 인공지능 자율주행 자동차를 제어해볼 수 있었답니다. 그런데 하면 할 수록 조금 더 체계적으로 배워보고 싶은 마음이 들더라고요. 헌데 아쉽게도 참고할만한 자료가 그리 많지 않음을 느꼈답니다.그러던 중에.. 앤써북에서 [AI 인공지능 자율주행 자동차] 책이 출간되었다는 소식을 접하게 되었습니다!! 앤써북과 함께라면 AI 인공지능 자율주행 자동차도 굴려볼 수 있어!! 책을 펼쳐보는데 정말 따라하기만 해도 실력이 늘어날 것만 같더라고요. 역시 믿고 보는 앤써북~앤써북의 장점이라면 궁금한 걸 물어보고 저자에게 답변 받을 수 있다는 점이겠지요?그래서 따라하기가 더 수월한 것 같아요. 앤써북 카페에서 질문하면 저자님께서 직접 답변을 해주신다고 하네요. 소스 파일을 받을 수도 있어요.이 책을 실습하기 위한 준비물은 다두이노 사이트에서 인공지능 자율주행 자동차 키트로 구입할 수 있어요. 이 책과 키트만 있으면 이제 AI 인공지능 자율주행 자동차를 뚝딱뚝딱 만들고 프로그래밍 할 수 있겠죠? ^^ 인공지능 자율주행 자동차 키트에는 라즈베리파이와 SD 메모리, USB 공유기 등은 옵션으로 제공하고 있어요. 그렇기 때문에 해당 옵션들을 가지고 있지 않다면 추가로 선택하여 구매하시면 된답니다.책은 [인공지능 자율주행 자동차 개요]로 시작해요. 자율주행 자동차가 무엇인지 알아보고, 실제 본 책에서 만드는 자율주행 자동차의 두뇌가 되는 라즈베리파이에 대해 알아봅니다. 라즈베리의 다양한 모델들에 대한 소개가 잘 정리되어 있어서 라즈베리파이를 처음 접하는 사람도 이해하기 쉽게 다가갈 수 있겠다는 생각이 들더라고요.[자율주행 자동차 조립 및 원격 개발환경 구성] 챕터에서는 자율주행 자동차를 조립하고 라즈베리파이를 원격으로 그래픽 환경과 연결할 수 있는 개발 환경을 구성하는 방법에 대해 정리되어 있어요.인공지능 자율주행 자동차 키트의 부품을 모두 꺼내니 더 푸짐하게 느껴지네요. AI 인공지능 자율주행 자동차 조립기는 따로 영상으로 정리해보고자 합니다. 내 손으로 자율주행을 구현한다니 기대감 가득~ 두근두근하네요~자율주행 자동차를 조립하는 방법은 무려 18페이지에 걸쳐 꼼꼼하게 정리되어 있어요. 사진만 보고 따라해도 어렵지 않게 조립을 완성할 수 있어요. 그리고 라즈베리 이미지 설치하는 방법도 잘 정리되어 있더라고요. 파일을 다운로드 할 수 있는 사이트 소개부터 설치하는 각각의 단계를 처음부터 끝까지 따라할 수 있어요.또한, 원격 접속을 설정하는 과정과 VNC 접속 프로그램으로 원격 접속을 사용하는 방법들이 너무 잘 나와 있어서 박수를 쳤네요. 예전에.. 아무것도 모르는 상태에서 이 작업을 하던 때가 생각나고.. 정말 맨땅에 헤딩하는 기분으로 인터넷 찾아가며 겨우겨우 했었던 기억이.. 진작 이 책을 만났더라면 좋았을 것을.. ㅠ[자동차의 기본기능 익히기] 챕터에는 코드를 작성하여 자동차에 구성된 모터, LED, 스위치, 부저 등을 제어해보면서 라즈베리파이의 GPIO의 기능을 익혀보고 파이썬 프로그램을 다루어보는 과정이 정리되어 있어요.코드를 작성하는 방법과 각 코드가 어떤 것을 의미하는지가 잘 정리되어 있고, 해당 코드를 실행하게 되면 어떻게 작동하는 지 결과를 상세히 보여주고 있어서 내가 잘 따라하고 있는지 확인할 수 있어요.알아두기에서는 ‘파이썬과 C언어의 변수 저장 방법 차이’, ‘블루투스 통신모듈의 연결 여부 확인 방법’ 등이 정리되어 있어서 이론적인 부분이나 연결 상태를 확인하는 방법 등을 알아볼 수 있어요. 참고가 되더라고요. ^^[자동차 무선 조종기능 만들고 조종하기] 챕터에서는 라즈베리파이의 시리얼 통신을 사용하여 블루투스 모듈과 연결하고, 스마트폰과 통신을 통해 자동차를 무선으로 조종해보는 방법을 설명해요. 또한 통신데이터를 안정적으로 받기 위해 쓰레드를 이용해 기능을 분리해보는 과정을 함께합니다.스페셜페이지를 통해 아이폰 사용자의 블루투스 조종 방법까지 친절하게 소개하고 있는 책이네요. 아이폰을 가지고 있는 사람들에게 감동스러운 페이지가 될 듯 합니다. ㅎㅎ[카메라를 활용한 자율주행 자동차 만들기 OpenCV 활용] 챕터는 카메라 활용 OpenCV 영상처리 라이브러리를 파이썬 코드로 작성하여, 영상을 받아 선을 따라 이동하는 자율주행 자동차를 만들어볼 수 있어요.카메라로 영상을 확인하고, OpenCV를 설치하고 이를 이용해 간단한 영상 처리를 하고, 회색(or 갈색) 계열의 바닥에 흰색 테이프로 차선을 그려서 라인 트레이싱을 해보는 과정을 순차적으로 파이썬 코드를 작성해보았어요. 마침 집 거실 바닥이 갈색이라 나이스~를 외쳤다지요. ^^ 참, 이 과정들은 영상을 분석하는 알고리즘을 사람이 만드는 단계로 아직 인공지능 단계는 아니랍니다.[딥러닝 자율주행 자동차 만들기 – 데이터 획득] 챕터에서는 딥러닝을 통한 자율주행 자동차를 만드는 과정, 데이터를 획득하는 과정, OpenCV를 이용하여 자동차를 조종하고 자동차의 조향각도가 포함된 주행사진을 획득하는 과정이 정리되어 있어요.코드를 작성하고 결과를 확인하는 과정을 반복하다보면 딥러닝 자율주행 자동차를 위한 데이터 획득 과정을 자연스럽게 익히게 되요. 데이터를 학습시킬 때는 PC 화면을 보면서 조종하여 학습하는데, 자동차를 직접 보면서 조종을 하면 3인칭으로 보여지기 때문에 실제 카메라 영상을 보며서 학습을 시키는 것이 필요하다는 점 등의 팁도 확인할 수 있어요.[딥러닝 자율주행 자동차 만들기 – 모델 생성] 챕터는 구글 코랩을 활용하여 tensorflow, keras를 설치하고 6장에서 획득한 주행사진을 인공지능의 CNN을 이용해 학습하고, 결과 파일인 모델을 생성하는 과정이 정리되어 있어요.[딥러닝 자율주행 자동차 만들기 – 모델 적용 후 자율주행] 챕터는 라즈베리파이에 인공지능 라이브러리인 tensorflow, keras를 설치하고, 7장에서 학습된 모델을 불러와 자율주행을 합니다. 사람이 만든 알고리즘이 아닌 딥러닝을 통해 컴퓨터가 만든 알고리즘으로 진짜 자율주행을 하는 과정이 정리되어 있어요.[딥러닝 자율주행 자동차 만들기 요약] 챕터는 자율주행 자동차를 만들기 위한 핵심 과정은 요약하여 설명하고 있어요. 상기 핵심 과정은 데이터 획득을 하는 6장과 이를 통해 모델을 생성하는 7장, 모델 적용 후 자율주행을 하는 8장, 이렇게 3단계랍니다. 앞 장에서 진행했던 내용들을 다시 한 번 정리해볼 수 있어 좋았네요.[딥러닝 자율주행 자동차필터 적용하여 성능 높이기] 챕터는 자율주행 자동차의 데이터 획득과 적용 과정에서 OpenCV의 필터를 이용해 자율주행 자동차의 성능을 높이는 과정을 정리합니다. 필터 선 적용 시 선을 더욱 더 뚜렷하게 부각시켜 학습하고 결과를 적용할 수 있어요.[딥러닝 물체감기] 챕터는 OpenCV DNN을 이용해 tensorflow에서 생성된 인공지능 모델을 라즈베리파이에 적용하여 물체를 감지하는 과정을 정리하고 있어요. 여기에 자율주행 자동차와 결합하여 주행 시 사람을 감지하여 자동으로 멈추는 기능도 추가할 수 있답니다.이러한 과정들을 QR 코드를 통해 동영상으로도 확인할 수 있어요. 아참, 그리고 OpenCV, tensorflow, keras 등의 라이브러리는 업데이트가 빈번하기 때문에 버전 변동으로 인해 코드를 변경해야할 경우엔 앤써북 네이버카페를 통해 공지해준다고 하네요. 따라하다가 뭔가 막히면 도서별 독자지원 센터로 찾아가면 해결이 되겠죠? ^^인공지능이 이슈가 되고 있는 요즘, 내 스스로 인공지능을 프로그래밍 해볼 수 있는 기회를 갖는다는 것은 엄청난 즐거움이 아닐까 생각해요. 이 책과 함께라면 인공지능 자율주행 자동차를 만들어보고 프로그래밍하기까지의 과정을 재미있고 쉽게 따라해볼 수 있을 거라는 확신이 듭니다.

키워드에 대한 정보 자율 주행 ai

다음은 Bing에서 자율 주행 ai 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

See also  목포 백반 맛집 | 고기 계속주는 20가지 반상 갈치찌개 백반이 9000원? 다 퍼주고 290만원만 벌어가시는 할머니 밥집┃Korean Home-Cooked Meals/Koreanstreetfood 23012 투표 이 답변
See also  82 전화 번호 | 한국의 국제전화 국가코드는 왜 82일까? 44 개의 자세한 답변

See also  Wszystko Po 1 Zł Online | Wszystko Za 1 Zł Z Shopee 상위 191개 답변

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 인공지능의 학습방법은 무엇일까?

  • EBS
  • ebs
  • EBS컬렉션
  • collection
  • 자연
  • nature
  • 자연다큐
  • 다큐
  • 생태계
  • 생태도감
  • 메이킹
  • BBC
  • 내셔널지오그래픽
  • 디스커버리
  • 과학
  • 과학채널
  • science
  • 과학정보
  • 미래과학
  • 생명과학
  • 유전자
  • 우주
  • AI
  • 인공지능
  • 실리콘벨리
  • 엔비디아
  • 게임가상현실
  • 자동차자율주행
  • 자율주행
  • 데이터
  • 딥러닝
  • 머신러닝
  • 빅데이터
  • VR
  • 가상현실
  • 비욘드

인공지능의 #학습방법은 #무엇일까?


YouTube에서 자율 주행 ai 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 인공지능의 학습방법은 무엇일까? | 자율 주행 ai, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

Leave a Comment