웨이모와 우버가 ‘CVPR 2020’ 컴퓨터 비전 및 패턴 인식 컨퍼런스에서 자율 주행 워크숍에서 자율 주행 시스템의 신뢰성과 안전성을 향상하는 연구를 발표했다.

21일 벤처비트에 따르면 웨이모(Waymo) 수석 과학자 드라고 엔구엘로브(Drago Anguelov)는 장면 지오메트리, 의미 및 역학을 다루는 카메라 및 거리 중심 프레임 워크 ViDAR을 자세히 설명했다. 우버(Uber)의 ATG(Advanced Technologies Group)는 차량 간 통신을 활용해 탐색, 교통 모델링 등을 수행하는 기술을 시연했다.

ViDAR

웨이모와 구글(Google)의 여러 AI 연구소 중 하나인 구글 브레인(Google Brain)과의 공동 프로젝트 ViDAR은 움직임에서 구조를 추론한다. 움직임 시차의 변화인 모션 시차를 활용해 이미지 시퀀스, 즉 자동차 장착 카메라로 캡처한 프레임에서 3D 지오메트리를 학습한다. 한 쌍의 이미지와 라이더 데이터가 주어지면 ViDAR은 미래 카메라 시점과 깊이 데이터를 예측할 수 있다.

ViDAR은 셔터 타이밍을 사용해 롤링 셔터를 설명한다. 장면의 일부를 동시에 기록하지 않는 카메라 캡처 방법이다. 이는 핸드 헬드 촬영 또는 움직이는 차량에서 촬영할 때 “젤로 효과(jello effect)”를 담당한다. 최대 5 대의 카메라를 지원할뿐만 아니라 완화 단계를 통해 프레임 워크는 더 빠른 속도로 변위를 피하면서 정확도를 향상시킬 수 있다.

ViDAR은 Waymo 내부적으로 사용돼 최첨단 카메라 중심의 깊이, 예를 들어 모션 (장면을 기준으로 카메라의 움직임을 추정) 및 다이내믹 모델을 제공한다. 그 결과 카메라 이미지로부터 깊이를 추정하는 모델과 보행자(보행자 포함)가 진행할 방향 장애물을 예측하는 모델이 만들어졌다.

 V2VNet 예측.

우버 V2VNet

우버 ATG 연구원은 자율 주행 자동차가 무선으로 정보를 효율적으로 공유할 수 있도록하는 V2VNet이라는 시스템을 만들었다. V2VNet을 사용하여 네트워크 내 차량은 데이터 세트, 타임 스탬프 및 위치 정보가 포함 된 메시지를 교환해 AI 모델의 시간 지연을 보상하고 데이터 세트에서 관련 데이터(라이더 센서 판독값 등)를 지능적으로 선택한다.

V2VNet의 성능을 평가하기 위해 ATG는 리더 시뮬레이터 시스템을 사용해 대규모 차량 대 차량 코퍼스를 컴파일했다. 특히, 팀은 최대 7대의 차량 관점에서 시뮬레이션한 실제 레이더 스윕(총 46,796 건의 훈련 및 4,404 개의 검증 프레임)에서 5,500 개의 로그를 재구성했다.

여러 실험 결과 V2VNet의 단일 차량에 비해 오류율이 68 % 낮았다. 네트워크에 있는 차량 수가 많을수록 성능이 향상됐다. 원거리 및 근접 물체 및 고속 주행 차량에 대한 대폭 개선을 보여준다. V2VNet이 실제 자동차에 채택될 것인지는 확실하지 않지만 우버 라이벌 웨이모의 무인 크라이슬러 퍼시피카 미니밴은 위험에 관한 정보와 이중 모뎀을 통해 경로 변경을 무선으로 교환한다.