컴퓨터 비전 및 패턴 인식 컨퍼런스’CVPR 2019′ 마지막 날인 20일 자율주행차량, 증강/가상현실(AR/VR), 그래프 구조 네트워크, 심층학습(Deep learning), 3D/4D 모델링를 주제로 발표가 이어졌다.

중국 인터넷 검색업체 바이두(Baidu)는 자율주행차량 오픈소스 플랫폼을 선보였다.

바이두 퍼셉션(perception)팀을 이끌고 있는 태은 최(Tae Eun Choe) 박사는 자율주행 커뮤니티의 하드웨어와 소프트웨어를 통합한 바이두 아폴로(Apollo)는 세계 최대 개방형 자율 주행 플랫폼을 표방했다.

발표에따르면 바이두는 130여 글로벌 파트너사와 자율주행 차량을 대량 생산할 수있는 기술을 제조업체에 제공 할 계획이다. 이를 위해 100여대의 차량을 아폴로 3.5(Apollo 3.5) 플랫폼을 기반으로 샌프란시스코 베이 지역에서 운용할 계획이다.

바이두는 CVPR2019에서 세 가지 데이터 세트를 사용해 자전거, 보행자 및 기타 차량의 존재를 가장 정확하게 예측하는 경쟁 대회를 주최했다.

레티나 VR기기를 제조하는 미국 스타트업 매직립(Magic Leap)은 청중들에게 몰입형 공간 컴퓨팅 플랫폼을 만드는 네 가지 주요요소인 머리 추적, 재구성, 안구 및 손 추적에 대한 깊이있는 분석을 제공했다.

‘그래프 구조 네트워크를 통한 학습 재현(Learning Representations via Graph-structured Networks’ 튜토리얼 세션에서는 카네기멜론대 시아롱 왕(Xialong Wang) 등 7명의 연구자가 관련 연구를 소개했다.

최근 몇 년 동안 컴퓨터 비전 작업을 위한 AI 알고리즘, 합성곱 신경망(convolutional neural network) 채택이 급격히 증가했다. 그러나 이러한 네트워크는 페어와이즈 관계(pairwise relation), 글로벌 컨텍스트 및 공간격자(spatial grids)를 넘어서는 불규칙한 데이터 처리 등 고난이도 AI 작업을 위해 여러 컴퓨터 비전 속성을 적절하게 모델링하지 못한다.

연구자들은 그래프 내에서 시각적 요소를 통해 정보를 통합 전달하는 네트워크 모듈을 구축, 처리할 데이터를 그래프로 재구성하는 방법을 소개했다.

연구진은 “우리는 이러한 전파(propagation) 모듈을 그래프 구조(graph-structured networks) 네트워크라고 부른다. 우리는 비 지역 신경망, 공간 전파 네트워크, 희소 고차원(sparse high-dimensional) CNN 및 씬 그래프(scene graph) 네트워크를 포함한 일련의 효과적인 그래프 구조 네트워크”라고 말했다.

‘감지, 재구성, 추적 및 매개 변수화(Detect, Reconstruct, Track and Parameterize Humans)’는 오전과 오후 세션에서 개최 된 세션 중 하나다. 재구성, 추적 및 텍스처링을위한 체적 캡처 파이프 라인을 구축하는 방법을 소개했다.

AR/VR을 위한 4D를 통한 견고한 인체 체적 퍼포먼스 포착 연구에대해 구글 션 퍼넬로(Sean Fanello) 연구원은 “체적 4D 성능 캡처는 AR / VR 컨텐츠 생성을위한 기본 요소”라고 강조했다.

한편 IEEE / CVF CVPR 2019 컨퍼런스는 참석자 절반은 업계에서 나머지 참석자는 학계 및 기타 분야 였다. 업계 상위 3개 분야는 제조, 서비스 및 교육이었습니다. 모든 참석자 중 거의 3 분의 1은 10,000명 이상 회사 직원이었다. 참석자의 63 %가 18세에서 34세 사이 였다.

컨퍼런스 첫 2일간 열린 120여개 워크숍 튜토리얼 주제는 컴퓨터비전, 시각 인식, 이미지 분석 및 심층학습 혁신 등 개발 분야를 포괄했다. 오늘날 로봇기술, 가상현실 및 증강현실, 건강관리 및 자율주행차량 등에서 컴퓨터 비전 기술을 사용한다.