자연어 기반 대화식 인공지능(AI)을 개발하고 실행하는데 걸리는 시간이 불과 50초대로 단축됐다.

엔비디아(Nvidia)가 13일(현지시각)는 현재 AI 언어 모델 ‘BERT’ 훈련에서 기록을 갱신했다고 밝혔다. BERT는 자연언어 처리(NLP)를 표준으로 알려진 모델이다.

엔비디아 GPU 플랫폼기반 오픈소스이며 ‘파이토치(PyTorch)’로 작성된 코드는 실행하기 쉽다. AI플랫폼은 1시간 이내에 모델을 훈련 할 수 있었다. 정확히는 단 53분 만에 기록적인 성과를 달성했다.

파이토치(PyTorch)는 텐서플로우(Tensorflow)와 함께 심층학습(Deep Learning) 구현에 가장 많이 사용되는 그래프(Graph) 기반 GPU 연산을 지원하는 패키지다.

훈련된 모델은 훈련을 통해 달성 한 학습 기능을 실제로 추론에 적용해 결과를 산출하는 데에서도 기록적인 2밀리 초를 달성했다. 10밀리 초는 업계 최고 수준으로 간주된다.

엔비디아는 NLP대화식 AI 및 GPU 하드웨어 사용자를 위해 BERT 훈련 코드와 깃허브(GitHub)를 통해 TensorRT 최적화 BERT 샘플을 공개하고 있다.

엔비디아는 1,472 V100 GPUs를 구동하는 92개 ‘Nvidia DGX-2H’로 구성한 ‘SuperPOD’ 시스템 중 하나에서 이 같은 훈련 기록을 냈다. ‘TensorRT’를 실행하는 ‘T4 GPUs’에서의 추론(inference)은 높은 수준으로 최적화된 CPU의 성능을 뛰어넘었다고 밝혔다.

엔비디아 리서치부문은 BERT 기반 기술인 트렌스포머(Transformers)로 현재까지 가장 큰 언어 모델을 구축하고 훈련했다. 이 커스텀 모델에는 83억 개의 매개 변수가 포함돼 현재 가장 큰 BERT모델인 BERT-Large보다 24배나 큰 크기다.

메가트론(Megatron)로 불리는 이 모델을 훈련하는 데 사용된 ‘PyTorch’ 코드는 공개, 유사한 대규모 트랜스포머 기반 언어 모델을 훈련 할 수 있도록 했다.

*PyTorch는 Torch라이브러리를 기반으로 하는 오픈소스 머신러닝(ML) 라이브러리로 컴퓨터 비전 및 자연어 처리와 같은 응용 프로그램에 사용된다. 페이스북(Facebook) AI 연구그룹이 주로 개발한다. Modified BSD 라이센스에 따라 공개된 무료 오픈 소스 소프트웨어다.