인텔은 인공지능(AI) 모델 훈련 및 추론을 가속화하기 위해 너바나NNP(Nervana Neural Network Processor) 라인업으로 두 개의 새 프로세서를 발표했다.

인텔이 이스라엘 AI 스타트업 하바나 랩(Habana Labs)과 뉴로블레이드(NeuroBlade)에 투자한 이후 나온 첫 제품이다.

인텔은 이번 주 조 미국 캘리포니아주 팔로알토(Palo Alto)에서 열린 연례 기술 심포지엄 핫칩스컨퍼런스(Hot Chips Conference)에서 AI 칩을 선보였다. 칩은 각각 스프링 크레스트(Spring Crest)와 스프링 힐(Spring Hill)로 이름했다.

인텔 너바나NNP 시리즈는 2016년에 인수한 너바나 시스템스(Nervana Systems) 이름을 따랐다. 이 칩은 이스라엘의 하이파 시설에서 설계되었으며 AI 훈련과 데이터 추론에 특화됐다. AI 제품그룹 인텔 부사장 나빈 라오(Naveen Rao)는 “AI를 지원하는 세계에서는 특정 사용 사례에 맞춘 프로세서 조합에 하드웨어 솔루션을 적용해야한다”며 “이는 가능한 한 데이터에 가장 근접한 최상의 결과를 제공해 특정 애플리케이션 요구 사항의 지연 시간을 줄인다”고 말했다.

인텔 너바나 NNP-T(Intel Nervana Nervana Neural Network Processor for Training)는 고성능 저전력으로 다양한 딥러닝(Deep Learning) 모델 데이터를 처리하는 동시에 메모리 효율을 향상시킨다. 올해 7월 초, 중국 바이두(Baidu)는 너바나NNP 개발 파트너로 합류했다.

다른 하나는 추론을 위한 너바나 신경망 프로세서(Intel Nervana NNP-I)다. AI 추론에 초점을 둔 NNP-I는 맞춤형 AI 추론 컴퓨팅 엔진을 사용해 저전력으로 더 높은 성능을 제공한다.

로이터에 따르면 페이스북은 이미 인텔의 새로운 칩을 사용 중이다. 새로운 하드웨어 칩은 AI 분야에서 복잡한 계산에서 인텔 제온(Xeon) 프로세서에 도움이 된다는 설명이다.

업계의 AI 알고리즘을 처리하기 위해 기계학습(machine learning) 프로세서 경쟁은 치열하다. 구글(Google) TPU(Tensor Processing Unit), 아마존(Amazon)의 ‘AWS Inferentia’ 및 엔비디아(NVIDIA) 딥러닝 가속기 (NVDLA)는 복잡한 계산의 필요성이 계속 증가함에 따라 회사에서 가장 널리 사용되는 솔루션 중 하나다.

그러나 구글 텐플로우(TensorFlow) ML 라이브러리용으로 특별히 설계된 TPU와 달리 NNP-T는 바이두 ‘PaddlePaddle’, 페이스북 ‘PyTorch’ 등 다른 딥러닝 프레임워크와도 통합된다.