심층학습(Deep learning) 모델 등 차세대 컴퓨팅 문제를 해결하기 위한 인공지능(AI) 가속 칩을 개발 중인 셀레브라(Cerebras)는 19일(현지시각) 엔드유저 컴퓨팅제품 ‘Cerebras CS-1’을 출시했다. 미국 아르곤 국립연구소(Argonne National Laboratory, ANL)가 첫 번째 유저가 됐다.

CS-1은 AI 워크플로를 처리하기 위해 데이터 센터 용도로 설계된 완결된 솔루션 제품이다. 셀레브라는 자체 개발한 ‘CS-1’ 칩이 GPU 1,000개 이상 성능을 제공한다고 주장했다.

앞서 경쟁업체 영국 그레프코어(Graphcore)는 이번 주말 마이크로소프트 에저(Azure) 클라우드에 데이터센터 AI 가속칩을 공급한다고 발표했다.

또한 AI칩 전력 문제를 해결하기 위해 모바일 칩 설계 적용을 시도하는 애플(Apple) 전 수석 칩 설계자들 주도하는 스타트업 누비아(NUVIA)도 500만 달러 펀딩에 성공, 데이터센터 칩 개발을 본격화 했다.

CS-1. credit:Cerebras.

8월 세계에서 가장 큰 실리콘 칩인 ‘웨이퍼 스케일 엔진(Wafer Scale Engine)’을 발표한 셀레브라(Cerebras)는 전체 머신러닝(machine learning ) 모델을 하나의 거대한 칩에 구현했다.

‘Cerebras CS-1’은 웨이퍼 스케일 엔진(WSE, 실제 처리코어) 프로세서를 운영하고 데이터 센터에 통합하는 데 필요한 모든 냉각, 네트워킹, 스토리지 및 기타 장비가 포함됐다. 높이는 26.25인치로 40만개의 처리 코어, 18기가 바이트의 온칩 메모리, 초당 9페타 바이트의 온다이 메모리 대역폭, 12기가비트 이더넷 연결 CS-1 데이터 이동 시스템으로 구성됐다. 전력은 20 킬로와트 급이다.

셀레브라는 CS-1이 GPU 1,000개 이상의 성능을 제공한다고 주장한다.

또한 이 회사는 하드웨어 자체 외에도 개발자가 텐서플로(TensorFlow) 및 파이토치(PyTorch) 등 인기있는 ML 라이브러리를 사용해 AI 워크플로를 CS-1 시스템과 통합할 수 있는 포괄적 소프트웨어 플랫폼 출시를 발표했다.

테크크런치에 따르면 앤드류 펠트만(Andrew Feldman) CEO는 CS-1이 기본 WSE칩의 완벽한 기능을 수행하는 데 필요한 인프라를 제공할 수 있다고 설명했다. 이 인프라에는 고성능 수냉 시스템이 포함됐다.

왼쪽 셀레브라(Cerebras) 칩은 아이패드 크기로 AI 가속에 사용되는 엔비디아(Nvidia) GPU 보다 수십배 크다. credit: Cerebras.

그는 웨이퍼 규모 칩이 작은 칩에 비해 “국소성을 활용해 의사소통 시간을 크게 줄였다”고 말했다. 설명에 따르면 컴퓨터 과학에서 국소성은 지연과 처리 마찰을 최소화하는 클라우드 내에서 적절한 장소에 데이터를 배치하고 계산한다. 이론적으로 전체 ML 모델을 호스팅 할 수 있는 칩을 사용하면 데이터가 여러 스토리지 클러스터 또는 이더넷 케이블을 통해 흐를 필요가 없다. 칩이 작동하는 데 필요한 모든 자원을 거의 즉시 활용할 수 있다.

셀레브라와 ANL에 따르면, CS-1은 ‘암, 외상성 뇌 손상 등 사회에 중요한 영역”에 대한 연구를 지원하는데 활용된다. 제품 개발에 성공하며 급성장한 셀레브라는 181명 엔지니어들이 추가 제품 개발을 맡고 있다.