인텔은 향상된 AI 기능에 중점을 둔 프로세서 포트폴리오 전체에 새로운 기술을 출시하고 공개했다.

인텔은 범용 칩부터 도메인 특정 칩에 이르는 CPU, GPU, FPGA, AI 가속칩 등 다양한 솔루션을 제공한다. 솔루션은 기업(Coper Lake), 클라우드 서비스(Ice Lake), 에지 컴퓨팅(Movidius 및 Stratix FPGA) 등을 포괄한다.

3세대 Xeon Scalable CPU: Cooper Lake, Ice Lake

잎서 Cooper Lake와 Ice Lake가 먼저 발표됐다.

텐센트(TenCent) 및 알리바바 클라우드(Alibaba Cloud) 등 대상 테스트에서 ‘Bfloat16’, 구글(Google) 새로운 부동 소수점 방식으로 추론 및 교육 처리량이 약 1.8 배 향상된 것으로 나타났다.

‘Bfloat16’은 기존 32 비트 형식의 다이나믹 레인지를 제공하면서도 AI 계산에 적절한 정밀도를 유지한다. 인텔은 Xeon 포트폴리오 로드맵을 강조했다. 이전의 ‘Xeon Scalable’ 라인은 2020 ‘Cascade Lake’에서 두 개의 제품으로 분기될 전망이다.

Cooper Lake는 현재 4-8 소켓에 사용할 수 있으며 Ice Lake는 이후 하이 볼륨 1-2 소켓 서버에 사용될 예정이다. 내년에는 라인이 1-8 소켓 부품의 단일 제품군으로 재구성된다.

인텔은 또한 Stratix 10 FPGA 버전을 발표했다. 새로운 제품에는 AI 고유의 기능이 향상되어 작년에 발표 된 Xilinx ACAP 아키텍처와 경쟁 할 수 있다.
NX(올해 말 출시)에는 AI 기능을 통합한 특수 에지 디바이스 기능이 포함된다.
새로운 NX는 8비트 정수 연산으로 텐서 블록에 대한 지원을 포함, 현재 MX 모델 성능의 15 배를 약속한다.

또한 NX에는 HBM 메모리 및 고 대역폭 네트워킹을 위한 온 패키지 지원을 포함해 대규모 배치, 더 빠른 메모리 액세스 및 스케일 아웃 상호 연결이 가능하다.

Xilinx Versal ACAP는 특정 AI 엔진과 통합 네트워킹을 제공하지만 Stratix 10 NX는보다 점진적인 접근 방식이다. 계산 텐서 블록과 소프트웨어를 사용해 AI 응용 프로그램에 구동된다.

아키텍처가 크게 바뀌는 대신, 인텔은 더 많은 다이 영역을 AI 전용으로 선택해 멀티 플라이어 및 MAC 수를 2에서 30으로 늘리고 4, 8, 12 및 16비트를 지원하도록 확장했다.

인텔은 NVIDIA V100과 비교해 성능 2.3 배에서 9.5 배를 주장했지만, Ampere A100은 여전히 괴물로 평가된다.

새로운 디자인과 비교하기 위해 더 많은 애플리케이션 성능 벤치 마크가 필요하다.

Optane 메모리 시리즈 업그레이드

한편 인텔은 Optane 메모리 시리즈를 지속적으로 업그레이드하고 있다.

이번 주 자사의 2 세대 Optane 시리즈(gen 2 Optane DIMMs)가 최신 버전 Xeon Scalable 프로세서(Cooper Lake)에 맞춰져 있으며 메모리 대역폭을 평균 25 % 향상 시킨다고 밝혔다. 이 조합은 클라우드 데이터 분석과 같은 애플리케이션을 지원하는 4 소켓 및 8소켓 서버를 목표로한다.

인텔은 최신 트리플 레벨 셀(TLC) 3D NAND 기술과 AI 및 분석 워크로드의 강력한 IO 요구 사항을 충족하는 완전히 새로운 저지연 PCIe 컨트롤러로 구축된 새로운 NAND 드라이브 쌍을 발표했다.

첫 Optane 메모리 솔루션과 마찬가지로 Optane 200은 6소켓 구성, 소켓 당 4.5TB를 차지하며 4 소켓 서버에서 총 18TB의 메모리를 제공한다.

대화형 데이터베이스 쿼리와 같은 빅 데이터 응용 프로그램에 사용되는 인메모리 프로세싱에 대한 요구로 인해 인텔과 다른 칩 제조업체는 메모리 대역폭을 향상했다.

인텔은 Spark 기반 클러스터 컴퓨팅 프레임 워크와 같은 분석 워크로드를 실행할 때 DRAM 디스크 스토리지 조합보다 Optane 메모리에서 쿼리가 8배 더 빠르게 실행된다고 주장한다.