Skip to main content

본문내용

종목정보

종목토론카테고리

게시판버튼

게시글 제목

엔비디아, 차세대 AI 반도체 '블랙웰' 공개

작성자 정보

세자

게시글 정보

조회 38 2024/03/19 19:46

게시글 내용

연산 처리 속도 기존보다 2.5배
SK하이닉스, HBM3E D램 납품

젠슨 황 엔비디아 CEO가 18일 ‘GTC 2024’에서 신상품을 선보이고 있다. AFP연합뉴스

인공지능(AI) 반도체 선두주자 미국의 엔비디아가 18일(현지시간) 미국 캘리포니아주에서 열린 세계 최대 규모 AI 개발자 콘퍼런스(GTC)를 통해 새로운 그래픽처리장치(GPU) ‘블랙웰’ 기반 차세대 AI칩 B100을 전 세계에 공개했다. 19일 엔비디아에 따르면 B100의 연산 처리 속도는 기존 H100보다 2.5배 더 빠르다. 엔비디아 젠슨 황 최고경영자는 “블랙웰은 모든 산업에서 AI를 구현시키며, 우리 회사 역사상 가장 성공적인 제품이 될 것”이라고 말했다.

엔비디아는 B100의 가격을 이날 공개하지 않았다. 전작인 H100이 개당 최대 4만 달러(5400만 원)에 거래되는 것을 감안할 때 B100은 5만 달러 수준이 될 것이란 관측이다. 블랙웰은 최대 10조 개의 파라미터로 확장되는 모델에 대한 AI 훈련과 실시간 거대 언어모델(LLM) 추론을 지원한다. 대만 반도체 기업 TSMC 공정으로 제조된다.

엔비디아는 이날 서로 다른 AI 모델을 서로 연결하고 쉽게 배포할 수 있는 ‘엔비디아 인퍼런스 마이크로서비스’(NIM)라는 소프트웨어도 발표했다. 로봇 훈련을 가능케하는 플랫폼 구축을 위한 프로젝트 그루트(GROOT)도 선보였다. 엔비디아가 AI 칩 개발사가 아니라 하드웨어와 소프트웨어를 구축해 AI의 미래 종점인 로봇을 개발하기 위한 플랫폼을 제공하겠다는 의지로 풀이된다.

이날 콘퍼런스에는 전 세계 D램 시장 점유율 1~2위인 삼성전자와 SK하이닉스가 마이크론, 구글, 아마존 등과 함께 전시 부스를 꾸렸다. 삼성전자는 업계 최초로 D램 칩을 12단까지 쌓은 5세대 고대역폭 메모리 HBM(HBM3E) 실물을 전시했다.

특히 SK하이닉스는 엔비디아의 최신 AI 칩인 H100 GPU에 4세대인 HBM3를 탑재하고 있다는 점을 부각했다. SK하이닉스는 이날 메모리 업체 중 가장 먼저 고대역폭 메모리(HBM) 5세대인 HBM3E D램을 엔비디아에 납품한다고 밝혔다. HBM3 시장의 90% 이상을 점유한 SK하이닉스는 지난 1월 차세대인 HBM3E 8단 제품의 초기 양산을 시작하고, 고객 인증 등을 준비해 왔다.

게시글 찬성/반대

  • 0추천
  • 0반대
내 아이디와 비밀번호가 유출되었다? 자세히보기 →

운영배심원의견

운영배심원 의견?
운영배심원의견이란
운영배심원 의견이란?
게시판 활동 내용에 따라 매월 새롭게 선정되는
운영배심원(10인 이하)이 의견을 행사할 수 있습니다.

운영배심원 4인이 글 내리기에 의견을 행사하게 되면
해당 글의 추천수와 반대수를 비교하여 반대수가
추천수를 넘어서는 경우에는 해당 글이 블라인드 처리
됩니다.

댓글목록

댓글 작성하기

댓글쓰기 0 / 1000

게시판버튼

광고영역