'Đại gia' ngành chip Nvidia tung siêu phẩm chip AI 'mạnh nhất thế giới': Nhanh gấp 30 lần phiên bản cũ, 'át chủ bài' của thị trường tỷ USD

nguoiquansat.vn

Ngày đăng 19/03/2024 15:10

'Đại gia' ngành chip Nvidia tung siêu phẩm chip AI 'mạnh nhất thế giới': Nhanh gấp 30 lần phiên bản cũ, 'át chủ bài' của thị trường tỷ USD

Blackwell là sản phẩm kế thừa của GPU H100 và H200 vốn rất được kỳ vọng của Nvidia (NASDAQ:NVDA) và theo công ty, đây là con chip mạnh nhất thế giới. Mới đây, CEO Nvidia Jensen Huang đã trình làng bộ xử lý đồ họa (GPU) Blackwell rất được mong đợi của công ty tại hội nghị GTC thường niên của công ty ở San Jose, California.

Blackwell là sản phẩm kế thừa của GPU H100 và H200 vốn rất được kỳ vọng của Nvidia và theo công ty, đây là con chip mạnh nhất thế giới. Được biết, chip H100 và H200 đã trở thành GPU phù hợp cho các ứng dụng AI, giúp tăng doanh thu trung tâm dữ liệu của Nvidia trong vài quý vừa qua.

Chỉ riêng trong quý gần đây nhất, công ty đã báo cáo doanh thu từ trung tâm dữ liệu là 18,4 tỷ USD. Để so sánh sự tăng trưởng của phân khúc này, Nvidia đã báo cáo doanh thu hàng năm là 27 tỷ USD trong cả năm 2022.

Huang cho biết trong một tuyên bố: “Trong ba thập kỷ, chúng tôi đã theo đuổi điện toán tăng tốc với mục tiêu tạo ra những đột phá mang tính biến đổi như học sâu và AI”.

“Generative AI là công nghệ định hình thời đại chúng ta. Trong đó, GPU Blackwell là động lực thúc đẩy cuộc cách mạng công nghiệp mới này. Làm việc với những công ty năng động nhất trên thế giới, chúng tôi sẽ hiện thực hóa lời hứa về AI cho mọi ngành công nghiệp", ông nhấn mạnh.

CEO Nvidia Jensen Huang đã trình làng bộ xử lý đồ họa (GPU) Blackwell rất được mong đợi của công ty tại hội nghị GTC thường niên của công ty ở San Jose, California
Theo đó, chip Blackwell được Nvidia giới thiệu có thể đạt tốc độ xử lý AI nhanh hơn từ 7 đến 30 lần tùy tác vụ so với phiên bản Hopper H100.

"Blackwell nhanh hơn Hopper, nhưng quan trọng là nó có khả năng tính toán trong mạng, yếu tố giúp tốc độ xử lý AI nhanh hơn nữa cũng như thực hiện những công việc khó khăn trước đây, như biến lời nói thành video 3D".

Blackwell có 208 tỷ bóng bán dẫn, cao gấp đôi so với 80 tỷ trên chip H100, có năng lực xử lý AI đạt 20 petaflop (20 triệu tỷ phép tính mỗi giây), gấp năm lần mức 4 petaflop của H100. Theo Nvidia, trên thực tế, Blackwell xử lý tác vụ nhanh gấp 7-30 lần H100, đồng thời giảm 25 lần chi phí cũng như mức tiêu thụ năng lượng.

Tải ứng dụng
Tham gia cùng hàng triệu người dùng để luôn nắm bắt thông tin thị trường tài chính toàn cầu với Investing.com.
Tải Xuống Ngay

CEO Nvidia lấy ví dụ, trước đây việc huấn luyện một mô hình AI 1.800 tham số cần đến 8.000 GPU và 15MW điện. Giờ đây, 2.000 GPU B200 có thể thực hiện khối lượng công việc tương tự với lượng điện năng chỉ 4MW.

Chip Blackwell
Các khách hàng của Nvidia, bao gồm Microsoft (NASDAQ:MSFT), Amazon (NASDAQ:AMZN), Google (NASDAQ:GOOGL), Meta và Tesla (NASDAQ:TSLA), hiện đang sử dụng hoặc tích cực phát triển chip AI nội bộ của riêng họ để thay thế cho các sản phẩm của Nvidia. Một phần lý do là để họ không phải trả số tiền ước tính lên tới hàng chục nghìn USD cho những con chip của Nvidia. Nhưng một lý do khác là chip của Nvidia đặc biệt ngốn điện.

Bằng cách đề cập đến khả năng tiết kiệm năng lượng của mình với Grace Blackwell Superchip, Nvidia đang trực tiếp giải đáp những lo lắng của khách hàng.

Một trong những cải tiến then chốt là hệ thống Transformer Engine thế hệ hai nhân đôi khả năng tính toán, băng thông và kích thước mô hình. Khi kết hợp bộ chuyển mạch NVLink, hệ thống có thể hỗ trợ tối đa 576 GPU giao tiếp với nhau, với băng thông hai chiều 1,8 Tb/giây.

"Không có vấn đề về bộ nhớ, cũng không có vấn đề về bộ nhớ đệm. Đơn giản Blackwell là chip khổng lồ. Tham vọng của nó là vượt lên giới hạn của vật lý", Huang cho biết.

GPU Blackwell và GB200 Superchip sẽ là những sản phẩm dẫn đầu mới của Nvidia khi nói đến đào tạo và suy luận AI, điều đó có nghĩa là chúng sẽ có nhu cầu cao ngay khi tung ra thị trường.

Huang chưa công bố giá cho B200. Trước đó, chip H100 có giá 30.000-40.000 USD (741-988 triệu đồng). Hãng cũng hướng tới khách hàng mua số lượng lớn bằng cách đóng gói nhiều chip vào một thiết kế duy nhất, gọi là GB200 NVL72. Gói chứa 72 chip AI, 36 bộ xử lý trung tâm, 600.000 bộ phận và nặng 1.361 kg. CEO Nvidia cũng tiết lộ Amazon, Google, Microsoft và Oracle sẽ dùng GB200 NVL72 cho trung tâm dữ liệu của mình.

Cùng với phần cứng, Nvidia cũng giới thiệu công cụ phần mềm mới, được gọi là Microservice. Bộ công cụ này giúp cải thiện hiệu quả hệ thống cho nhiều mục đích sử dụng khác nhau, giúp doanh nghiệp dễ dàng kết hợp mô hình AI vào công việc hơn, giống như một hệ điều hành máy tính tốt có thể giúp ứng dụng hoạt động tốt.

Không chịu ngồi yên, các đối thủ cạnh tranh như AMD (NASDAQ:AMD) và Intel (NASDAQ:INTC) cũng đang phát triển chip của riêng mình với hy vọng cuối cùng sẽ bắt kịp được Nvidia.

>> Vượt 'ông lớn' dầu khí của Saudi Arabia, Nvidia trở thành công ty có giá trị lớn thứ 3 thế giới