Tại hội nghị dành cho nhà phát triển GTC 2025, Nvidia đã giới thiệu loạt phần cứng và phần mềm thế hệ mới, với trọng tâm tăng sức mạnh AI.
Hội nghị thường niên GTC (GPU Technology Conference) của Nvidia, diễn ra tại San Jose, California (Mỹ). Năm nay, sự kiện bắt đầu từ ngày 17 đến 21/3, trong đó bài phát biểu quan trọng đã được CEO Jensen Huang đưa ra ngày 18/3, giới thiệu loạt sản phẩm mới chủ lực của công ty.
GPU Blackwell Ultra GB300
Dự kiến ra mắt cuối năm nay, Blackwell Ultra GB300 là chip đồ họa AI được nâng cấp từ phiên bản Blackwell năm 2024. GPU này vẫn giữ nguyên sức mạnh tính toán 20 petaflops AI như "đàn anh", nhưng được nâng cấp bộ nhớ HBM3e từ 192 GB lên 288 GB. Nếu so với mẫu H100 ra mắt năm 2022, Blackwell Ultra có sức mạnh hơn 1,5 lần về suy luận AI, có thể xử lý 1.000 token mỗi giây, gấp 10 lần mẫu chip ra mắt cách đây ba năm.
Chip AI Blackwell Ultra GB300. Ảnh: Nvidia
"AI đã có bước tiến vượt bậc. AI lý luận và Tác nhân AI đòi hỏi hiệu suất tính toán cao hơn gấp bội", ông Huang cho biết. "Chúng tôi thiết kế Blackwell Ultra để phục vụ điều đó. Đây là nền tảng đa năng duy nhất có thể thực hiện suy luận AI tiền đào tạo, hậu đào tạo và lý luận hiệu quả bậc nhất".
Nvidia sẽ bán chip mới theo cụm, với 72 GPU Blackwell Ultra và 36 CPU Nvidia Grace, có thể kết nối nền tảng đám mây riêng Nvidia DGX Cloud, được giới thiệu là "được quản lý hoàn toàn, toàn diện trên đám mây hàng đầu, tối ưu hóa hiệu suất với phần mềm, dịch vụ và chuyên môn cho các tác vụ AI".
Bên cạnh đó, Nvidia cũng cung cấp hệ thống nhỏ hơn với tên gọi B300 NVL16. So với thế hệ Hopper trước đó, bộ chip có khả năng suy luận nhanh hơn 11 lần đối với các mô hình ngôn ngữ lớn, khả năng tính toán cao hơn 7 lần và bộ nhớ lớn hơn 4 lần.
Theo Nvidia, các đối tác đã đặt hàng Blackwell Ultra có Cisco, Dell, HP, Lenovo và Supermicro. Hãng chưa công bố giá sản phẩm.
"Siêu chip" Vera Rubin
Vera Rubin được ông Huang nhấn mạnh là kiến trúc chip AI tiếp theo của Nvidia. Phiên bản này sẽ ra mắt năm 2026, trong khi bản Rubin Ultra có thể trình làng năm 2027.
CEO Nvidia Jensen Huang giới thiệu Vera Rubin trên sân khấu sự kiện. Ảnh: The Verge
Theo công bố, Vera Rubin sẽ đạt hiệu năng tới 50 petaflops, trong khi Rubin Ultra là sự kết hợp của hai mẫu Vera Rubin, đạt hiệu năng 100 petaflops. Trong khi mỗi bộ xử lý Rubin kết hợp hai GPU để tạo thành một chip duy nhất, Rubin Ultra kết hợp bốn GPU. Các hệ thống này được nhấn mạnh sẽ giúp suy luận AI "nâng lên tầm cao mới".
Một cụm NVL576 của Rubin Ultra sẽ có hiệu năng gấp 14 lần so với cụm Blackwell Ultra. Theo Nvidia, Vera Rubin NVL576 sẽ được đặt trong thiết kế giá đỡ máy chủ làm mát bằng chất lỏng mới có tên là Kyber Rack.
Sau kiến trúc Vera Rubin, Nivdia cũng đã tính đến một kiến trúc mới hơn là Feynman, dự kiến phát hành vào năm 2028. Tuy nhiên, công ty chưa công bố chi tiết về kiến trúc mới này.
Máy tính cá nhân AI DGX
DGX gồm hai phiên bản DGX Spark và DGX Station, được Nvidia giới thiệu là "siêu máy tính để bàn". Sản phẩm chạy chip Blackwell Ultra, được thiết kế để hỗ trợ các nhà phát triển có thể trực tiếp chạy các mô hình AI suy luận lớn ngay tại nhà thay vì cần đến các hệ thống lớn. TheoReuters, đây được xem là thách thức trực tiếp đối với các sản phẩm PC, đặc biệt là máy Mac cao cấp của Apple.
Bo mạch chủ máy tính để bàn DGX Station tích hợp Blackwell Ultra của Nvidia. Ảnh: Nvidia
Trong đó, DGX Spark mang lại khả năng xử lý tới 1.000 nghìn tỷ phép tính mỗi giây, hỗ trợ tinh chỉnh AI và suy luận với các mô hình lý luận AI mới nhất, gồm mô hình ứng dụng trí tuệ nhân tạo vật lý Nvidia Cosmos Reason và mô hình nền tảng robot Nvidia GR00T N1.
DGX Station mạnh hơn với bộ nhớ khổng lồ 784 GB giúp tăng tốc khối lượng công việc đào tạo và suy luận quy mô lớn. Nền tảng ConnectX-8 SuperNIC giúp tối ưu hóa để tăng tốc khối lượng công việc tính toán AI siêu quy mô. Với hỗ trợ mạng đến 800 Gb/giây, ConnectX-8 SuperNIC cho kết nối mạng cực nhanh và hiệu quả nhiều DGX Station lại với nhau để tăng tốc suy luận.
DGX Spark và DGX Station được sản xuất bởi Asus, Boxx, Dell, HP, Lambda và Supermicro, đã cho nhận đặt hàng và giao hàng cuối năm nay, nhưng chưa công bố giá.
Chip mạng quang tử silicon Spectrum-X và Quantum-X
Bộ đôi chip mạng quang tử silicon mới của Nvidia sẽ cho phép các "nhà máy AI" như trung tâm dữ liệu kết nối hàng triệu GPU trên nhiều địa điểm khác nhau, đồng thời giảm đáng kể mức tiêu thụ năng lượng. Spectrum-X giúp tăng tốc hiệu suất mạng AI lên 1,6 lần so với Ethernet truyền thống, còn Quantum-X là chip mạng 800 Gb/giây đầu cuối có hiệu suất cao nhất được thiết kế cho AI quy mô lớn đầu tiên trên thế giới.
Chip Quantum-X. Ảnh: Nvidia
Theo Nvidia, các mẫu chip mới sử dụng bộ chuyển mạch Ethernet Spectrum-4 và BlueField-3 SuperNIC giúp mang lại hiệu suất cao nhất cho AI, máy học và xử lý ngôn ngữ tự nhiên, cũng như các ứng dụng công nghiệp đa dạng. Quantum-X dự kiến sẽ có mặt vào cuối năm nay, còn Spectrum-X vào năm 2026.
Phần mềm Dynamo
Nvidia Dynamo là nền tảng suy luận module với độ trễ thấp, mã nguồn mở để phục vụ các mô hình AI tạo sinh trong các môi trường phân tán. Phần mềm này cho phép mở rộng quy mô liền mạch đối với khối lượng công việc suy luận GPU lớn, trong khi điều hướng thông minh, quản lý bộ nhớ tối ưu và truyền dữ liệu liền mạch. Mục đích là tăng tốc quá trình suy luận, trong đó các mô hình AI sẽ "suy nghĩ" để trả lời một câu hỏi theo nhiều bước, thay vì chỉ đưa ra một câu trả lời duy nhất.
Dynamo hỗ trợ tất cả các nền tảng AI suy luận và tối ưu hóa mô hình ngôn ngữ lớn (LLM) phổ biến, gồm cả DeepSeek-R1 của DeepSeek hay Llama của Meta. Phần mềm phát hành miễn phí.
Nvidia Isaac GR00T N1
GR00T N1 là mô hình được Nvidia thiết kế cho robot hình người và gọi là "nền tảng robot hình người mở đầu tiên trên thế giới". Nó được trang bị hệ thống "kép" giúp robot có thể suy nghĩ nhanh và chậm - một yếu tố khá giống với các mô hình AI lý luận. Trong đó,"Hệ thống 1" là mô hình hành động suy nghĩ nhanh, phản ánh phản xạ hoặc trực giác của con người, còn "Hệ thống 2" là mô hình suy nghĩ chậm để đưa ra quyết định có chủ đích, có phương pháp.
CEO Nvidia Jensen Huang đứng cạnh robot Blue chạy GR00T N1 trên sân khấu sự kiện. Ảnh: Nvidia
"Bộ khung" cho GR00T N1 gồm Newton, một công cụ vật lý nguồn mở được phát triển cùng với Google DeepMind và Disney Research, và được xây dựng để chế tạo robot. Nó có thể dễ dàng khái quát hóa các tác vụ thông thường như cầm nắm, di chuyển đồ vật bằng một hoặc cả hai tay và chuyển đồ vật từ tay này sang tay khác, hoặc thực hiện các tác vụ nhiều bước đòi hỏi bối cảnh dài và kết hợp các kỹ năng chung với nhau như xử lý vật liệu, đóng gói và kiểm tra.
Các nhà phát triển robot hình người tiếp cận sớm với GR00T N1 có Agility Robotics, Boston Dynamics , Mentee Robotics và NEURA Robotics. Isaac GR00T N1 dự kiến công bố cuối năm nay.
Ý kiến ()