CÔNG TY CỔ PHẦN DỊCH VỤ CÔNG NGHỆ DATECH
Danh sách nội dung [Ẩn]
Mặc dù sức mạnh về GPU của NVIDIA đã được nhiều người biết đến, nhưng việc họ đột phá vào lĩnh vực kết nối mạng với Mellanox đang ngày càng có nhiều động lực. Công ty đã giới thiệu hai nền tảng mạng tốc độ cao mang tính đột phá được thiết kế cho các hệ thống AI: Quantum-X800 InfiniBand và Spectrum-X800 Ethernet. Những nền tảng này cung cấp tốc độ thông lượng chưa từng có lên tới 800 GB/s, thiết lập một chuẩn mực mới về khả năng kết nối mạng.
Quantum-X800 InfiniBand bao gồm bộ chuyển mạch Quantum 3400 và ConnectX-8 SuperNIC, có dung lượng băng thông gấp 5 lần và khả năng tính toán trong mạng gấp 9 lần so với các thế hệ trước. Mặt khác, Spectrum-X800 Ethernet, có bộ chuyển mạch Spectrum SN5600 800Gbps và Nvidia BlueField-3 SuperNIC, nhắm đến các đám mây AI tạo nhiều bên thuê và các doanh nghiệp lớn.
Trong một động thái thách thức các quan niệm truyền thống, Nvidia đã giới thiệu các dịch vụ vi mô được thiết kế riêng cho hoạt động suy luận trên các mô hình ngôn ngữ lớn (LLM). Được đặt tên là Nvidia Inference Microservices (NIM), phần mềm này, một phần của gói phần mềm Enterprise AI của Nvidia, cung cấp các công cụ suy luận được tối ưu hóa, API tiêu chuẩn ngành và hỗ trợ các mô hình AI được gói vào các thùng chứa để dễ dàng triển khai. NIM hợp tác với các nhà cung cấp phần mềm và nhà cung cấp nền tảng dữ liệu lớn, cho phép xử lý suy luận liền mạch trên các mô hình AI phổ biến.
Nhận thức được vai trò then chốt của lưu trữ trong xử lý AI, Nvidia đã khởi xướng chương trình xác thực đối tác lưu trữ Nvidia OVX. Nhằm mục đích chứng nhận các giải pháp lưu trữ cho khối lượng công việc sử dụng nhiều đồ họa và AI, OVX cung cấp các quy trình xác thực được tiêu chuẩn hóa cho các đối tác. Các công ty hàng đầu như DDN, Dell PowerScale, NetApp, Pure Storage và WEKA nằm trong số những người tham gia đầu tiên tìm kiếm xác thực bộ lưu trữ OVX.
Tất cả các OEM lớn đều nắm bắt cơ hội do kiến trúc Blackwell của Nvidia mang lại. Dell Technologies, Lenovo, Hewlett Packard Enterprise và Supermicro đã công bố các sản phẩm mới do Blackwell cung cấp. Chúng bao gồm các máy chủ hàng đầu, hệ thống AI và giải pháp chìa khóa trao tay, nhấn mạnh sự sẵn sàng của ngành trong việc nắm bắt các khả năng AI thế hệ tiếp theo.
Phối hợp với Amazon, NVIDIA chuẩn bị nâng cấp Project Ceiba, một trong những siêu máy tính nhanh nhất thế giới, với bộ xử lý Blackwell. Ban đầu có hơn 16.000 bộ xử lý AI H100 Hopper, bản nâng cấp của Project Ceiba với 10.386 siêu chip Blackwell B200 được dự đoán sẽ mang lại hiệu suất nhanh hơn tới sáu lần so với kế hoạch ban đầu, có khả năng đạt được 414 exaFLOPS đáng kinh ngạc.
Giữa sự phấn khích xung quanh Blackwell, GTC 2024 của Nvidia đã giới thiệu vô số cải tiến vượt xa sự mong đợi, tái khẳng định cam kết của Nvidia trong việc vượt qua các ranh giới của AI và điện toán hiệu năng cao.
Để biết thêm thông tin chi tiết về các công nghệ tiên tiến và tiến bộ của ngành, hãy truy cập Datech.vn để khám phá các giải pháp mới nhất và luôn dẫn đầu trong thế giới công nghệ đang phát triển nhanh chóng.
CÔNG TY CỔ PHẦN DỊCH VỤ CÔNG NGHỆ DATECH