A100, con chip trị giá khoảng 10.000 USD của Nvidia, đang được coi là yếu tố quan trọng nhất nh́ ngành trí tuệ nhân tạo.
Một phần mềm có thể viết luận văn, báo, hay vẽ tranh không kém cạnh các họa sĩ đă tạo ra ‘cơn sốt’ mới trong ngành công nghệ. Trong bối cảnh đó, các công ty như Microsoft và Google nỗ lực tích hợp AI tiên tiến vào công cụ t́m kiếm, trong khi các đối thủ trị giá hàng tỷ USD như OpenAI và Stable Diffusion chạy đua phát hành phần mềm.
Với khả năng nạp ‘năng lượng’ cho các ứng dụng, một con chip trị giá khoảng 10.000 USD đang được coi là yếu tố quan trọng nhất nh́ ngành trí tuệ nhân tạo: Nvidia A100.
Theo Nathan Benaich, một nhà đầu tư, A100 đă trở thành “con ngựa đầu tàu” vào thời điểm hiện tại. Công ty sản xuất ra nó hiện chiếm tới 95% thị trường bộ xử lư đồ họa sử dụng cho máy học.
Theo CNBC, A100 rất lư tưởng cho loại mô h́nh máy học hỗ trợ ChatGPT hoặc Bing AI. Việc nó có thể thực hiện đồng thời nhiều phép tính đơn giản được cho là có thể giúp ích cho việc đào tạo và sử dụng các mô h́nh mạng lưới thần kinh.
Công nghệ đằng sau A100 ban đầu được sử dụng để hiển thị đồ họa 3D phức tạp trong tṛ chơi. Nó thường được gọi là bộ xử lư đồ họa hoặc GPU, song ngày nay, A100 của Nvidia nhắm mục tiêu sang các tác vụ học máy và trung tâm dữ liệu chứ không đơn thuần chỉ là các PC tṛ chơi nữa. Các công ty lớn hoặc startup làm việc dựa trên chatbot và tŕnh tạo h́nh ảnh sẽ cần hàng trăm hoặc hàng ngh́n con chip trên của Nvidia.
Theo các chuyên gia, cần hàng trăm GPU để huấn luyện các mô h́nh trí tuệ nhân tạo. Các con chip cũng cần đủ mạnh để có thể xử lư hàng terabyte dữ liệu một cách chính xác và nhanh chóng. Điều này đồng nghĩa với việc các công ty AI cần tiếp cận rất nhiều A100. Một số người c̣n coi số lượng A100 mà họ có quyền truy cập là chỉ dấu của sự tiến bộ.
Nvidia độc chiếm thị trường xử lư đồ họa: Sở hữu con chip ‘tối tân’, khiến Google phải chi tới 80 tỷ USD để vận hành chatbot
“Một năm trước, chúng tôi có 32 con chip A100”, Giám đốc điều hành của Stability AI, Emad Mostaque viết trên Twitter. Được biết, Stability AI là công ty hỗ trợ phát triển Stable Diffusion - một công cụ tạo h́nh ảnh thu hút sự chú ư của công chúng vào mùa thu năm ngoái với mức định giá hơn 1 tỷ USD. Giờ đây, Stability AI có quyền truy cập vào hơn 5.400 GPU A100, theo ước tính của State of AI.
CNBC cho rằng Nvidia sẽ được hưởng lợi từ cơn sốt AI. Trong báo cáo tài chính quư IV, bất chấp việc tổng doanh thu giảm 21%, giới đầu tư vẫn tin tưởng và đẩy giá cổ phiếu lên khoảng 14% trong phiên giao dịch ngày hôm qua. Động lực chủ yếu đến từ hoạt động kinh doanh chip AI của Nvidia, vốn đă tăng 11% lên hơn 3,6 tỷ USD.
Giám đốc điều hành Nvidia, Jensen Huang, không thể ngừng nói về AI trong cuộc tṛ chuyện với các nhà phân tích, đồng thời gợi ư rằng sự bùng nổ gần đây của trí tuệ nhân tạo chính là chiến lược của công ty.
“Hoạt động xoay quanh việc xây dựng cơ sở hạ tầng AI, sử dụng Hopper và Ampere nhằm tác động đến các mô h́nh ngôn ngữ lớn đă tăng vọt trong 60 ngày qua”, Huang nói. Được biết Ampere là tên mă dành cho thế hệ chip A100, c̣n Hopper là tên chip thế hệ mới H100.
Theo CNBC, các công ty khổng lồ về AI thường cần mua nhiều GPU để xử lư hoặc cải thiện mô h́nh. Những GPU này không hề rẻ. Ngoài một A100 duy nhất có thể cắm vào máy chủ hiện có, nhiều trung tâm dữ liệu c̣n sử dụng hệ thống cao cấp hơn bao gồm 8 GPU A100 hoạt động cùng nhau.
Hệ thống này, DGX A100, có giá đề xuất gần 200.000 USD. Nvidia cho biết họ sẽ bán trực tiếp quyền truy cập đám mây cho các hệ thống DGX nhằm giảm chi phí đầu vào cho các nhà nghiên cứu.
Theo một ước tính từ New Street Research, mô h́nh ChatGPT dựa trên OpenAI có thể yêu cầu 8 GPU để đưa ra câu trả lời trong ṿng chưa đầy 1 giây. Với tốc độ đó, Microsoft sẽ cần hơn 20.000 máy chủ 8 GPU chỉ để triển khai Bing, tức tiêu tốn tới 4 tỷ USD.
“Nếu bạn đến từ Microsoft và muốn mở rộng quy mô, 4 tỷ USD là con số bạn cần phải bỏ ra. C̣n nếu bạn muốn mở rộng theo quy mô của Google, nơi phục vụ 8 hoặc 9 tỷ truy vấn mỗi ngày, bạn sẽ phải chi 80 tỷ USD cho DGX”, Antoine Chkaiban, một nhà phân tích công nghệ tại New Street Research cho biết. “Những con số chúng tôi đưa ra rất lớn, nhưng chúng chỉ đơn giản phản ánh thực tế”.
Huang, Giám đốc điều hành của Nvidia, cho biết trong một cuộc phỏng vấn với phóng viên Katie Tarasov của tờ CNBC rằng các sản phẩm của công ty thực sự không đắt. Công ty thậm chí c̣n cho phép các công ty khởi nghiệp đào tạo mô h́nh với chi phí thấp hơn nhiều so với việc họ sử dụng bộ xử lư máy tính truyền thống.
“Bây giờ bạn có thể xây dựng thứ ǵ đó giống như mô h́nh ngôn ngữ lớn, chẳng hạn như GPT, với giá khoảng 10, 20 triệu USD”, Huang nói. “Điều đó thực sự, thực sự rẻ”.
Nvidia không phải là công ty duy nhất sản xuất GPU để sử dụng trí tuệ nhân tạo. AMD, Intel và Google cũng đang phát triển ḍng chip đặc biệt để phục vụ công cuộc AI mới.
Tuy nhiên, “phần cứng AI vẫn có mối liên hệ chặt chẽ với Nvidia”, theo một báo cáo được tờ CNBC trích dẫn. Tính đến tháng 12, hơn 21.000 bài báo nguồn mở về AI cho biết họ đă sử dụng chip Nvidia.
Hầu hết các nhà nghiên cứu đều sử dụng V100 - con chip Nvidia ra mắt vào năm 2017. Tuy nhiên, việc A100 tiên tiến đă và phát triển nhanh chóng đă biến đây trở thành con chip được ưu tiên sử dụng.
Theo Reuters, việc giá cổ phiếu Nvidia tăng lên trong phiên giao dịch vừa qua đă nâng giá trị thị trường của công ty thêm hơn 70 tỷ USD, đạt mức hơn 580 tỷ USD, tức gấp khoảng 5 lần so với một ông lớn cùng ngành khác là Intel.
VietBF @ Sưu tầm