Scroll untuk baca artikel
#Viral

Kesepakatan Nvidia dengan Meta Menandakan Era Baru dalam Kekuatan Komputasi

23
×

Kesepakatan Nvidia dengan Meta Menandakan Era Baru dalam Kekuatan Komputasi

Share this article
kesepakatan-nvidia-dengan-meta-menandakan-era-baru-dalam-kekuatan-komputasi
Kesepakatan Nvidia dengan Meta Menandakan Era Baru dalam Kekuatan Komputasi

Tanyakan kepada siapa pun apa Nvidia membuatdan mereka mungkin akan mengatakan “GPU” terlebih dahulu. Selama beberapa dekade, pembuat chip telah ditentukan oleh komputasi paralel yang canggih, dan kemunculan AI generatif serta lonjakan permintaan akan GPU telah menjadi hal yang sangat penting. keuntungan bagi perusahaan.

Namun langkah Nvidia baru-baru ini memberi sinyal bahwa mereka ingin mengunci lebih banyak pelanggan di pasar AI yang tidak terlalu intensif komputasi—pelanggan yang belum tentu membutuhkan produk yang paling besar dan paling efisien. GPU yang kuat untuk melatih model AI, namun malah mencari cara paling efisien untuk menjalankan perangkat lunak AI agen. Nvidia baru-baru ini menghabiskan miliaran dolar untuk melisensikan teknologi dari startup chip yang berfokus pada komputasi AI berlatensi rendah, dan juga mulai menjual CPU mandiri sebagai bagian dari sistem superchip terbarunya.

Example 300x600

Dan kemarin, Nvidia dan Meta diumumkan bahwa raksasa media sosial tersebut telah setuju untuk membeli chip Nvidia senilai miliaran dolar guna menyediakan daya komputasi bagi proyek infrastruktur raksasa raksasa media sosial tersebut—dengan CPU Nvidia sebagai bagian dari kesepakatan tersebut.

Kesepakatan multi-tahun ini merupakan perluasan dari kemitraan berkelanjutan yang nyaman antara kedua perusahaan. Meta sebelumnya memperkirakan pada akhir tahun 2024 sudah bisa dibeli 350.000 chip H100 dari Nvidia, dan pada akhir tahun 2025 perusahaan akan memiliki akses ke sana Total 1,3 juta GPU (meskipun tidak jelas apakah itu semua adalah chip Nvidia).

Sebagai bagian dari pengumuman terbaru, Nvidia mengatakan bahwa Meta akan “membangun pusat data berskala besar yang dioptimalkan untuk pelatihan dan inferensi guna mendukung peta jalan infrastruktur AI jangka panjang perusahaan.” Hal ini termasuk “penerapan skala besar” CPU Nvidia dan “jutaan GPU Nvidia Blackwell dan Rubin.”

Khususnya, Meta adalah raksasa teknologi pertama yang mengumumkan bahwa mereka melakukan pembelian besar-besaran atas CPU Grace Nvidia sebagai chip yang berdiri sendiri, sesuatu yang menurut Nvidia akan menjadi pilihan ketika mereka mengungkapkan spesifikasi lengkap dari superchip Vera Rubin barunya pada bulan Januari. Nvidia juga menekankan bahwa mereka menawarkan teknologi yang menghubungkan berbagai chip, sebagai bagian dari “pendekatan sup-to-nuts” untuk menghitung daya, seperti yang dikatakan oleh seorang analis.

Ben Bajarin, CEO dan analis utama di firma riset pasar teknologi Creative Strategies, mengatakan langkah ini menandakan bahwa Nvidia menyadari bahwa semakin banyak perangkat lunak AI yang kini perlu dijalankan di CPU, sama seperti aplikasi cloud konvensional. “Alasan mengapa industri begitu optimis terhadap CPU dalam pusat data saat ini adalah AI agen, yang memberikan tuntutan baru pada arsitektur CPU tujuan umum,” katanya.

A laporan terbaru dari buletin chip Semianalisis menggarisbawahi hal ini. Para analis mencatat bahwa penggunaan CPU semakin cepat untuk mendukung pelatihan dan inferensi AI, dengan mengutip salah satu pusat data Microsoft untuk OpenAI sebagai contoh, di mana “puluhan ribu CPU kini diperlukan untuk memproses dan mengelola data berukuran petabyte yang dihasilkan oleh GPU, sebuah kasus penggunaan yang tidak akan diperlukan tanpa AI.”

Namun Bajarin mencatat bahwa CPU masih merupakan salah satu komponen dari sistem perangkat keras AI yang paling canggih. Jumlah GPU yang dibeli Meta dari Nvidia masih melebihi jumlah CPU.

“Jika Anda salah satu dari hyperscaler, Anda tidak akan mencalonkan diri semua komputasi inferensi Anda pada CPU, “kata Bajarin. “Anda hanya memerlukan perangkat lunak apa pun yang Anda jalankan agar cukup cepat pada CPU untuk berinteraksi dengan arsitektur GPU yang sebenarnya merupakan kekuatan pendorong komputasi tersebut. Jika tidak, CPU akan menjadi hambatan.”

Meta menolak mengomentari perluasan kesepakatannya dengan Nvidia. Dalam laporan pendapatan baru-baru ini, raksasa media sosial ini mengatakan bahwa mereka berencana untuk meningkatkan pengeluarannya secara signifikan untuk infrastruktur AI tahun ini menjadi antara $115 miliar hingga $135 miliar, naik dari $72,2 miliar pada tahun lalu.

Nvidia, yang juga menolak mengomentari kesepakatan baru tersebut, telah bertahun-tahun mengatakan bahwa perangkat kerasnya dapat digunakan untuk kebutuhan komputasi inferensi selain pelatihan AI terdepan. Dua tahun lalu, di wawancara duduk dengan WIREDPendiri dan kepala eksekutif Nvidia Jensen Huang memperkirakan bahwa bisnis Nvidia kemungkinan besar adalah “40 persen inferensi, 60 persen pelatihan.”

Pada bulan Desember, Nvidia mengumumkan bahwa mereka menghabiskan $20 miliar untuk melisensikan teknologi dari startup chip Groq dan membawa beberapa talenta terbaik Groq, termasuk CEO Jonathan Ross, ke dalam Nvidia. Menurut pernyataan dari Groqkesepakatan tersebut mencerminkan “fokus bersama dalam memperluas akses terhadap inferensi berkinerja tinggi dan berbiaya rendah.” Kesepakatan tersebut merupakan kesepakatan akuisisi terbesar Nvidia hingga saat ini.

Persaingan Memanas

Kesepakatan Nvidia dengan Meta terjadi ketika laboratorium AI paling terkemuka dan perusahaan perangkat lunak bernilai miliaran dolar berupaya mendiversifikasi sumber daya komputasi mereka. OpenAI, Anthropic, Meta, XAI, dan banyak lainnya mengandalkan perangkat keras Nvidia untuk melakukan tugas berat karena mereka telah melatih dan menerapkan model AI generatif selama beberapa tahun terakhir.

Sekarang, dalam banyak kasus, mereka membuat atau menyesuaikan chip mereka sendiri, sehingga memberikan tekanan pada Nvidia untuk menawarkan lebih banyak layanan.

Microsoft mengandalkan campuran GPU Nvidia dan chip yang dirancang khusus untuk layanan cloud AI-nya. Google juga menggunakan chip Nvidia untuk layanan cloud, tetapi terutama mengandalkan Tensor Processing Unit (TPU) buatan sendiri untuk melatih dan menerapkan model AI canggihnya. Google juga dilaporkan telah mempertimbangkannya menjual TPU-nya ke Meta.

Anthropic menggunakan kombinasi GPU Nvidia, TPU Googledan chip dari Amazon—salah satu pemangku kepentingan minoritas yang paling signifikan—untuk model Claude AI-nya. (Salah satu pendiri dan CEO Anthropic Dario Amodei juga merupakan salah satu eksekutif langka yang memilikinya dikritik secara terbuka Upaya lobi Huang untuk membujuk pemerintah AS agar mengizinkan Nvidia menjual chip canggih ke Tiongkok.)

OpenAI, yang tahun lalu menandatangani kesepakatan infrastruktur AI besar-besaran dengan Nvidia yang bernilai hingga $100 miliar, secara terbuka mengatakan bahwa mereka bekerja dengan Broadcom untuk membuat perangkat keras chip AI dan sistem jaringannya sendiri.

Kepala eksekutif OpenAI Sam Altman bergabung dengan pimpinan AMD Lisa Su di atas panggung pada konferensi AI tahunan pembuat chip tersebut pada bulan Juni tahun lalu; keduanya kemudian mencapai kesepakatan dengan OpenAI untuk membeli hingga 6 gigawatt chip AMD selama beberapa tahun ke depan, dengan imbalan kemungkinan mengakuisisi 10 persen AMD. AMD terkenal dengan CPU-nya, meskipun AMD juga telah memperoleh pangsa pasar di akselerator AI dan pasar GPU AI.

Dan baru dua minggu yang lalu, OpenAI mengumumkan rencananya untuk melakukan hal tersebut menggunakan teknologi dari Cerebras untuk menambahkan “tambahkan 750MW komputasi AI berlatensi sangat rendah” ke platform OpenAI. Kesepakatan tersebut bernilai $10 miliar—tidak sebesar kesepakatan dengan Nvidia, namun juga tidak signifikan.

“Laboratorium AI memang ingin melakukan diversifikasi karena kebutuhannya berubah, tetapi sebagian besar masih belum dapat mengakses GPU yang cukup,” kata Bajarin. “Mereka akan mencari di mana pun mereka bisa mendapatkan chip tersebut.”