Nvidia Bermitra Dengan Google Cloud untuk Meluncurkan Perangkat Keras yang Berfokus pada AI

22 Maret 2023, 10:48 WIB
Nvidia /Tangkapan Layar Youtube

KILAS KLATEN – Bekerja sama dengan Google, Nvidia hari ini meluncurkan penawaran perangkat keras cloud baru, platform L4, yang dioptimalkan untuk menjalankan aplikasi-aplikasi yang berfokus pada video. Tersedia dalam pratinjau pribadi di Google Cloud melalui mesin virtual G2 Google, Nvidia mengatakan bahwa platform L4 dirancang untuk mempercepat performa video "bertenaga AI".

 

Berfungsi sebagai GPU serba guna, L4 menghadirkan kemampuan decoding video serta transcoding dan streaming video. Selain menyediakan akses ke platform L4 melalui Google Cloud, Google juga mengintegrasikan L4 ke dalam Vertex AI, layanan pembelajaran mesin terkelola untuk pelanggan perusahaan.

Bagi mereka yang memilih untuk tidak mendaftar ke Google Cloud, L4 akan tersedia akhir tahun ini dari mitra perangkat keras jaringan Nvidia, termasuk Asus, Cisco, Dell, Hewlett Packard Enterprise, dan Lenovo.

Baca Juga: Google Peringatkan Pengguna Untuk Lindungi Diri Dari Eksploitasi Jarak Jauh Android

L4 berada di samping solusi perangkat keras yang berfokus pada AI lainnya yang diumumkan Nvidia hari ini, termasuk L40, H100 NVL dan Grace Hopper untuk Model Rekomendasi. L40 dioptimalkan untuk grafis dan pembuatan gambar 2D, video, dan 3D dengan AI, sedangkan H100 NVL mendukung penggunaan model bahasa yang besar seperti ChatGPT.

L40 tersedia minggu ini melalui mitra perangkat keras Nvidia yang telah disebutkan sebelumnya. Sementara itu, Nvidia berharap Grace Hopper dan H100 NVL akan tersedia pada paruh kedua tahun ini.

Dalam berita terkait, hari ini menandai peluncuran platform DGX Cloud Nvidia, yang memberikan perusahaan akses ke infrastruktur dan perangkat lunak untuk melatih model-model untuk AI generatif dan bentuk-bentuk AI lainnya. Diumumkan pada awal tahun ini, DGX Cloud memungkinkan perusahaan untuk menyewa cluster perangkat keras Nvidia setiap bulannya, mulai dari harga $36.999 per instance per bulan.

 

Setiap instance dari DGX Cloud dilengkapi dengan delapan GPU Nvidia H100 atau A100 80GB Tensor Core dengan total 640GB memori GPU per node, yang dipasangkan dengan penyimpanan. Dengan berlangganan DGX Cloud, pelanggan juga mendapatkan akses ke AI Enterprise, lapisan perangkat lunak Nvidia yang berisi kerangka kerja AI, model yang telah dilatih sebelumnya, dan perpustakaan ilmu data yang "dipercepat".

Baca Juga: Mercedes Bermitra dengan Google untuk Hadirkan MapsdDan Youtube Dalam Kendaraannya

Nvidia mengatakan bahwa mereka bermitra dengan penyedia layanan cloud "terkemuka" untuk menghosting infrastruktur DGX Cloud, dimulai dengan Oracle Cloud Infrastructure. Microsoft Azure diperkirakan akan mulai menjadi tuan rumah DGX Cloud pada kuartal fiskal berikutnya, dan layanan ini akan segera diperluas ke Google Cloud.

Dorongan agresif Nvidia ke dalam komputasi AI muncul ketika perusahaan beralih dari investasi yang tidak menguntungkan di bidang lain, seperti gaming dan virtualisasi profesional. Laporan pendapatan terakhir Nvidia menunjukkan bisnis pusat datanya, yang mencakup chip untuk AI, terus berkembang (menjadi $3,62 miliar), menunjukkan bahwa Nvidia dapat terus mendapatkan keuntungan dari ledakan AI yang generatif.***

Editor: Fajar Sidik Nur Cahyo

Sumber: Techcrunch

Tags

Terkini

Terpopuler