Tentang GPU di Google Cloud

Google Cloud berfokus untuk menghadirkan infrastruktur kecerdasan buatan (AI) kelas dunia untuk mendukung beban kerja yang dipercepat GPU yang paling berat di berbagai segmen. Anda dapat menggunakan GPU di Google Cloud untuk menjalankan aplikasi AI, machine learning (ML), ilmiah, analisis, engineering, konsumen, dan perusahaan.

Melalui kemitraan kami dengan NVIDIA, Google Cloud menghadirkan GPU terbaru sekaligus mengoptimalkan stack software dengan berbagai opsi penyimpanan dan jaringan. Untuk mengetahui daftar lengkap GPU yang tersedia, lihat platform GPU.

Bagian berikut menguraikan manfaat GPU di Google Cloud.

VM yang diakselerasi GPU

Di Google Cloud, Anda dapat mengakses dan menyediakan GPU dengan cara yang paling sesuai dengan kebutuhan Anda. Kelompok mesin yang dioptimalkan akselerator khusus tersedia, dengan GPU yang sudah terpasang dan kemampuan jaringan yang ideal untuk memaksimalkan performa. GPU ini tersedia dalam seri mesin A4X, A4, A3, A2, dan G2.

Beberapa opsi penyediaan

Anda dapat menyediakan cluster menggunakan family mesin yang dioptimalkan untuk akselerator dengan salah satu produk open source atau Google Cloud berikut.

Vertex AI

Vertex AI adalah platform machine learning (ML) terkelola sepenuhnya yang dapat Anda gunakan untuk melatih dan men-deploy model ML dan aplikasi AI. Dalam aplikasi Vertex AI, Anda dapat menggunakan VM dengan akselerasi GPU untuk meningkatkan performa dengan cara berikut:

AI Hypercomputer

AI Hypercomputer adalah sistem superkomputer yang dioptimalkan untuk mendukung workload kecerdasan buatan (AI) dan machine learning (ML) Anda. Ini adalah sistem terintegrasi dari hardware yang dioptimalkan performanya, software terbuka, framework ML, dan model konsumsi yang fleksibel. Fitur dan layanan AI Hypercomputer dirancang untuk memungkinkan Anda men-deploy dan mengelola sejumlah besar resource akselerator dan jaringan, hingga puluhan ribu, yang berfungsi sebagai satu unit homogen. Opsi ini ideal untuk membuat infrastruktur yang dialokasikan secara padat dan dioptimalkan untuk performa yang memiliki integrasi untuk penjadwal Google Kubernetes Engine (GKE) dan Slurm. Untuk mengetahui informasi selengkapnya, lihat ringkasan AI Hypercomputer.

Untuk mulai menggunakan Cluster Director, lihat Memilih strategi deployment.

Compute Engine

Anda juga dapat membuat dan mengelola VM individual atau cluster kecil VM dengan GPU terpasang di Compute Engine. Metode ini sebagian besar digunakan untuk menjalankan beban kerja yang intensif secara grafis, beban kerja simulasi, atau pelatihan model ML skala kecil.

Tabel berikut menunjukkan metode yang dapat Anda gunakan untuk membuat VM yang memiliki GPU terpasang:

Opsi deployment

Panduan deployment

Membuat VM untuk melayani dan workload node tunggal

Membuat VM A3 Edge atau A3 High

Buat grup instance terkelola (MIG)

Opsi ini menggunakan Dynamic Workload Scheduler (DWS).

Membuat MIG dengan VM GPU

Membuat VM secara massal

Membuat grup VM GPU secara massal

Membuat VM tunggal

Membuat VM GPU tunggal

Membuat workstation virtual

Membuat workstation virtual dengan akselerasi GPU

Cloud Run

Anda dapat mengonfigurasi GPU untuk instance Cloud Run. GPU sangat ideal untuk menjalankan workload inferensi AI menggunakan model bahasa besar di Cloud Run.

Di Cloud Run, lihat resource berikut untuk menjalankan workload AI di GPU: