
- 17 hari lalu
Oracle dilaporkan melakukan PHK ribuan karyawan saat masih mengajukan ribuan visa kerja H-1B. Langkah ini memicu kritik dan sorotan di industri teknologi.

Hedra.ID - California - Google untuk pertama kalinya memisahkan chip AI-nya menjadi dua lini produk berbeda. Perusahaan teknologi raksasa ini memperkenalkan TPU 8t yang dirancang khusus untuk pelatihan model AI berskala besar, serta TPU 8i yang dioptimalkan untuk inferensi dan beban kerja era agen AI.
Seperti diketahui, selama ini, Google memproduksi satu chip yang mampu menangani kedua tugas sekaligus. Mulai kini, masing-masing tugas itu mendapat chip tersendiri.
Keputusan ini diumumkan dalam acara Google Cloud Next, Rabu (22/4/2026), di mana Chief Scientist Google Jeff Dean menjelaskan bahwa spesialisasi chip untuk pelatihan maupun inferensi kini dinilai relevan seiring melonjaknya permintaan pemrosesan AI secara global.
Dalam siklus pengembangan AI, pelatihan dan inferensi merupakan dua tahap yang sangat berbeda. Pelatihan membutuhkan komputasi masif dalam waktu singkat, biasanya dilakukan di pusat data berskala besar. Inferensi terjadi setiap kali model yang sudah jadi merespons permintaan pengguna, berlangsung triliunan kali sehari di seluruh dunia.
Selama ini, satu chip harus mengorbankan efisiensi di salah satu sisi. Chip yang berusaha mengoptimalkan keduanya pada praktiknya tidak ada yang mendapat dukungan penuh. Dengan TPU 8t dan TPU 8i, Google bisa mendesain ulang arsitektur masing-masing chip tanpa kompromi.
Amin Vahdat, Senior Vice President yang memimpin infrastruktur AI Google, tampil di panggung Google Cloud Next untuk mempresentasikan chip terbaru ini. Dalam kesempatan yang sama, ia juga mengumumkan peningkatan efisiensi pusat data serta integrasi dengan Axion, CPU berbasis ARM kustom Google yang turut diperkenalkan.
Langkah ini dinilai sebagai tantangan langsung terhadap dominasi Nvidia di pasar perangkat keras AI. Nvidia selama ini memimpin dengan GPU seri H100 dan H200 yang menjadi standar industri untuk melatih dan menjalankan model AI. Google kini membangun jalur alternatif bagi perusahaan yang ingin tidak sepenuhnya bergantung pada satu vendor.
Menurut laporan berbagai sumber, Google juga merangkai rantai pasok chip dengan Broadcom, MediaTek, dan Marvell untuk menopang infrastruktur inferensi. Kolaborasi ini menunjukkan Google tidak sekadar membuat chip sendiri, tetapi juga membangun ekosistem di sekitar TPU baru.
Bagi pengembang dan perusahaan Indonesia yang membangun agen AI atau fine-tune model melalui Google Cloud Platform, perubahan arsitektur chip ini memiliki implikasi nyata. Pemisahan TPU berarti akses terhadap infrastruktur yang lebih teroptimasi untuk masing-masing beban kerja. Jika sebelumnya pengguna cloud harus menyesuaikan beban kerja dengan kapabilitas chip yang ada, kini mereka bisa memilih chip yang lebih sesuai dengan tugas yang dijalankan.
Perlu dicatat bahwa belum ada informasi soal perubahan harga atau ketersediaan spesifik untuk pasar Indonesia. Namun secara historis, pembaruan infrastruktur Google Cloud cenderung diterapkan secara bertahap ke berbagai wilayah. Pengembang yang menggunakan TPU untuk melatih model akan mendapat akses ke TPU 8t, sementara beban kerja inferensi bisa memanfaatkan TPU 8i.
Bagi ekosistem AI Indonesia yang terus berkembang, pilihan infrastruktur yang lebih beragam merupakan perkembangan positif. Kompetisi di level chip AI mendorong inovasi yang pada akhirnya menurunkan biaya dan meningkatkan aksesibilitas bagi pengembang di seluruh dunia.