- 8.8/10 (12 Reviews)

- 15 hari lalu
Oracle dilaporkan melakukan PHK ribuan karyawan saat masih mengajukan ribuan visa kerja H-1B. Langkah ini memicu kritik dan sorotan di industri teknologi.

Hedra.ID, California - Google tengah memperluas jaringan mitra desain chip AI-nya. Setelah sebelumnya bekerja sama dengan Broadcom dan MediaTek, perusahaan itu kini disebut sedang menjajaki Marvell Technology sebagai mitra ketiga untuk mengembangkan dua chip khusus yang dirancang untuk beban kerja inferensi AI.
Pembicaraan itu dilaporkan berlangsung Minggu (19/4/2026) waktu setempat dan mencakup dua desain chip yang berbeda: satu unit pemrosesan memori dan satu lagi Tensor Processing Unit yang dioptimalkan khusus untuk inferensi - bukan pelatihan model seperti TPU generasi sebelumnya. Langkah ini mencerminkan pergeseran prioritas Google dalam pengembangan chip proprietary, dari fokus pada pelatihan model menuju efisiensi beban kerja inferensi yang terus bertumbuh.
Broadcom selama ini menjadi mitra utama Google dalam pengembangan chip kustom, sementara MediaTek sudah terlibat dalam sejumlah kolaborasi untuk chip tertentu. Masuknya Marvell sebagai calon mitra ketiga mengindikasikan bahwa Google tidak ingin terlalu bergantung pada satu atau dua pemasok saja dalam rantai pasok chip AI-nya.
Marvell Technology dikenal sebagai perusahaan semikonduktor yang berpengalaman menyediakan solusi ASIC untuk berbagai klien besar. Rekam jejak mereka dalam desain chip kustom menjadikannya kandidat yang relevan untuk membantu Google menghadirkan chip inferensi yang lebih hemat daya dan lebih efisien secara biaya.
Dalam siklus pengembangan AI, pelatihan model memang membutuhkan daya komputasi yang sangat besar, tetapi itu hanya terjadi sekali di awal. Setelah model siap digunakan, beban kerja terbesar justru beralih ke inferensi: proses yang terjadi setiap kali model merespons permintaan pengguna, menghasilkan teks, atau memproses gambar.
Google menilai efisiensi inferensi sebagai penentu utama biaya operasional jangka panjang. Jika setiap permintaan inferensi memakan biaya tinggi, maka ekspansi layanan AI secara ekonomi akan sulit dilakukan. Chip yang dirancang khusus untuk inferensi bisa menekan biaya per operasi secara signifikan dibanding chip serba-guna.
Strategi Google ini mencerminkan tren yang lebih luas di industri: perusahaan-perusahaan teknologi besar kini tidak lagi puas dengan chip generik dan mulai beralih ke chip yang dirancang khusus sesuai kebutuhan beban kerja mereka masing-masing.
Marvell sendiri menyebut chip kustom berbasis ASIC dapat memberikan penghematan biaya yang signifikan bila diproduksi dalam skala besar. Di kawasan Asia Pasifik yang tengah gencar membangun pusat data baru, efisiensi biaya semacam ini menjadi faktor pertimbangan serius bagi siapa pun yang tengah membangun infrastruktur AI dalam jangka panjang.