OpenAI mengatakan tidak memiliki rencana aktif untuk menggunakan chip internal Google untuk memberi daya pada produknya, dua hari setelah Reuters dan outlet berita lainnya melaporkan langkah laboratorium AI untuk beralih ke chip kecerdasan buatan pesaingnya untuk memenuhi permintaan yang terus meningkat.
Seorang juru bicara OpenAI mengatakan pada hari Minggu bahwa sementara laboratorium AI sedang dalam pengujian awal dengan beberapa unit pemrosesan tensor (TPU) Google, ia tidak memiliki rencana untuk menerapkannya dalam skala besar saat ini.
Google menolak berkomentar.
Meskipun umum bagi laboratorium AI untuk menguji chip yang berbeda, menggunakan perangkat keras baru dalam skala besar bisa memakan waktu lebih lama dan akan membutuhkan dukungan arsitektur dan perangkat lunak yang berbeda. OpenAI secara aktif menggunakan unit pemrosesan grafis (GPU) Nvidia, dan chip AI AMD untuk mendukung permintaannya yang terus meningkat. OpenAI juga mengembangkan chipnya, sebuah upaya yang berada di jalur untuk memenuhi tonggak sejarah “tape-out” tahun ini, di mana desain chip diselesaikan dan dikirim untuk diproduksi.
OpenAI telah mendaftar untuk layanan Google Cloud untuk memenuhi kebutuhan kapasitas komputasi yang terus meningkat, Reuters secara eksklusif melaporkan awal bulan ini, menandai kolaborasi yang mengejutkan antara dua pesaing terkemuka di sektor AI. Sebagian besar daya komputasi yang digunakan oleh OpenAI berasal dari server GPU yang didukung oleh apa yang disebut perusahaan neocloud CoreWeave.
Google telah memperluas ketersediaan eksternal chip AI internalnya, atau TPU, yang secara historis disediakan untuk penggunaan internal. Itu membantu Google memenangkan pelanggan, termasuk pemain Big Tech Apple, serta startup seperti Anthropic dan Safe Superintelligence, dua pesaing pembuat ChatGPT yang diluncurkan oleh mantan pemimpin OpenAI.
© Thomson Reuters 2025