Deepseek telah mengguncang pemain AI besar – tetapi perusahaan chip yang lebih kecil melihatnya sebagai pengganda kekuatan

Deepseek telah mengguncang ekosistem AI yang dipimpin AS dengan model terbarunya, mencukur ratusan miliar pemimpin chip Nvidia's kapitalisasi pasar Sementara para pemimpin sektor bergulat dengan kejatuhan, perusahaan AI yang lebih kecil melihat peluang untuk skala dengan startup Cina.
Beberapa perusahaan terkait AI mengatakan kepada CNBC bahwa kemunculan Deepseek adalah peluang “besar” bagi mereka, daripada ancaman.
“Pengembang sangat tertarik untuk menggantikan model Openai yang mahal dan tertutup dengan model open source seperti Deepseek R1 …” kata Andrew Feldman, CEO sistem cerebras startup chip buatan.
Perusahaan bersaing dengan unit pemrosesan grafis NVIDIA dan menawarkan layanan berbasis cloud melalui kelompok komputasi sendiri. Feldman mengatakan rilis model R1 menghasilkan salah satu paku serebras terbesar dalam permintaan untuk layanannya.
“R1 menunjukkan itu [AI market] Pertumbuhan tidak akan didominasi oleh satu perusahaan-perangkat keras dan perangkat lunak paruh tidak ada untuk model open-source, “tambah Feldman.
Open Source mengacu pada perangkat lunak di mana kode sumber tersedia secara bebas di web untuk kemungkinan modifikasi dan redistribusi. Model Deepseek adalah open source, tidak seperti pesaing seperti openai.
Deepseek juga mengklaim model penalaran R1 menyaingi teknologi Amerika terbaik, meskipun berjalan dengan biaya yang lebih rendah dan dilatih tanpa unit pemrosesan grafis mutakhir, meskipun pengamat dan pesaing industri memiliki mempertanyakan pernyataan ini.
“Seperti di pasar PC dan Internet, penurunan harga membantu memicu adopsi global. Pasar AI berada di jalur pertumbuhan sekuler yang serupa,” kata Feldman.
Chip inferensi
Deepseek dapat meningkatkan adopsi teknologi chip baru dengan mempercepat siklus AI dari pelatihan ke fase “inferensi”, start-up chip dan pakar industri mengatakan.
Inferensi mengacu pada tindakan menggunakan dan menerapkan AI untuk membuat prediksi atau keputusan berdasarkan informasi baru, daripada bangunan atau pelatihan model.
“Sederhananya, pelatihan AI adalah tentang membangun alat, atau algoritma, sementara inferensi adalah tentang benar -benar menggunakan alat ini untuk digunakan dalam aplikasi nyata,” kata Phelix Lee, seorang analis ekuitas di Morningstar, dengan fokus pada semikonduktor.
Sementara nvidia memegang posisi dominan di GPU yang digunakan untuk pelatihan AI, banyak pesaing melihat Kamar untuk ekspansi Di segmen “inferensi”, di mana mereka menjanjikan efisiensi yang lebih tinggi untuk biaya yang lebih rendah.
Pelatihan AI sangat intensif, tetapi inferensi dapat bekerja dengan chip yang kurang kuat yang diprogram untuk melakukan berbagai tugas yang lebih sempit, Lee menambahkan.
Sejumlah startup chip AI mengatakan kepada CNBC bahwa mereka melihat lebih banyak permintaan untuk chip inferensi dan komputasi ketika klien mengadopsi dan membangun model open source Deepseek.
“[DeepSeek] telah menunjukkan bahwa model terbuka yang lebih kecil dapat dilatih agar mampu atau lebih mampu daripada model berpemilik yang lebih besar dan ini dapat dilakukan dengan sebagian kecil dari biaya, “kata Sid Sheth, CEO start-up D-matrix AI chip.
“Dengan ketersediaan luas model kecil yang mampu, mereka telah mengkatalisasi usia inferensi,” katanya kepada CNBC, menambahkan bahwa perusahaan baru -baru ini melihat lonjakan minat dari pelanggan global yang ingin mempercepat rencana inferensi mereka.
Robert Wachen, salah satu pendiri dan COO dari AI Chipmaker Etched, mengatakan lusinan perusahaan telah menjangkau startup sejak Deepseek merilis model penalarannya.
“Perusahaan 1738929797 Menggeser pengeluaran mereka dari kelompok pelatihan ke kelompok inferensi, “katanya.
“Deepseek-R1 membuktikan bahwa komputasi waktu inferensi sekarang [state-of-the-art] Pendekatan untuk setiap vendor model utama dan pemikiran tidak murah – kita hanya perlu lebih banyak dan lebih banyak kapasitas komputasi untuk skala model ini untuk jutaan pengguna. “
Paradoks Jevon
Analis dan pakar industri sepakat bahwa prestasi Deepseek adalah dorongan untuk inferensi AI dan industri chip AI yang lebih luas.
“Kinerja Deepseek tampaknya didasarkan pada serangkaian inovasi teknik yang secara signifikan mengurangi biaya inferensi sambil juga meningkatkan biaya pelatihan,” menurut a laporan dari Bain & Company.
“Dalam skenario bullish, peningkatan efisiensi yang berkelanjutan akan menyebabkan inferensi yang lebih murah, memacu adopsi AI yang lebih besar,” tambahnya.

Pola ini menjelaskan paradoks Jevon, sebuah teori di mana pengurangan biaya dalam teknologi baru mendorong peningkatan permintaan.
Perusahaan jasa keuangan dan investasi Wedbush mengatakan dalam catatan penelitian pekan lalu bahwa mereka terus mengharapkan penggunaan AI di seluruh perusahaan dan konsumen ritel secara global untuk mendorong permintaan.
Berbicara dengan “Uang cepat” CNBC Pekan lalu, Sunny Madra, COO di Groq, yang mengembangkan chip untuk inferensi AI, menyarankan bahwa seiring permintaan keseluruhan untuk AI tumbuh, pemain yang lebih kecil akan memiliki lebih banyak ruang untuk tumbuh.
“Karena dunia akan membutuhkan lebih banyak token [a unit of data that an AI model processes] Nvidia tidak dapat memasok chip yang cukup untuk semua orang, sehingga memberi peluang bagi kami untuk menjual ke pasar bahkan lebih agresif, “kata Madra.