Cognichip mengumpulkan $60 juta untuk menciptakan kembali desain chip dengan model AI yang terinspirasi fisika


Cognichip mengatakan hari ini pihaknya telah mengumpulkan dana sebesar $60 juta untuk mencoba mempercepat momentum munculnya konsep desain chip berbasis fisika yang didukung oleh model kecerdasan buatan yang canggih.

Putaran ini dipimpin oleh Seligman Ventures dan dihadiri oleh Mayfield, Lux Capital, FPV dan Candou Ventures, ditambah Chief Executive Intel Lip-Bu Tan, yang akan bergabung dengan dewan direksinya.

Cognichip berpendapat bahwa industri semikonduktor mendekati batas struktural karena desain chip canggih menjadi lebih mahal dan memakan waktu dibandingkan sebelumnya, memerlukan upaya bertahun-tahun dan ratusan juta dolar. Akibatnya, kemajuan AI sendiri melambat, karena chip tersebut gagal mengimbangi kemampuan model yang lebih canggih.

Startup ini belum membuat alat otomatisasi desain elektronik lainnya. Sebaliknya, mereka bertujuan untuk memikirkan kembali keseluruhan cara chip dirancang dengan platform desain Artificial Chip Intelligence-nya.

ACI adalah model dasar berbasis fisika yang dibuat khusus untuk desain chip. Tidak seperti model tujuan umum, model ini mengintegrasikan elemen seperti batasan fisik, perilaku sirkuit, dan kesulitan manufaktur ke dalam proses desain semikonduktor. Hal ini memungkinkannya untuk mempertimbangkan setiap langkah, mulai dari desain arsitektur hingga verifikasi dan bahkan produksi.

Cognichip berpendapat bahwa proses desain chip tradisional terlalu berurutan, dengan para insinyur bergerak selangkah demi selangkah melalui setiap alur kerja. Alih-alih melakukan hal ini, pendekatan startup ini menganut paralelisme, yang berarti bahwa berbagai keputusan desain dapat dieksplorasi secara bersamaan.

Hal ini penting karena chip paling canggih saat ini mencakup domain sinyal digital, analog, dan campuran, dan masing-masing bagian memiliki saling ketergantungan satu sama lain, sehingga membuat pengoptimalan menjadi sangat sulit. Namun dengan memasukkan fisika secara langsung ke dalam model dasarnya, Cognichip dapat menghitung semua pengorbanan ini dengan cara yang tidak dapat dilakukan oleh alat EDA berbasis data.

Startup tersebut mengatakan bahwa ini berarti ACI bertindak lebih seperti kolaborator teknik daripada alat desain, yang memecahkan masalah melalui penalaran tingkat lanjut. Hasilnya, kata Cognichip, ia mampu mengurangi upaya yang dilakukan dalam desain chip hingga 50%.



Cognichip mengatakan pihaknya bekerja sama dengan lebih dari 30 perusahaan desain semikonduktor, termasuk beberapa pemain terbesar di industri ini, dan mengatakan platformnya kini sedang diuji dalam alur kerja produksi dunia nyata. Pengguna awal melaporkan adanya pengurangan siklus dan biaya desain chip, serta peningkatan kinerja.

Platform ini juga memungkinkan para pembuat chip untuk mempertahankan standar manufaktur mereka yang sudah ada, yang mana hal ini sangat penting untuk penerapannya secara lebih luas. Namun, Cognichip menolak menyebutkan nama pelanggannya, dan tidak menyebutkan chip spesifik apa pun yang telah dibantu oleh platformnya untuk dirancang.

“Industri semikonduktor berada pada titik kritis; kerangka kerja AI untuk inovasi dan efisiensi akan membuka peluang global yang sangat besar,” kata Tan. “Sukses di bidang ini membutuhkan perpaduan langka antara keahlian domain mendalam yang dikombinasikan dengan penelitian AI tingkat lanjut dan pendekatan desain terintegrasi menyeluruh. Teknologi model dasar Cognichip yang inovatif dan berdasarkan informasi fisika serta tim kepemimpinan yang telah terbukti menempatkannya sebagai perusahaan generasi.”

Kebangkitan Cognichip terjadi pada saat yang menarik, di mana tampaknya terdapat peningkatan ketergantungan antara AI dan perangkat keras yang mendukungnya. Banyak model AI yang mencapai batas performa dan memerlukan prosesor yang lebih bertenaga, namun chip tersebut membutuhkan waktu bertahun-tahun untuk dirancang, sehingga membatasi kemajuan dalam industri. Jika berhasil mempersingkat jadwal desain menjadi hitungan bulan, bukan tahun, Cognichip tidak hanya akan mempercepat inovasi chip, namun berpotensi meningkatkan momentum seluruh ekosistem AI.

“Gelombang kemajuan berikutnya untuk mengurangi siklus desain chip secara signifikan tidak akan datang dari optimalisasi bertahap alat desain yang ada, namun dari penggunaan AI untuk memparalelkan apa yang secara historis merupakan proses desain chip yang sangat serial,” kata Managing Partner Seligman, Umesh Padval.. “Cognichip membangun fondasi untuk perubahan tersebut melalui model berbasis fisika, kumpulan data yang dikurasi, dan integrasi siap produksi dengan tumpukan desain semikonduktor.”

Gambar: Cognichip

Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.

  • 15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
  • 11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.

Tentang Media SiliconANGLE

SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.

Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.



Cognichip mengumpulkan $60 juta untuk menciptakan kembali desain chip dengan model AI yang terinspirasi fisika

Niobium menghadirkan beban kerja AI terenkripsi sepenuhnya ke cloud dengan The Fog


Sebuah startup bernama Niobium Microsystems Inc. menghadirkan “The Fog” ke cloud, memungkinkan organisasi menjalankan kecerdasan buatan dan beban kerja pemrosesan data pada data paling sensitif mereka tanpa perlu mendekripsi data tersebut.

Meskipun platform baru ini mungkin terdengar seperti film horor era 1980-an, Niobium mengatakan The Fog sebenarnya adalah sesuatu yang ingin diterima oleh para pengembang. Direncanakan untuk diluncurkan akhir tahun ini, ini adalah platform pertama dari jenisnya yang memanfaatkan enkripsi homomorfik penuh atau FHE. Tidak seperti metode enkripsi tradisional yang hanya dapat melindungi data saat transit atau saat disimpan, FHE memungkinkan untuk mengenkripsi data saat sedang diproses di dalam server atau mesin virtual, memastikan bahwa informasi paling sensitif sekalipun tetap bersifat pribadi setiap saat.

Niobium mengatakan The Fog memberikan keuntungan “zero trust”, karena kunci dekripsi akan selalu tetap berada pada pemilik data, memastikan bahwa tidak ada pihak ketiga, bahkan dirinya sendiri, yang dapat melihat informasi yang sedang diproses.

Startup ini bertujuan untuk memecahkan tantangan besar bagi organisasi, yang memiliki data sensitif dalam jumlah besar yang tidak dapat dengan mudah dimanfaatkan untuk mendapatkan wawasan. Untuk menganalisis data sensitif, perusahaan biasanya harus mendekripsinya terlebih dahulu, namun hal ini berarti memaparkannya pada potensi pelanggaran keamanan dan ancaman orang dalam, serta melanggar peraturan kepatuhan. Hal ini merupakan tantangan khusus dalam industri dengan regulasi ketat seperti layanan kesehatan dan keuangan, sehingga membuat mereka ragu untuk memindahkan beban kerja paling sensitif mereka ke lingkungan cloud.

Chief Executive Kevin Yoder mengatakan banyak perusahaan menerima risiko paparan data sebagai biaya menjalankan bisnis di cloud. “Kabut menghilangkan pengorbanan itu,” janjinya. “Tujuan kami adalah menjadikan komputasi terenkripsi menjadi praktis, terukur, dan dapat diakses oleh tim yang paling membutuhkannya.”

Demokratisasi FHE

Meskipun FHE bukanlah inovasi baru, teknik ini secara tradisional melibatkan overhead komputasi yang sangat besar sehingga membuatnya terlalu lambat dan sangat mahal untuk digunakan dalam skala besar. Proposisi nilai inti Niobium adalah mengatasi hambatan ini. Mereka telah mengembangkan prosesor baru yang disebut “mistic Core,” yang didasarkan pada arsitektur gate array yang dapat diprogram di lapangan. Kini tersedia dalam versi beta pribadi, chip ini memungkinkan tugas FHA berjalan dua kali lebih cepat dibandingkan unit pemrosesan grafis atau akselerator khusus mana pun.

“Enkripsi data langsung secara tradisional selalu sangat mahal dan rumit, sehingga memperlambat aplikasi,” kata Holger Mueller dari Constellation Research. “Untuk waktu yang lama, FHE menjadi titik lemah dalam enkripsi data karena hal ini, sehingga sangat baik untuk melihat inovasi dengan penawaran yang diberi nama The Fog. Pertanyaan berikutnya adalah seberapa cepat perusahaan akan mengadopsi teknik ini.”

Untuk membantu perusahaan memulai FHE, Niobium telah membuat sejumlah aplikasi template. Ini termasuk aplikasi Pencarian Semantik Terenkripsi yang memungkinkan untuk menanyakan data sensitif berdasarkan makna, bukan pencocokan tepat. Hal ini memastikan kueri dan data pokok tetap terenkripsi sepenuhnya, menjadikannya ideal untuk beban kerja generasi augmented pengambilan yang aman.

Ada juga aplikasi Pembelajaran Federasi yang memungkinkan untuk melatih model AI pada kumpulan data terdistribusi tanpa harus mengeksposnya. Terakhir, perusahaan telah mengembangkan aplikasi Klasifikasi Pembelajaran Mesin yang dapat menganalisis informasi terenkripsi untuk mengidentifikasi pola, tren, dan ancaman keamanan.

Peluncuran The Fog mengungkap aspirasi Niobium untuk mengubah FHE dari keingintahuan matematis menjadi model standar industri yang akan membuka jalan bagi organisasi untuk berbuat lebih banyak dengan data paling sensitif mereka. Untuk itu, perusahaan telah meluncurkan kompiler khusus dan kit pengembangan perangkat lunak untuk membantu pengembang yang tidak memiliki pengetahuan tentang enkripsi dalam membangun aplikasi yang dapat berjalan di platform.

Kemampuan Fog sangat menarik bagi pengembang AI. Sistem AI hanya akan sebagus data yang mendukungnya, namun sejumlah besar kumpulan data terkaya masih terlarang untuk model AI karena masalah keamanan. Niobium membuka kemungkinan bagi perusahaan untuk melatih model AI bersama pada kumpulan data yang sangat sensitif dan berjumlah besar, karena dapat memastikan bahwa tidak ada pihak yang melihat kumpulan data sebenarnya. Hal ini juga dapat memecahkan pertanyaan tentang privasi cepat, di mana pekerja terkadang mengunggah data sensitif bersamaan dengan perintah mereka sehingga model bahasa besar dapat menganalisisnya dan menghasilkan respons.

Kedepannya, kata Niobium, hal ini akan membuat FHE semakin bertenaga. Hari ini terungkap bahwa pihaknya bekerja sama dengan pengembang silikon khusus Semifive US Inc. dan Samsung Foundry untuk membuat sirkuit terintegrasi khusus aplikasi baru yang disesuaikan untuk FHE. Startup tersebut mengatakan hal ini akan meningkatkan kinerja FHE secara dramatis, karena sirkuit ASIC dapat dioptimalkan untuk menjalankan aplikasi individual.

Gambar: Niobium

Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.

  • 15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
  • 11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.

Tentang Media SiliconANGLE

SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.

Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.



Niobium menghadirkan beban kerja AI terenkripsi sepenuhnya ke cloud dengan The Fog

Model Gemma 4 baru dari Google menghadirkan keterampilan penalaran yang kompleks ke perangkat berdaya rendah


Google LLC meningkatkan taruhannya pada model kecerdasan buatan berbobot terbuka dengan merilis Gemma 4, rangkaian model “terbuka” tercanggihnya sejauh ini.

Dibangun di atas fondasi arsitektur yang sama dengan Gemini 3, model ini dirancang untuk menangani tugas-tugas penalaran yang kompleks dan mendukung agen AI otonom yang berjalan secara lokal pada perangkat berdaya rendah seperti workstation dan ponsel pintar.

Dengan Gemma 4, peneliti Google DeepMind Clement Farabet dan Olivier Lacombe mengatakan, mereka telah berhasil menghasilkan lebih banyak “kecerdasan per parameter”, sehingga memungkinkan mereka mencapai bobot yang jauh melebihi kelas beratnya. Misalnya, varian 31B Dense saat ini menempati peringkat ketiga dalam model terbuka di papan peringkat Arena AI Text standar industri.

Model Gemma 4 hadir dalam empat varian: Effective 2B, Effective 4B, model Mixture of Experts 26B, dan model Dense 31B. Model “Efektif” yang lebih kecil dirancang untuk kasus penggunaan edge pada perangkat keras ringan seperti ponsel pintar Android atau komputer Raspberry Pi, kata para peneliti. Sementara itu, model MoE 26B memiliki trik cerdas yaitu hanya mengaktifkan 3,8 miliar parameter pada tugas inferensi, sehingga memungkinkannya bekerja dengan kecepatan tinggi tanpa mengorbankan basis pengetahuan mendalam dari model yang lebih besar.

Farabet dan Lacombe menjelaskan bahwa masing-masing model Gemma 4 lebih cocok untuk menjalankan agen AI. Jika iterasi Gemma sebelumnya memaksa pengembang untuk mengubah desain mereka sehingga mereka dapat berinteraksi dengan perangkat lunak lain, model Gemma 4 memiliki dukungan asli untuk pemanggilan fungsi dan keluaran Notasi Objek JavaScript terstruktur. Ini berarti pengembang dapat menggunakannya untuk memberdayakan agen otonom yang berinteraksi dengan alat pihak ketiga dan menjalankan rencana multi-langkah.

Keempat model tersebut memiliki kemampuan untuk memproses gambar dan video, dengan varian E2B dan E4B yang lebih kecil dilengkapi dengan dukungan input audio asli, sehingga memungkinkan pemahaman ucapan secara real-time langsung di perangkat. Google juga telah meningkatkan jendela konteks model, hingga 128K untuk model terkecil dan 256K untuk dua model besar. Ini berarti pengembang akan dapat mengunggah seluruh basis kode atau kumpulan dokumen dalam jumlah besar hanya dengan satu perintah.

Masing-masing model tersedia di bawah lisensi Apache 2.0 yang permisif, yang menghilangkan banyak batasan komersial yang diterapkan pada model AI lainnya, menjadikannya pilihan tepat bagi pengembang yang membangun aplikasi perusahaan, kata Google. Mereka dapat diakses langsung melalui Google Cloud, dan juga tersedia bersama dengan bobot terbukanya di Hugging Face, Kaggle, dan Ollama.

Rilis ini menggarisbawahi ambisi Google untuk mendominasi industri “AI lokal”. Karena model Gemma 4 yang lebih besar pun cukup kecil untuk dijalankan pada satu unit pemrosesan grafis, sehingga cocok untuk kasus penggunaan edge dan aplikasi yang mengutamakan latensi rendah dan kedaulatan digital, kata Holger Mueller, analis di Constellation Research.

“Google membangun keunggulannya dalam AI, tidak hanya dengan mendorong Gemini, tetapi juga membuka model dengan keluarga Gemma 4,” ujarnya. “Hal ini penting untuk membangun ekosistem pengembang AI, dan akan membantu perusahaan untuk memanfaatkan kasus penggunaan fungsional dan vertikal pada berbagai faktor bentuk perangkat. Google menetapkan standar yang tinggi pada rilis Gemma 3 sebelumnya, sehingga ada banyak harapan dengan rilis ini.”

Gambar: Google

Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.

  • 15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
  • 11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.

Tentang Media SiliconANGLE

SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.

Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.



Model Gemma 4 baru dari Google menghadirkan keterampilan penalaran yang kompleks ke perangkat berdaya rendah