Beberapa investor di penyedia perangkat lunak akuntansi BlackLine Inc. mendorong perusahaan untuk menjajaki potensi penjualan menyusul laporan minat pengambilalihan oleh SAP SE, menurut orang-orang yang mengetahui masalah tersebut.
Ananym Capital Management dan Tensile Capital Management telah mengirimkan surat kepada dewan direksi BlackLine, kata orang-orang tersebut, meminta untuk tidak disebutkan namanya karena informasi tersebut bersifat pribadi. Sheffield Asset Management yang berbasis di Chicago juga telah berkomunikasi dengan dewan mengenai pandangannya mengenai potensi penjualan, kata mereka.
Pada awalnya insinyur perangkat lunak tersebut tidak berhasil membobol rahasia dagang raksasa chip komputer Santa Clara, Intel, namun kemudian dia mencoba lagi.
Jinfeng Luo, yang bekerja di Intel sejak tahun 2014, telah diberitahu pada tanggal 7 Juli bahwa pekerjaannya di perusahaan tersebut akan diberhentikan, efektif tanggal 31 Juli, menurut gugatan yang diajukan Intel terhadapnya pada hari Jumat.
Delapan hari sebelum masa kerjanya berakhir, Luo diduga menghubungkan hard drive eksternal ke laptop Intel miliknya, namun ketika dia mencoba mengunduh file, kontrol internal perusahaan memblokir transfer tersebut, klaim gugatan tersebut.
Lima hari kemudian, dalam tuntutan hukum, Luo menggunakan teknologi berbeda, gadget yang lebih canggih yang menyerupai server komputer kecil, yang disebut perangkat penyimpanan jaringan.
Selama tiga hari berikutnya, Luo mengunduh hampir 18.000 file, termasuk beberapa yang diberi label “Intel Top Secret,” menurut gugatan di pengadilan Negara Bagian Washington.
Tidak jelas pada hari Rabu apakah Luo memiliki pengacara yang mewakilinya dalam kasus ini, dan dia tidak dapat segera dihubungi untuk memberikan komentar.
Intel, yang menuduh Luo melanggar undang-undang rahasia dagang federal dan negara bagian, meminta setidaknya $250.000 sebagai kompensasi darinya. Perusahaan juga menginginkan perintah pengadilan yang memaksa Luo untuk menyerahkan perangkat elektronik pribadinya untuk diperiksa, dan mengharuskan dia untuk memberikan informasi rahasia yang diduga disalahgunakan kepada perusahaan.
Pembuat chip Santa Clara, yang unggul di mata publik dibandingkan tetangganya di Silicon Valley, Google, Apple, dan Facebook – mendapat sorotan nasional selama musim panas ketika Presiden Donald Trump mengumumkan bahwa pemerintah federal – dengan menggunakan dana hibah dan janji pendanaan yang telah dikeluarkan sebelumnya namun sebagian besar belum dibayarkan – mengambil 10% saham di perusahaan tersebut.
Gugatan tersebut tidak menjelaskan mengapa Luo, dari Seattle, diberhentikan dari pekerjaannya. Intel mengatakan dalam pengajuan peraturan bulan Juni bahwa mereka berencana memangkas tenaga kerjanya sebesar 15% tahun ini.
Intel mendeteksi dugaan transfer data Luo dan meluncurkan penyelidikan, kata gugatan tersebut.
Selama hampir tiga bulan, perusahaan tersebut mencoba menghubungi Luo – ikhtisar upaya Intel untuk menghubunginya memakan dua halaman dari 14 halaman gugatan tersebut – namun ia tidak pernah menanggapi panggilan telepon, email, dan surat, klaim gugatan tersebut.
“Luo bahkan menolak untuk berhubungan dengan Intel,” klaim gugatan tersebut, “apalagi mengembalikan file-file tersebut.”
Beberapa model yang digunakan untuk meramalkan segala sesuatu mulai dari tren keuangan hingga populasi hewan dalam suatu ekosistem tidak benar, menurut ahli statistik Idaho State University.
Dalam makalah baru yang diterbitkan di PLOS SatuJesse Wheeler, asisten profesor di departemen matematika dan statistik di Idaho State University, dan rekan penulisnya, Edward Ionides, profesor statistik di University of Michigan, berpendapat bahwa algoritme yang mendukung model rata-rata bergerak terintegrasi autoregresif (ARIMA) di dua lingkungan perangkat lunak umum menghasilkan perkiraan parameter yang tidak terlalu akurat. Dalam statistik, estimasi parameter adalah estimasi yang menggunakan data sampel yang dikumpulkan untuk membuat kesimpulan tentang suatu populasi.
“Ini seperti memiliki kalkulator yang mengklaim dapat menjumlahkan dua tambah dua dengan benar, namun terkadang memberikan jawaban yang salah, seperti dua tambah dua sama dengan tiga,” jelas Wheeler, pakar statistik dan komputasi. “Kita sering mengandalkan perangkat lunak statistik seperti yang kita lakukan pada kalkulator, jadi, jika kalkulator memberi tahu Anda bahwa ia memberi Anda perkiraan parameter tertentu, lebih baik melakukannya dengan keyakinan yang sangat tinggi.”
Model ARIMA termasuk yang paling umum digunakan untuk menganalisis data yang dikumpulkan dari waktu ke waktu. Mereka digunakan untuk menghubungkan nilai sesuatu saat ini – katakanlah, harga telur atau jumlah beruang yang hidup di suatu bagian hutan – dengan nilai masa lalu pada pengukuran yang sama. Hal ini memungkinkan peneliti memperhitungkan pola dan tren dalam data historis, membantu memfasilitasi penemuan ilmiah dan memperkirakan nilai masa depan.
“Model ARIMA biasanya merupakan model rangkaian waktu pertama yang dipelajari siswa di ruang kelas,” kata Wheeler. “Mereka diajarkan tidak hanya pada mata kuliah statistika, namun juga pada mata kuliah dari disiplin ilmu lain karena sangat berguna. Model ARIMA juga biasanya menjadi perbandingan dasar ketika mengembangkan algoritma statistik dan pembelajaran mesin baru.”
Selama penelitian Wheeler dan Ionides terhadap perangkat lunak yang digunakan untuk model ARIMA, mereka menemukan dan memperbaiki potensi masalah pengoptimalan dalam algoritme estimasi kemungkinan maksimum – algoritme yang menggunakan data sampel agar sesuai dengan model statistik – yang digunakan oleh perangkat lunak yang akan menghasilkan estimasi parameter suboptimal. Pada gilirannya, kata Wheeler, estimasi parameter di bawah standar dapat memengaruhi keakuratan perkiraan dan analisis statistik lainnya yang bergantung pada nilai parameter yang akurat.
“Sebagian besar praktisi bahkan tidak menyadari adanya masalah ini. Kami menemukan bahwa perkiraan kemungkinan maksimum perangkat lunak tidak sepenuhnya dioptimalkan, sehingga menghasilkan perkiraan parameter yang tidak dapat diandalkan,” kata Wheeler. “Algoritme yang digunakan mengklaim dapat memaksimalkan kemungkinan model, namun gagal melakukannya dalam sejumlah besar kasus – hingga 60% – bergantung pada data dan model.”
Selain menunjukkan kesalahan, para peneliti mengusulkan algoritma baru untuk mengatasi masalah tersebut dan menunjukkan bahwa algoritma tersebut berfungsi di R.
“Model ARIMA digunakan setiap hari oleh para peneliti dan profesional industri untuk peramalan dan analisis ilmiah di banyak bidang—ekonomi, layanan kesehatan, cuaca, dan banyak lagi,” kata Wheeler.
“Jika perangkat lunak yang memperkirakan model ini memiliki kekurangan, hal ini berpotensi menghasilkan hasil yang tidak diharapkan atau keputusan yang salah. Dengan mengidentifikasi dan memperbaiki masalah ini dalam pendekatan kemungkinan maksimum, penelitian ini membantu memastikan bahwa praktisi dan peneliti dapat mengandalkan hasil tersebut, yang pada akhirnya meningkatkan pengambilan keputusan dan pemahaman ilmiah. Bahkan peningkatan bertahap dalam akurasi estimasi dapat memberikan dampak nyata yang signifikan.”
Informasi lebih lanjut:
Jesse Wheeler dkk, Meninjau kembali inferensi untuk model ARMA: Peningkatan kesesuaian dan interval kepercayaan yang unggul, PLOS Satu (2025). DOI: 10.1371/jurnal.pone.0333993
Disediakan oleh Universitas Negeri Idaho
Kutipan: Perilaku yang tidak sesuai model: Perangkat lunak populer mungkin memberikan perkiraan yang salah (2025, 6 November) diambil 6 November 2025 dari https://phys.org/news/2025-11-behavior-popular-software-tools-faulty.html
Dokumen ini memiliki hak cipta. Terlepas dari transaksi wajar untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.
Pada awalnya insinyur perangkat lunak tersebut tidak berhasil membobol rahasia dagang raksasa chip komputer Santa Clara, Intel, namun kemudian dia mencoba lagi.
Jinfeng Luo, yang bekerja di Intel sejak tahun 2014, telah diberitahu pada tanggal 7 Juli bahwa pekerjaannya di perusahaan tersebut akan diberhentikan, efektif tanggal 31 Juli, menurut gugatan yang diajukan Intel terhadapnya pada hari Jumat.
Delapan hari sebelum masa kerjanya berakhir, Luo diduga menghubungkan hard drive eksternal ke laptop Intel miliknya, namun ketika dia mencoba mengunduh file, kontrol internal perusahaan memblokir transfer tersebut, klaim gugatan tersebut.
Lima hari kemudian, dalam tuntutan hukum, Luo menggunakan teknologi berbeda, gadget yang lebih canggih yang menyerupai server komputer kecil, yang disebut perangkat penyimpanan jaringan.
Selama tiga hari berikutnya, Luo mengunduh hampir 18.000 file, termasuk beberapa yang diberi label “Intel Top Secret,” menurut gugatan di pengadilan Negara Bagian Washington.
Tidak jelas pada hari Rabu apakah Luo memiliki pengacara yang mewakilinya dalam kasus ini, dan dia tidak dapat segera dihubungi untuk memberikan komentar.
Intel, yang menuduh Luo melanggar undang-undang rahasia dagang federal dan negara bagian, meminta setidaknya $250.000 sebagai kompensasi darinya. Perusahaan juga menginginkan perintah pengadilan yang memaksa Luo untuk menyerahkan perangkat elektronik pribadinya untuk diperiksa, dan mengharuskan dia untuk memberikan informasi rahasia yang diduga disalahgunakan kepada perusahaan.
Pembuat chip Santa Clara, yang unggul di mata publik dibandingkan tetangganya di Silicon Valley, Google, Apple, dan Facebook – mendapat sorotan nasional selama musim panas ketika Presiden Donald Trump mengumumkan bahwa pemerintah federal – dengan menggunakan dana hibah dan janji pendanaan yang telah dikeluarkan sebelumnya namun sebagian besar belum dibayarkan – mengambil 10% saham di perusahaan tersebut.
Gugatan tersebut tidak menjelaskan mengapa Luo, dari Seattle, diberhentikan dari pekerjaannya. Intel mengatakan dalam pengajuan peraturan bulan Juni bahwa mereka berencana memangkas tenaga kerjanya sebesar 15% tahun ini.
Intel mendeteksi dugaan transfer data Luo dan meluncurkan penyelidikan, kata gugatan tersebut.
Selama hampir tiga bulan, perusahaan tersebut mencoba menghubungi Luo – ikhtisar upaya Intel untuk menghubunginya memakan dua halaman dari 14 halaman gugatan tersebut – namun ia tidak pernah menanggapi panggilan telepon, email, dan surat, klaim gugatan tersebut.
“Luo bahkan menolak untuk berhubungan dengan Intel,” klaim gugatan tersebut, “apalagi mengembalikan file-file tersebut.”
Arvind Krishna, CEO IBM, tiba pada Inaugural AI Insight Forum di Russell Building di Capitol Hill, pada Rabu, 13 September 2023.
Tom Williams | Panggilan Cq-roll, Inc Gambar Getty
IBM mengatakan pada hari Selasa bahwa mereka akan memberhentikan sebagian kecil karyawannya pada kuartal saat ini.
“Pada kuartal keempat kami melaksanakan tindakan yang akan berdampak pada persentase rendah dari angkatan kerja global kami,” kata seorang juru bicara kepada CNBC. “Meskipun hal ini mungkin berdampak pada beberapa peran yang berbasis di AS, kami mengantisipasi bahwa lapangan kerja kami di AS akan tetap datar dari tahun ke tahun.”
IBM mempekerjakan 270,000 orang pada akhir tahun 2024, menurut laporan tahunan terbarunya. Pemotongan 1% pada jumlah karyawan berarti hilangnya 2.700 pekerjaan.
Perusahaan-perusahaan teknologi lain akhir-akhir ini mengalami penurunan berat badan, dan para eksekutifnya mencari cara untuk meningkatkan produktivitas dengan meningkatkan ketergantungan pada alat kecerdasan buatan.
Pada bulan Oktober, Amazon mengatakan akan memangkas 14.000 karyawan perusahaan, sedangkan induk Facebook Meta mengatakan unit AI-nya akan memecat 600 pekerja.
Pada tanggal 22 Oktober, IBM menghasilkan pendapatan yang lebih kuat dari perkiraan, berkat lonjakan pendapatan perangkat lunak sebesar 10%, dan memenuhi konsensus.
CEO Arvind Krishna telah membantu IBM memperluas basis pendapatannya sejak ia menggantikan Ginni Rometty pada tahun 2020.
Penyedia perangkat keras, perangkat lunak, dan layanan mengucapkan selamat tinggal kepada beberapa anggota staf pemasaran dan komunikasi pada Maret 2024.
Agen AI mengambil alih pekerjaan sekitar 200 orang di bagian sumber daya manusia, sehingga memimpin perusahaan untuk merekrut lebih banyak tenaga penjualan dan pengembang perangkat lunak, kata Krishna kepada The Wall Street Journal pada bulan Mei.
JAM TANGAN: IBM unggul dalam hal keuntungan dan keuntungan
Narasi yang umum dalam infrastruktur AI sering kali berpusat pada dominasi NVIDIA, namun arus balik yang menarik juga muncul, yang didukung oleh perusahaan seperti Zyphra. Dalam diskusi baru-baru ini di podcast Latent Space, Alessio Fanelli berbicara dengan Quentin Anthony, Kepala Pelatihan Model di Zyphra dan penasihat di EleutherAI, mempelajari poros strategis Zyphra yang berani terhadap perangkat keras AMD dan implikasinya terhadap masa depan pengembangan dan penerapan model AI. Wawasan Anthony mengungkapkan filosofi keterlibatan teknis yang mendalam, menantang kepuasan industri, dan menunjukkan jalan menuju keunggulan kompetitif.
Zyphra, sebuah perusahaan model full-stack, menangani segalanya mulai dari kurasi data hingga penerapan model, dengan fokus khusus pada edge AI. Keputusan strategis yang signifikan bagi startup ini adalah memigrasikan seluruh cluster pelatihannya ke AMD. “Kami baru-baru ini memindahkan seluruh klaster pelatihan kami ke AMD,” kata Anthony, menyoroti keyakinan bahwa AMD menawarkan “klaster pelatihan yang sangat menarik” yang secara signifikan mengurangi biaya operasional mereka. Langkah ini bukannya tanpa tantangan mendasar, yang berakar pada pengalaman Anthony sebelumnya bekerja pada superkomputer Frontier di Oak Ridge National Lab, yang seluruhnya didasarkan pada GPU AMD MI250X. Kebutuhan ini memaksanya untuk memindahkan operasi kompleks seperti Flash Attention ke perangkat keras AMD, sebuah proses yang sulit namun pada akhirnya mengungkap banyak hal.
Pengalaman langsung Anthony menggarisbawahi wawasan penting: meskipun NVIDIA secara historis memiliki keunggulan perangkat lunak, GPU MI300X terbaru AMD menawarkan metrik perangkat keras yang menarik. Dia mencatat bahwa untuk operasi yang terikat memori atau yang melibatkan paralelisme, MI300X AMD, dengan VRAM 192GB dan bandwidth memori yang superior, dapat mengungguli NVIDIA H100s. “Semakin sedikit waktu yang Anda habiskan dalam komputasi padat… dan semakin banyak waktu yang Anda habiskan dalam paralelisme atau berpindah ke dan dari HBM, AMD MI300X sebenarnya memiliki metrik perangkat keras yang jauh lebih baik,” jelas Anthony. Hal ini menunjukkan bahwa untuk beban kerja tertentu, terutama yang tidak bergantung pada komputasi padat FP8, AMD menghadirkan alternatif yang ampuh dan hemat biaya.
Namun, perjalanan untuk memanfaatkan potensi AMD menuntut pendekatan yang tidak konvensional dalam pengembangan kernel. Anthony secara terbuka mengkritik kecenderungan industri terhadap kerangka kerja tingkat tinggi seperti Triton, dan memilih pengkodean langsung dalam ROCm atau bahkan perakitan GPU bila diperlukan. Filosofinya jelas bersifat “bottom-up”: memahami sifat intrinsik perangkat keras terlebih dahulu, kemudian merancang algoritme untuk sepenuhnya mengeksploitasi kemampuan tersebut. Hal ini berbeda dengan pendekatan “top-down” yang mungkin mengabaikan spesifikasi perangkat keras, sehingga berpotensi mengabaikan kinerja. Dia berpendapat bahwa sebagian besar “masalah perangkat lunak” yang dirasakan AMD sebagian disebabkan oleh keterbatasan perangkat keras dan kurangnya upaya optimasi tingkat rendah yang berdedikasi. “Jika Anda mengevaluasi semuanya secara merata, Anda akan menemukan hal-hal seperti ini dalam kesulitan,” katanya, menunjukkan bahwa banyak pengembang yang belum memanfaatkan ekosistem AMD, sehingga menciptakan peluang bagi mereka yang ingin melakukan pekerjaan lebih mendalam.
Inovasi Zyphra meluas ke arsitektur modelnya. Perusahaan ini telah menjadi yang terdepan dalam model hibrida ruang angkasa, seperti Zamba 2, yang menggabungkan transformator dan blok Mamba2. Anthony dengan bangga mencatat bahwa Zamba 2, model parameter 7B, dapat menandingi kinerja Llama 3 8B. Model-model ini dioptimalkan untuk penerapan edge, dengan skala mulai dari model 1,2 miliar untuk ponsel hingga 7 miliar untuk desktop, yang menunjukkan komitmen terhadap AI pada perangkat yang efisien. Strategi pengembangan spektrum model yang disesuaikan dengan beragam kendala perangkat keras, mulai dari perangkat edge dengan sumber daya terbatas hingga klaster lokal yang lebih kuat, adalah kunci dari visi mereka tentang AI yang ada di mana-mana.
Bacaan Terkait
Anthony juga menyampaikan pemikiran jujurnya tentang peran AI dalam produktivitas pengembang dan tantangan pembuatan kode tingkat rendah. Meskipun mengakui kegunaan AI untuk tugas-tugas tingkat tinggi seperti fusi kode atau menghasilkan boilerplate, ia tetap skeptis tentang kemampuannya saat ini untuk menghasilkan kernel GPU tingkat rendah yang dioptimalkan. Ia menemukan bahwa model sering kali menghasilkan kode tingkat rendah yang “dead basic” atau benar-benar salah, yang kemudian sulit untuk di-debug karena paralelisme yang melekat dan kompleksitas operasi GPU. Dia lebih memilih akses API langsung daripada alat seperti Cursor, memprioritaskan kontrol penuh atas konteks dan menghindari “efek mesin slot” dari model yang terus-menerus mendorong. Tantangan dalam menciptakan kumpulan data kernel yang kuat dan metrik evaluasi yang andal semakin memperumit peran AI dalam domain ini.
Jalur yang ditempuh Zyphra bersama AMD merupakan bukti kekuatan keahlian teknis yang mendalam dan pilihan perangkat keras yang strategis dalam lanskap yang didominasi oleh satu pemain. Dengan merangkul nuansa arsitektur AMD dan berinvestasi dalam pengembangan kernel dasar, Zyphra tidak hanya mengurangi biaya tetapi juga mencapai terobosan kinerja yang dapat membentuk kembali dinamika kompetitif pelatihan dan penerapan model AI.
Ramp melaporkan bahwa perangkat lunak manajemen pengeluaran mengotomatiskan pelacakan pengeluaran, meningkatkan kepatuhan, dan meningkatkan pengawasan keuangan, serta mengoptimalkan operasi bisnis.
Narasi yang umum dalam infrastruktur AI sering kali berpusat pada dominasi NVIDIA, namun arus balik yang menarik juga muncul, yang didukung oleh perusahaan seperti Zyphra. Dalam diskusi baru-baru ini di podcast Latent Space, Alessio Fanelli berbicara dengan Quentin Anthony, Kepala Pelatihan Model di Zyphra dan penasihat di EleutherAI, mempelajari poros strategis Zyphra yang berani terhadap perangkat keras AMD dan implikasinya terhadap masa depan pengembangan dan penerapan model AI. Wawasan Anthony mengungkapkan filosofi keterlibatan teknis yang mendalam, menantang kepuasan industri, dan menunjukkan jalan menuju keunggulan kompetitif.
Zyphra, sebuah perusahaan model full-stack, menangani segalanya mulai dari kurasi data hingga penerapan model, dengan fokus khusus pada edge AI. Keputusan strategis yang signifikan bagi startup ini adalah memigrasikan seluruh cluster pelatihannya ke AMD. “Kami baru-baru ini memindahkan seluruh klaster pelatihan kami ke AMD,” kata Anthony, menyoroti keyakinan bahwa AMD menawarkan “klaster pelatihan yang sangat menarik” yang secara signifikan mengurangi biaya operasional mereka. Langkah ini bukannya tanpa tantangan mendasar, yang berakar pada pengalaman Anthony sebelumnya bekerja pada superkomputer Frontier di Oak Ridge National Lab, yang seluruhnya didasarkan pada GPU AMD MI250X. Kebutuhan ini memaksanya untuk memindahkan operasi kompleks seperti Flash Attention ke perangkat keras AMD, sebuah proses yang sulit namun pada akhirnya mengungkap banyak hal.
Pengalaman langsung Anthony menggarisbawahi wawasan penting: meskipun NVIDIA secara historis memiliki keunggulan perangkat lunak, GPU MI300X terbaru AMD menawarkan metrik perangkat keras yang menarik. Dia mencatat bahwa untuk operasi yang terikat memori atau yang melibatkan paralelisme, MI300X AMD, dengan VRAM 192GB dan bandwidth memori yang superior, dapat mengungguli NVIDIA H100s. “Semakin sedikit waktu yang Anda habiskan dalam komputasi padat… dan semakin banyak waktu yang Anda habiskan dalam paralelisme atau berpindah ke dan dari HBM, AMD MI300X sebenarnya memiliki metrik perangkat keras yang jauh lebih baik,” jelas Anthony. Hal ini menunjukkan bahwa untuk beban kerja tertentu, terutama yang tidak bergantung pada komputasi padat FP8, AMD menghadirkan alternatif yang ampuh dan hemat biaya.
Namun, perjalanan untuk memanfaatkan potensi AMD menuntut pendekatan yang tidak konvensional dalam pengembangan kernel. Anthony secara terbuka mengkritik kecenderungan industri terhadap kerangka kerja tingkat tinggi seperti Triton, dan memilih pengkodean langsung dalam ROCm atau bahkan perakitan GPU bila diperlukan. Filosofinya jelas bersifat “bottom-up”: memahami sifat intrinsik perangkat keras terlebih dahulu, kemudian merancang algoritme untuk sepenuhnya mengeksploitasi kemampuan tersebut. Hal ini berbeda dengan pendekatan “top-down” yang mungkin mengabaikan spesifikasi perangkat keras, sehingga berpotensi mengabaikan kinerja. Dia berpendapat bahwa sebagian besar “masalah perangkat lunak” yang dirasakan AMD sebagian disebabkan oleh keterbatasan perangkat keras dan kurangnya upaya optimasi tingkat rendah yang berdedikasi. “Jika Anda mengevaluasi semuanya secara merata, Anda akan menemukan hal-hal seperti ini dalam kesulitan,” katanya, menunjukkan bahwa banyak pengembang yang belum memanfaatkan ekosistem AMD, sehingga menciptakan peluang bagi mereka yang ingin melakukan pekerjaan lebih mendalam.
Inovasi Zyphra meluas ke arsitektur modelnya. Perusahaan ini telah menjadi yang terdepan dalam model hibrida ruang angkasa, seperti Zamba 2, yang menggabungkan transformator dan blok Mamba2. Anthony dengan bangga mencatat bahwa Zamba 2, model parameter 7B, dapat menandingi kinerja Llama 3 8B. Model-model ini dioptimalkan untuk penerapan edge, dengan skala mulai dari model 1,2 miliar untuk ponsel hingga 7 miliar untuk desktop, yang menunjukkan komitmen terhadap AI pada perangkat yang efisien. Strategi pengembangan spektrum model yang disesuaikan dengan beragam kendala perangkat keras, mulai dari perangkat edge dengan sumber daya terbatas hingga klaster lokal yang lebih kuat, adalah kunci dari visi mereka tentang AI yang ada di mana-mana.
Bacaan Terkait
Anthony juga menyampaikan pemikiran jujurnya tentang peran AI dalam produktivitas pengembang dan tantangan pembuatan kode tingkat rendah. Meskipun mengakui kegunaan AI untuk tugas-tugas tingkat tinggi seperti fusi kode atau menghasilkan boilerplate, ia tetap skeptis tentang kemampuannya saat ini untuk menghasilkan kernel GPU tingkat rendah yang dioptimalkan. Ia menemukan bahwa model sering kali menghasilkan kode tingkat rendah yang “dead basic” atau benar-benar salah, yang kemudian sulit untuk di-debug karena paralelisme yang melekat dan kompleksitas operasi GPU. Dia lebih memilih akses API langsung daripada alat seperti Cursor, memprioritaskan kontrol penuh atas konteks dan menghindari “efek mesin slot” dari model yang terus-menerus mendorong. Tantangan dalam menciptakan kumpulan data kernel yang kuat dan metrik evaluasi yang andal semakin memperumit peran AI dalam domain ini.
Jalur yang ditempuh Zyphra bersama AMD merupakan bukti kekuatan keahlian teknis yang mendalam dan pilihan perangkat keras yang strategis dalam lanskap yang didominasi oleh satu pemain. Dengan merangkul nuansa arsitektur AMD dan berinvestasi dalam pengembangan kernel dasar, Zyphra tidak hanya mengurangi biaya tetapi juga mencapai terobosan kinerja yang dapat membentuk kembali dinamika kompetitif pelatihan dan penerapan model AI.