[ad_1]
[ad_2]
blog Pengembang Android
Hardware Dan SoftWare Komputer
Mengenal prangkat-perangkat lunak serta keras dalam teknology dunai komputer
[ad_1]
[ad_2]
blog Pengembang Android
[ad_1]
Perjalanan Todoist untuk memodernisasi pengalaman OS Wear dengan materi 3 Manajer Ekspresif dan Kredensial
Diposting oleh Kseniia Shumelchyk – Manajer Teknik, Hubungan Pengembang Android, dan Rastislav Vaško – Kepala Android di Doist Sin …
[ad_2]
blog Pengembang Android: Studi Kasus
[ad_1]
[ad_2]
blog Pengembang Android
[ad_1]
#Weareplay: dengan lebih dari 3 miliar unduhan, temui orang -orang di belakang Amanotes
Diposting oleh Robbie McLachlan – Pengembang Pemasaran Dalam film #Weareplay terbaru kami, yang merayakan orang -orang di balik aplikasi dan permainan di …
#Weareplay
Pengembang Android
[ad_1]
[ad_2]
blog Pengembang Android
[ad_1]
[ad_2]
blog Pengembang Android
[ad_1]
Tes pada armada perangkat fisik dengan streaming perangkat Android, sekarang dengan laboratorium perangkat mitra android
Diposting oleh Adarsh Fernando – Group Product Manager, Android Studio, dan Grant Yang – Manajer Produk Sr, Omnilab Hari Ini, Kami Mantan …
#AndroidDeviceStreaming #Androidstudio
Pengujian aplikasi
[ad_1]
Computer-Aided Engineering (CAE) membentuk tulang punggung untuk pengembangan produk modern di seluruh industri, dari merancang pesawat yang lebih aman hingga mengoptimalkan sistem energi terbarukan. Itu berarti kecepatan dan akurasi komputasi sangat penting untuk keputusan rekayasa, memerlukan prototyping dan inovasi yang cepat. Namun, penghalang untuk masuk untuk ekosistem CAE saat ini dan pemecah telah tinggi.
Aplikasi CAE tradisional mengandalkan bahasa tingkat rendah seperti C ++ dan Fortran untuk memenuhi persyaratan throughput dan skalabilitas yang menuntut. Python, sementara itu, telah muncul sebagai bahasa de facto untuk pengembangan AI/ML. Ini secara historis belum digunakan untuk aplikasi CFD skala besar, karena keterbatasan kinerja yang terkait dengan sifat tingkat tinggi dan ditafsirkan. Munculnya pembelajaran mesin berbasis fisika telah menciptakan permintaan yang semakin besar untuk pemecah CAE berbasis Python yang berintegrasi dengan ekosistem AI/mL namun mempertahankan kinerja bahasa tingkat rendah.
Autodesk Research mengembangkan perpustakaan kisi Boltzmann (XLB) yang dipercepat untuk menjembatani kesenjangan ini antara pemecah CAE dan ekosistem AI/mL. Ini adalah pemecah dinamika fluida komputasi open source (CFD) berdasarkan metode kisi Boltzmann (LBM), yang digunakan oleh tim peneliti Autodesk untuk eksplorasi dan eksperimen penelitian yang sedang berlangsung. Implementasi asli Python membuatnya sangat mudah diakses oleh pengembang. Dan arsitekturnya yang dapat dibedakan memungkinkan integrasi alami dengan kerangka pemodelan AI-Physics modern, sub-bidang yang berkembang pesat dalam CAE dan domain komputasi ilmiah.
Dengan memanfaatkan NVIDIA WARP dalam hubungannya dengan GH200 Grace Hopper Superchip, XLB mencapai perkiraan ~ 8x speedup dibandingkan dengan backend JAX yang dipercepat GPU pada konfigurasi perangkat keras tertentu dan kasus pembandingan yang ditentukan oleh tim peneliti Autodesk. Memanfaatkan strategi komputasi di luar inti, Autodesk Research juga dapat skala pemecah backend Warp XLB menjadi sekitar 50 miliar sel komputasi.
NVIDIA WARP, kerangka kerja Python open source untuk simulasi kinerja tinggi dan komputasi spasial, menggabungkan aksesibilitas Python dengan kemampuan komputasi kinerja tinggi CUDA (HPC). Pada saat yang sama, Superchip GH200 membahas persyaratan CAE inti: menjalankan simulasi kesetiaan tinggi pada throughput dan skala maksimum.
Sementara kode CFD yang diimplemen Python secara tradisional dipandang sebagai kompromi kinerja, XLB membuktikan WARP dapat memberikan kinerja alur kerja CFD transformatif dalam praktiknya. Gambar 1 di bawah ini membandingkan kinerja, diukur dalam jutaan pembaruan kisi per detik (MLUPS), antara Solver Backend Warp Backend berbasis OpenCL FluidX3D dan XLB untuk simulasi aliran rongga yang digerakkan oleh LID 512³. Angka -angka ini didasarkan pada data yang tersedia untuk umum dan pembandingan internal yang dilakukan oleh tim peneliti Autodesk. Hasilnya menunjukkan bahwa kode Python XLB yang diakelerasi Warp mencapai kinerja yang sebanding (sekitar 95% mirip) dengan solver FluidX3D berbasis OpenCL yang diimplementasikan dalam C ++ untuk simulasi aliran rongga yang digerakkan oleh LID.
Pada saat yang sama, Warp menawarkan kemampuan keterbacaan yang sangat baik dan kemampuan prototipe cepat melalui antarmuka Python-nya, berbeda dengan backend berbasis C ++ dan OpenCL dari kode FluidX3D.


Kesetaraan kinerja ini membahas tantangan lama dalam penelitian CFD. Secara tradisional, para peneliti menghadapi pertukaran antara produktivitas pengembangan dan kinerja komputasi, memilih antara aksesibilitas Python atau efisiensi implementasi yang dioptimalkan dalam bahasa seperti C ++ atau Fortran. Dengan menggunakan Warp, XLB memungkinkan para peneliti untuk memanfaatkan ekosistem perpustakaan numerik Python, alat visualisasi, dan kerangka kerja pembelajaran mesin sambil mempertahankan kinerja throughput tinggi.


Warp juga dapat memanfaatkan arsitektur GH200 Grace Hopper Superchip. Selama kolaborasi bersama antara Autodesk Research dan NVIDIA, tim XLB menskalakan pemecah backend XLB XLB ke konfigurasi multi-node yang dapat melakukan simulasi CFD hingga sekitar 50 miliar elemen komputasi.
Tim menerapkan strategi komputasi di luar inti di mana domain komputasi dan variabel aliran terkait berada di memori CPU dan secara sistematis ditransfer ke GPU untuk diproses. Ini diaktifkan oleh interkoneksi NVLink-C2C GH200, dengan bandwidth CPU-GPU 900 GB/s. Itu membuat strategi komputasi di luar inti sangat praktis dengan memungkinkan streaming data yang cepat karena ubin komputasi ditukar masuk dan keluar dari memori GPU. Koherensi memori NVLink-C2C mendukung transfer data yang mulus untuk pendekatan di luar inti, menghilangkan bottleneck CPU-GPU tradisional dalam simulasi skala besar.
Gambar 2 Di atas secara kuantitatif menunjukkan penskalaan mendekati linear dengan meningkatnya jumlah simpul untuk ukuran simulasi maksimum (kiri) dan throughput komputasi (kanan) untuk pemecah backend Warp XLB. Cluster GH200 delapan simpul memungkinkan simulasi dengan sekitar 50 miliar sel kisi sambil mencapai ~ 8x speedup dibandingkan dengan sistem GH200 simpul tunggal.
Prestasi ini menandai titik balik di mana CFD asli Python tidak lagi menjadi kompromi tetapi keunggulan inovasi.
“XLB, yang ditenagai oleh NVIDIA WARP, membantu para peneliti dengan cepat membuat prototipe dan menguji ide -ide baru tanpa diperlambat oleh kemacetan kinerja,” kata Mehdi Ataei, ilmuwan riset utama AI di Autodesk Research. “Kelincahan ini telah menyebabkan pengembangan beberapa prototipe penelitian kami sedang dalam proses penerbitan.”
Di bagian ini, kami mengeksplorasi beberapa fitur utama yang membuat warp unik cocok untuk mengembangkan alat simulasi CAE yang dapat diskalakan.


NVIDIA WARP menyediakan jembatan yang kuat antara CUDA dan Python untuk pengembang simulasi (Gambar 3). Ini memungkinkan pengembang untuk menulis kernel GPU secara langsung di Python yang hanya dalam waktu (JIT)-dikompilasi menjadi kode CUDA asli. Warp menawarkan kemampuan simulasi yang kaya, seperti Warp.fem untuk analisis elemen hingga, membedakannya dari perpustakaan Python-Cuda yang ada seperti Numba. Yang penting, kernel warp dapat dibedakan berdasarkan desain, memungkinkan integrasi tanpa batas dengan kerangka kerja pembelajaran yang mendalam seperti Pytorch dan Jax. Warp juga mempertahankan interoperabilitas dengan banyak kerangka kerja yang ada, termasuk Numpy, Cupy, dan Jax, yang memungkinkan pengguna untuk memanfaatkan kekuatan masing -masing kerangka masing -masing.


Gambar 4 di atas membandingkan throughput komputasi (dalam MLUP) dan konsumsi memori antara Backend Warp dan Jax XLB. Untuk konfigurasi perangkat keras spesifik yang digunakan oleh tim peneliti Autodesk dan tolok ukur aliran rongga yang digerakkan oleh tutup, Warp mengungguli JAX dalam hal throughput dan penggunaan memori (Gambar 4). Pemecah backend Warp XLB memberikan speedup ~ 8x di atas solver backend JAX pada satu GPU A100 sambil mencapai efisiensi memori yang lebih baik dua hingga tiga kali pada GPU yang sama, untuk aliran rongga yang digerakkan oleh tutup.
Peningkatan kinerja yang substansial (plot kiri pada Gambar 4) berasal dari desain yang dioptimalkan simulasi Warp dan model pemrograman kernel eksplisit. Warp memungkinkan pengembang untuk menulis kernel CUDA khusus domain dan fungsi perangkat secara langsung di Python. Pendekatan eksplisit ini menghilangkan overhead komputasi dan memungkinkan kinerja yang lebih dapat diprediksi untuk simulasi CAE. Selain itu, Warp's JIT Compiler melakukan optimasi agresif, termasuk loop Unslolling dan eliminasi cabang, lebih lanjut meningkatkan kecepatan eksekusi.
Keuntungan efisiensi memori (plot yang tepat pada Gambar 4) mencerminkan filosofi manajemen memori eksplisit Warp. Warp mengharuskan pengembang untuk pra-pengalokasian input dan output array, menghilangkan alokasi memori tersembunyi dan buffer menengah. Pendekatan langsung ini, sambil membutuhkan perhatian pengembang, menghasilkan jejak memori yang lebih ramping yang dapat diprediksi dengan ukuran masalah.
Pertukaran historis antara produktivitas pengembangan dan kekuatan komputasi mentah tidak lagi menjadi kompromi yang diperlukan. Perpustakaan XLB – dikembangkan oleh Autodesk Research dan dipercepat oleh NVIDIA WARP – mengeksekrifikasi paradigma baru ini. Ini membuktikan bahwa kerangka kerja asli Python dapat memberikan kinerja yang setara dengan kode tingkat rendah yang sangat dioptimalkan sambil mempertahankan aksesibilitas dan siklus pengembangan yang cepat dari ekosistem Python.
Mulailah dengan Autodesk Research XLB dan NVIDIA WARP untuk proyek CFD Anda menggunakan tautan di bawah ini:
[ad_2]
Autodesk Research membawa kecepatan warp ke dinamika fluida komputasi pada NVIDIA GH200
[ad_1]
[ad_2]
blog Pengembang Android
[ad_1]
Pemrosesan video yang dipercepat perangkat keras di Python menjadi lebih mudah. Pynvvideocodec adalah perpustakaan yang berbasis di NVIDIA Python untuk pengkodean video, decoding, dan transcoding yang dipercepat GPU. Dibangun langsung di atas NVIDIA Video Codec SDK tingkat rendah, Pynvvideocodec ringan, berlisensi MIT, dan mudah dipasang menggunakan PIP. Kinerja setara dengan SDK asli.
Pynvvideocodec 2.0 adalah peningkatan besar pada bagaimana pengembang, peneliti, dan insinyur membangun jaringan pipa video berkinerja tinggi menggunakan bahasa Python yang akrab dan fleksibel.
Apakah Anda sedang mengerjakan analisis video, preprocessing AI, transcoding media, atau streaming waktu-nyata, Pynvvideocodec 2.0 memberikan kecepatan C ++ dan kemudahan Python-sekarang dengan lebih banyak fitur, kinerja yang lebih baik, dan dukungan CODEC yang diperluas. Baca terus untuk mempelajari lebih lanjut.



Rilis PynvVideocodec 2.0 memperkenalkan beberapa fitur kuat yang dirancang untuk mengoptimalkan alur kerja video untuk AI, siaran, multimedia, dan aplikasi streaming. Ini termasuk peningkatan untuk decode, encode, dan transcode.
Peningkatan Decode Baru untuk Pynvvideocodec 2.0 termasuk yang berikut:
Encode Enhancements Baru untuk Pynvvideocodec 2.0 termasuk yang berikut:
Peningkatan Transcode Baru untuk Pynvvideocodec 2.0 termasuk yang berikut:
Instal Pynvvideocodec dengan kode berikut. Proses ini tidak berubah dari versi sebelumnya.
pip install PyNvVideoCodec
Untuk akses dan kustomisasi kode sumber lengkap (mengaktifkan profil NVTX, misalnya), unduh dari NVIDIA NGC dan instal:
pip install PyNvVideoCodec.zip
Untuk menyesuaikan internal atau membangun dari sumber, gunakan kode berikut:
unzip PyNvVideoCodec.zip
cd PyNvVideoCodec
pip install .
Pynvvideocodec 2.0 memberikan kinerja nvidia video codec SDK kepada pengembang Python – dengan kesederhanaan, fleksibilitas, dan daya mentah.
Untuk membuat Anda bangun dan berjalan dengan cepat, sampel aplikasi Python dan dokumentasi Pynvvideocodec yang komprehensif dibundel dalam paket PYPI dan NGC. Dari skrip Decode dan Re-Enkode sederhana hingga transkode berbasis tersegmentasi, contoh-contoh ini dirancang untuk mencolokkan langsung ke alur kerja Anda.
Untuk mulai membangun aplikasi video generasi berikutnya lebih cepat dari sebelumnya, kunjungi PYPI atau NVIDIA NGC.
[ad_2]
Apa yang Baru di Pynvvideocodec 2.0 untuk pemrosesan video yang dipercepat GPU Python