Tanya Jawab Umum tentang menggunakan AI dengan Windows

Umum

Apa itu DirectML?

DirectML adalah API tingkat rendah untuk pembelajaran mesin yang menyediakan akselerasi GPU untuk tugas pembelajaran mesin umum di berbagai perangkat keras dan driver yang didukung, termasuk semua GPU berkemampuan DirectX 12 dari vendor seperti AMD, Intel, NVIDIA, dan Qualcomm. DirectML adalah komponen dari WinML.

Apa itu ONNX?

Buka Network Neural Exchange, atau ONNX, adalah format standar terbuka untuk mewakili model ML. Kerangka kerja model ML populer, seperti PyTorch, TensorFlow, SciKit-Learn, Keras, Chainer, MATLAB, dll., dapat diekspor atau dikonversi ke format ONNX standar. Setelah dalam format ONNX, model dapat berjalan pada berbagai platform dan perangkat. ONNX baik untuk menggunakan model ML dalam format yang berbeda dari yang dilatih.

Apa itu ORT?

ONNX Runtime, atau ORT, adalah alat runtime terpadu untuk menjalankan model dalam kerangka kerja yang berbeda (PyTorch, TensorFlow, dll) yang mendukung akselerator perangkat keras (CPU perangkat, GPU, atau NPU).

Bagaimana ONNX berbeda dari kerangka kerja ML lainnya, seperti PyTorch atau TensorFlow?

PyTorch dan TensorFlow digunakan untuk mengembangkan, melatih, dan menjalankan model pembelajaran mendalam yang digunakan dalam aplikasi AI. PyTorch sering digunakan untuk penelitian, TensorFlow sering digunakan untuk penyebaran industri, dan ONNX adalah format pertukaran model standar yang menjembatani kesenjangan, memungkinkan Anda beralih antar kerangka kerja sesuai kebutuhan dan kompatibel di seluruh platform.

Apa itu NPU? Apa perbedaannya dengan CPU atau GPU?

Unit Pemrosesan Neural, atau NPU, adalah chip AI khusus yang dirancang khusus untuk melakukan tugas AI. Fokus NPU berbeda dari CPU atau GPU. Unit Pemrosesan Pusat, atau CPU, adalah prosesor utama di komputer, yang bertanggung jawab untuk menjalankan instruksi dan komputasi tujuan umum. Unit Pemrosesan Grafis, atau GPU, adalah prosesor khusus yang dirancang untuk merender grafik dan dioptimalkan untuk pemrosesan paralel. Ini mampu merender citra kompleks untuk pengeditan video dan tugas game.

NPU dirancang untuk mempercepat algoritma pembelajaran mendalam dan dapat menghapus beberapa pekerjaan dari CPU atau GPU komputer, sehingga perangkat dapat bekerja lebih efisien. NPU dibuat khusus untuk mempercepat tugas jaringan neural. Mereka unggul dalam memproses data dalam jumlah besar secara paralel, membuatnya ideal untuk tugas AI umum seperti pengenalan gambar atau pemrosesan bahasa alami. Sebagai contoh, selama tugas pengenalan gambar, NPU mungkin bertanggung jawab atas deteksi objek atau akselerasi gambar, sementara GPU bertanggung jawab atas penyajian gambar.

Bagaimana cara mengetahui jenis CPU, GPU, atau NPU yang dimiliki perangkat saya?

Untuk memeriksa jenis CPU, GPU, atau NPU di perangkat Windows Anda dan performanya, buka Task Manager (Ctrl + Alt + Delete), lalu pilih tab Performa dan Anda akan dapat melihat CPU, Memori, Wi-Fi, GPU, dan/atau NPU komputer Anda tercantum, bersama dengan informasi tentang kecepatannya, tingkat pemanfaatan, dan data lainnya.

Apa itu WinML?

WinML, atau Windows Pembelajaran Mesin, adalah API tingkat tinggi untuk menyebarkan model pembelajaran mesin yang dipercepat perangkat keras (ML) pada perangkat Windows yang memungkinkan pengembang untuk menggunakan kemampuan perangkat untuk melakukan inferensi model. Fokusnya adalah pada pemuatan, pengikatan, dan evaluasi model. WinML menggunakan format model ONNX.

Konsep AI yang bermanfaat

Apa itu Model Bahasa Besar (LLM)?

LLM adalah jenis model Pembelajaran Mesin (ML) yang dikenal karena kemampuan untuk mencapai pembuatan dan pemahaman bahasa tujuan umum. LLM adalah jaringan neural buatan yang memperoleh kemampuan dengan mempelajari hubungan statistik dari sejumlah besar dokumen teks selama proses pelatihan yang diawasi sendiri dan semi-diawasi secara komputasi intensif. LLM sering digunakan untuk Pembuatan Teks, bentuk AI generatif yang, diberi beberapa teks input, menghasilkan kata (atau "token") yang kemungkinan besar akan membuat kalimat yang relevan secara koheren dan kontekstual sebagai imbalannya. Ada juga Model Bahasa Kecil (SLM) yang memiliki lebih sedikit parameter dan kapasitas yang lebih terbatas, tetapi mungkin lebih efisien (membutuhkan lebih sedikit sumber daya komputasi), hemat biaya, dan ideal untuk domain tertentu.

Apa itu pelatihan model ML?

Dalam Pembelajaran Mesin, pelatihan model melibatkan pengumpanan himpunan data ke dalam model (LLM atau SLM), memungkinkannya untuk belajar dari data sehingga model dapat membuat prediksi atau keputusan berdasarkan data tersebut, mengenali pola. Ini mungkin juga melibatkan penyesuaian parameter model secara berulang untuk mengoptimalkan performanya.

Apa itu Inferensi?

Proses penggunaan model pembelajaran mesin terlatih untuk membuat prediksi atau klasifikasi pada data baru yang tidak jelas disebut "Inferensi". Setelah model bahasa dilatih pada himpunan data, mempelajari pola dan hubungan yang mendasarinya, siap untuk menerapkan pengetahuan ini ke skenario dunia nyata. Inferensi adalah momen kebenaran model AI, pengujian seberapa baik itu dapat menerapkan informasi yang dipelajari selama pelatihan untuk membuat prediksi atau menyelesaikan tugas. Proses penggunaan model yang ada untuk inferensi berbeda dari fase pelatihan, yang memerlukan penggunaan data pelatihan dan validasi untuk mengembangkan model dan menyempurnakan parameternya.

Apa itu penyempurnaan model ML?

Penyempurnaan adalah langkah penting dalam pembelajaran mesin di mana model yang telah dilatih disesuaikan untuk melakukan tugas tertentu. Alih-alih melatih model dari awal, penyempurnaan dimulai dengan model yang ada (biasanya dilatih pada himpunan data besar) dan menyesuaikan parameternya menggunakan himpunan data khusus tugas yang lebih kecil. Dengan menyempurnakan, model mempelajari fitur khusus tugas sambil mempertahankan pengetahuan umum yang diperoleh selama pra-pelatihan, menghasilkan peningkatan performa untuk aplikasi tertentu.

Apa itu rekayasa prompt?

Rekayasa prompt adalah pendekatan strategis yang digunakan dengan AI generatif untuk membentuk perilaku dan respons model bahasa. Ini melibatkan permintaan atau kueri input yang dibuat dengan cermat untuk mencapai hasil yang diinginkan dari model bahasa (seperti GPT-3 atau GPT-4). Dengan merancang perintah yang efektif, Anda dapat memandu model ML untuk menghasilkan jenis respons yang Anda inginkan. Teknik termasuk menyesuaikan kata, menentukan konteks, atau menggunakan kode kontrol untuk memengaruhi output model.

Apa itu akselerasi perangkat keras (sehubungan dengan pelatihan model ML)?

Akselerasi perangkat keras mengacu pada penggunaan perangkat keras komputer khusus yang dirancang untuk mempercepat aplikasi AI di luar apa yang dapat dicapai dengan CPU tujuan umum. Akselerasi perangkat keras meningkatkan kecepatan, efisiensi energi, dan performa keseluruhan tugas pembelajaran mesin, seperti model pelatihan, membuat prediksi, atau membongkar komputasi ke komponen perangkat keras khusus yang unggul dalam pemrosesan paralel untuk beban kerja pembelajaran mendalam. GPU dan NPU adalah contoh akselerator perangkat keras.

Apa perbedaan antara Ilmuwan Data, Insinyur ML, dan Pengembang Aplikasi yang ingin menerapkan fitur AI di aplikasi mereka?

Proses pembuatan dan penggunaan model ML melibatkan tiga peran utama: Ilmuwan Data: Bertanggung jawab untuk menentukan masalah, mengumpulkan dan menganalisis data, memilih dan melatih algoritma ML, serta mengevaluasi dan menafsirkan hasilnya. Mereka menggunakan alat seperti Python, R, Jupyter Notebook, TensorFlow, PyTorch, dan scikit-learn untuk melakukan tugas-tugas ini. Teknisi ML: Bertanggung jawab untuk menyebarkan, memantau, dan memelihara model ML di lingkungan produksi. Mereka menggunakan alat seperti Docker, Kubernetes, Azure ML, AWS SageMaker, dan Google Cloud AI Platform untuk memastikan skalabilitas, keandalan, dan keamanan model ML. Pengembang Aplikasi: Bertanggung jawab untuk mengintegrasikan model ML ke dalam logika aplikasi, UI, dan UX. Mereka menggunakan alat seperti Windows Copilot Runtime, ONNX Runtime, atau REST API dan memproses input pengguna dan output model. Setiap peran melibatkan tanggung jawab dan keterampilan yang berbeda, tetapi kolaborasi dan komunikasi antara peran ini diperlukan untuk mencapai hasil terbaik. Tergantung pada ukuran dan kompleksitas proyek, peran ini dapat dilakukan oleh orang yang sama atau oleh tim yang berbeda.