Paket ini menyediakan komponen dan arsitektur spacy untuk menggunakan model transformator melalui transformers Face Hugging di Spacy. Hasilnya adalah akses yang nyaman ke arsitektur transformator canggih, seperti Bert, GPT-2, XLNET, dll.
Rilis ini membutuhkan Spacy V3. Untuk versi sebelumnya dari perpustakaan ini, lihat cabang
v0.6.x
Doc .Menginstal paket dari PIP akan secara otomatis menginstal semua dependensi, termasuk Pytorch dan Spacy. Pastikan Anda menginstal paket ini sebelum Anda menginstal model. Perhatikan juga bahwa paket ini membutuhkan Python 3.6+ , Pytorch v1.5+ dan Spacy v3.0+ .
pip install ' spacy[transformers] ' Untuk instalasi GPU, temukan versi CUDA Anda menggunakan nvcc --version dan tambahkan versi dalam kurung, misalnya spacy[transformers,cuda92] untuk CUDA9.2 atau spacy[transformers,cuda100] untuk CUDA10.0.
Jika Anda mengalami kesulitan menginstal Pytorch, ikuti instruksi di situs web resmi untuk sistem operasi spesifik Anda dan persyaratan.
️ Catatan penting: Paket ini telah direfaktor secara luas untuk memanfaatkan Spacy v3.0. Versi sebelumnya yang dibangun untuk Spacy v2.x bekerja sangat berbeda. Silakan lihat versi tag sebelumnya dari readme ini untuk dokumentasi pada versi sebelumnya.
Transformer : Referensi API Komponen Pipeline Perhatikan bahwa komponen transformer dari spacy-transformers tidak mendukung kepala khusus tugas seperti token atau klasifikasi teks. Model transformator khusus tugas dapat digunakan sebagai sumber fitur untuk melatih komponen spacy seperti ner atau textcat , tetapi komponen transformer tidak menyediakan akses ke kepala khusus tugas untuk pelatihan atau inferensi.
Sebagai alternatif, jika Anda hanya ingin digunakan untuk prediksi dari teks wajah pemeluk atau model klasifikasi token yang ada, Anda dapat menggunakan pembungkus dari spacy-huggingface-pipelines untuk memasukkan model transformator khusus tugas ke dalam pipa spacy Anda.
Harap gunakan pelacak masalah Spacy untuk melaporkan bug, atau buka utas baru di papan diskusi untuk masalah lain.