แพ็คเกจนี้ให้ส่วนประกอบและสถาปัตยกรรมของ Spacy เพื่อใช้โมเดลหม้อแปลงผ่าน transformers ของ Hugging Face ใน Spacy ผลที่ได้คือการเข้าถึงสถาปัตยกรรมหม้อแปลงไฟฟ้าที่ทันสมัยเช่น Bert, GPT-2, XLNet ฯลฯ
รุ่นนี้ต้องใช้ Spacy v3 สำหรับเวอร์ชันก่อนหน้าของไลบรารีนี้ดูสาขา
v0.6.x
Doc ได้อย่างง่ายดายการติดตั้งแพ็คเกจจาก PIP จะติดตั้งการพึ่งพาทั้งหมดโดยอัตโนมัติรวมถึง Pytorch และ Spacy ตรวจสอบให้แน่ใจว่าคุณติดตั้งแพ็คเกจนี้ ก่อนที่ จะติดตั้งรุ่น โปรดทราบว่าแพ็คเกจนี้ต้องใช้ Python 3.6+ , Pytorch v1.5+ และ Spacy v3.0+
pip install ' spacy[transformers] ' สำหรับการติดตั้ง GPU ค้นหารุ่น CUDA ของคุณโดยใช้ nvcc --version และเพิ่มเวอร์ชันในวงเล็บเช่น spacy[transformers,cuda92] สำหรับ CUDA9.2 หรือ spacy[transformers,cuda100] สำหรับ CUDA10.0
หากคุณมีปัญหาในการติดตั้ง pytorch ให้ทำตามคำแนะนำในเว็บไซต์ทางการสำหรับระบบปฏิบัติการและข้อกำหนดเฉพาะของคุณ
หมายเหตุสำคัญ: แพ็คเกจนี้ได้รับการปรับปรุงใหม่อย่างกว้างขวางเพื่อใช้ประโยชน์จาก Spacy v3.0 รุ่นก่อนหน้านี้ถูกสร้างขึ้นเพื่อ Spacy V2.x ทำงานแตกต่างกันมาก โปรดดูเวอร์ชันที่ติดแท็กก่อนหน้าของ readMe นี้สำหรับเอกสารเกี่ยวกับเวอร์ชันก่อนหน้า
Transformer : การอ้างอิง API ส่วนประกอบของท่อ โปรดทราบว่าส่วนประกอบ transformer จาก spacy-transformers ไม่สนับสนุนหัวเฉพาะงานเช่นโทเค็นหรือการจำแนกประเภทข้อความ โมเดลหม้อแปลงเฉพาะงานสามารถใช้เป็นแหล่งที่มาของคุณสมบัติในการฝึกอบรมส่วนประกอบของเครื่องรางเช่น ner หรือ textcat แต่ส่วนประกอบ transformer ไม่ได้ให้การเข้าถึงหัวเฉพาะงานสำหรับการฝึกอบรมหรือการอนุมาน
อีกทางเลือกหนึ่งหากคุณต้องการใช้กับ การทำนาย จากข้อความการกอดใบหน้าที่มีอยู่หรือรูปแบบการจำแนกโทเค็นที่มีอยู่คุณสามารถใช้ wrappers จาก spacy-huggingface-pipelines เพื่อรวมโมเดลหม้อแปลงเฉพาะงานไว้ในท่อ Spacy ของคุณ
โปรดใช้ตัวติดตามปัญหาของ Spacy เพื่อรายงานข้อผิดพลาดหรือเปิดเธรดใหม่บนกระดานสนทนาสำหรับปัญหาอื่น ๆ