awesome sentence embedding
1.0.0
قائمة منسقة من الجملة المسبقة ونماذج تضمين الكلمات
| تاريخ | ورق | عدد الاقتباس | رمز التدريب | نماذج ما قبل |
|---|---|---|---|---|
| - | محافظات الويب: مجموعة أدوات لبناء واجهات الويب للنماذج الدلالية المتجهة | ن/أ | - | RUSVECTōrēs |
| 2013/01 | تقدير فعال لتمثيل الكلمات في مساحة المتجه | 999+ | ج | Word2Vec |
| 2014/12 | تمثيلات الكلمات عبر التضمين الغوسي | 221 | سيثون | - |
| 2014/؟؟ | نموذج احتمالي لتعلم تضمينات كلمة النمط متعدد النماذج | 127 | DMTK | - |
| 2014/؟؟ | تدمسينات الكلمة القائمة على التبعية | 719 | C ++ | Word2Vecf |
| 2014/؟؟ | القفازات: ناقلات عالمية لتمثيل الكلمات | 999+ | ج | قفاز |
| 2015/06 | تمثيلات ناقلات الكلمات الزائدة المتفرقة | 129 | C ++ | - |
| 2015/06 | من قاعدة بيانات إعادة الصياغة إلى نموذج إعادة صياغة التركيبة والظهر | 3 | ثيانو | بارجرام |
| 2015/06 | تمثيلات ناقلات الكلمات غير التوصلية | 68 | بيثون | Wordfeat |
| 2015/؟؟ | التعلم المشترك للشخصية والتضمينات الكلمات | 195 | ج | - |
| 2015/؟؟ | Sensembed: التعلم تضمينات الكلمة والتشابه العلائقي | 249 | - | sensembed |
| 2015/؟؟ | توضيح الكلمات الموضعية | 292 | سيثون | |
| 2016/02 | دوار: تحسين التضمينات من خلال ملاحظة ما هو مفقود | 61 | TF | - |
| 2016/03 | ناقلات الكلمات المضادة للاشمئزاز إلى القيود اللغوية | 232 | بيثون | مكافحة التنسيق (مكسورة) |
| 2016/05 | خلط نماذج موضوع Dirichlet وتضمينات الكلمات لصنع LDA2VEC | 91 | سلسلة | - |
| 2016/06 | سيامي CBOW: تحسين تضمينات الكلمات لتمثيل الجملة | 166 | ثيانو | سيامي CBOW |
| 2016/06 | عامل المصفوفة باستخدام أخذ عينات النوافذ وأخذ العينات السلبية لتحسين تمثيلات الكلمات | 58 | يذهب | Lexvec |
| 2016/07 | إثراء ناقلات الكلمات مع معلومات الكلمات الفرعية | 999+ | C ++ | fasttext |
| 2016/08 | المجمعات المورفولوجية للتضمينات العصبية الاحتمالية | 34 | ثيانو | - |
| 2016/11 | نموذج العديد من المهام: زراعة شبكة عصبية لمهام NLP متعددة | 359 | C ++ | charngram2vec |
| 2016/12 | ConceptNet 5.5: رسم بياني متعدد اللغات مفتوح للمعرفة العامة | 604 | بيثون | NumberBatch |
| 2016/؟؟ | تعلم الكلمة meta-deddings | 58 | - | meta-emb (مكسور) |
| 2017/02 | ناقلات الكلمة ثنائية اللغة دون اتصال بالإنترنت ، والتحولات المتعامدة و softmax المقلوب | 336 | بيثون | - |
| 2017/04 | توزيعات الكلمات متعددة الوسائط | 57 | TF | Word2GM |
| 2017/05 | تضمينات Poincaré لتعلم التمثيلات الهرمية | 413 | Pytorch | - |
| 2017/06 | يشفر السياق على أنه امتداد بسيط ولكنه قوي لـ Word2Vec | 13 | بيثون | - |
| 2017/06 | التخصص الدلالي لمساحات متجه الكلمات التوزيعي باستخدام قيود أحادية اللغة | 99 | TF | جذب ريبل |
| 2017/08 | تعلم تمثيلات الكلمات الصينية من حروف الأحرف | 44 | ج | - |
| 2017/08 | جعل إحساسًا بتضمينات الكلمة | 92 | بيثون | Sensegram |
| 2017/09 | تضمينات التجزئة لتمثيلات الكلمات الفعالة | 25 | كيراس | - |
| 2017/10 | BPEMB: التضمينات الفرعية الخالية من الرمز المميز قبل التدريب على 275 لغة | 91 | جينسيم | BPEMB |
| 2017/11 | العمود الفقري: تضمينات عصبية قابلة للتفسير متناثرة | 48 | Pytorch | العمود الفقري |
| 2017/؟؟ | ARAVEC: مجموعة من نماذج تضمين الكلمات العربية لاستخدامها في NLP العربية | 161 | جينسيم | ARAVEC |
| 2017/؟؟ | NGRAM2VEC: تعلم تمثيلات الكلمات المحسنة من إحصاءات التواجد المشترك NGRAM | 25 | ج | - |
| 2017/؟؟ | DICT2VEC: تعلم التضمينات باستخدام القواميس المعجمية | 49 | C ++ | DICT2VEC |
| 2017/؟؟ | تضمينات مشتركة للكلمات الصينية والشخصيات ومكونات الفرعية ذات الحبيبات الدقيقة | 63 | ج | - |
| 2018/04 | مقايضات التمثيل للتضمينات الزائدية | 120 | Pytorch | H-MDs |
| 2018/04 | عمليات التعريف الديناميكية لتحسين تمثيل الجملة | 60 | Pytorch | DME/CDME |
| 2018/05 | التفكير التناظري على العلاقات المورفولوجية والدليلية الصينية | 128 | - | chinesewordvectors |
| 2018/06 | نص fasttext الاحتمالي لتضمينات الكلمات متعددة الفئة | 39 | C ++ | نص fasttext الاحتمالية |
| 2018/09 | دمج المعلومات النحوية والدلالية في تضمينات الكلمات باستخدام الشبكات التلافيفية الرسم البياني | 3 | TF | syngcn |
| 2018/09 | FRAGE: تمثيل الكلمات الغاضب التردد | 64 | Pytorch | - |
| 2018/12 | Wikipedia2Vec: أداة محسنة لتعلم الكلمات والكيانات من ويكيبيديا | 17 | سيثون | ويكيبيديا 2VEC |
| 2018/؟؟ | Skip-Gram: التمييز بشكل صريح السياق الأيسر واليمين للتضمينات الكلمة | 106 | - | صينية |
| 2018/؟؟ | CW2VEC: تعلم تضمينات الكلمة الصينية مع معلومات السكتة الدماغية n-gram | 45 | C ++ | - |
| 2019/02 | VCWE: تضمينات الكلمات المرئية ذات الأحرف | 5 | Pytorch | VCWE |
| 2019/05 | تعلم التضمينات عبر اللغات من Twitter عبر الإشراف البعيد | 2 | نص | - |
| 2019/08 | مقاربة عصبية غير خاضعة للإشراف على تعلم الكلمة والسياق التعلم | 5 | TF | - |
| 2019/08 | فيكو: تضمينات الكلمات من العملات المرئية | 7 | Pytorch | فيكو |
| 2019/11 | تضمين النص الكروي | 25 | ج | - |
| 2019/؟؟ | كلمات غير خاضعة للرقابة تُلسِّم المعرفة الكامنة من أدب علوم المواد | 150 | جينسيم | - |
| تاريخ | ورق | عدد الاقتباس | شفرة | نماذج ما قبل |
|---|---|---|---|---|
| - | نماذج اللغة متعلمين متعددة المهام غير خاضعة للإشراف | ن/أ | TF Pytorch ، TF2.0 كيراس | GPT-2 (117m ، 124m ، 345m ، 355m ، 774m ، 1558m) |
| 2017/08 | تعلمت في الترجمة: ناقلات الكلمات السياقية | 524 | Pytorch كيراس | كوف |
| 2018/01 | نموذج اللغة الشامل لتصنيف النص | 167 | Pytorch | ulmfit (اللغة الإنجليزية ، حديقة الحيوان) |
| 2018/02 | تمثيلات الكلمات العميقة السياقية | 999+ | Pytorch TF | Elmo (Allennlp ، TF-HUB) |
| 2018/04 | تمثيل سياق فعال: نموذج اللغة التقليم لوضع تسلسل | 26 | Pytorch | LD-NET |
| 2018/07 | نحو تحليل أفضل UD: توضيح الكلمات العميقة السياقية ، ومجموعة ، وسلسلة TreeBank | 120 | Pytorch | إلمو |
| 2018/08 | اتصال الإخراج المباشر لنموذج اللغة عالية الرتبة | 24 | Pytorch | مستند |
| 2018/10 | بيرت: ما قبل التدريب من محولات ثنائية الاتجاه العميقة لفهم اللغة | 999+ | TF كيراس Pytorch ، TF2.0 mxnet paddlepaddle TF كيراس | بيرت (بيرت ، إرني ، كوبرت) |
| 2018/؟؟ | تضمينات السلسلة السياقية لوضع تسلسل | 486 | Pytorch | الذوق |
| 2018/؟؟ | تحسين فهم اللغة من خلال التدريب قبل التدريب | 999+ | TF كيراس Pytorch ، TF2.0 | GPT |
| 2019/01 | شبكات عصبية عميقة متعددة المهام لفهم اللغة الطبيعية | 364 | Pytorch | Mt-Dnn |
| 2019/01 | BioBert: نموذج تمثيل اللغة الطبية الحيوية مسبقًا لاستخراج النص الطبيب الحيوي | 634 | TF | BioBert |
| 2019/01 | نموذج اللغة عبر اللغات | 639 | Pytorch Pytorch ، TF2.0 | XLM |
| 2019/01 | Transformer-XL: نماذج لغة منتبهة تتجاوز سياق الطول الثابت | 754 | TF Pytorch Pytorch ، TF2.0 | Transformer-XL |
| 2019/02 | تعلم التمثيل السياقي الفعال بدون طبقة softmax | 2 | Pytorch | - |
| 2019/03 | Scibert: التضمينات المسبقة للسياق للنص العلمي | 124 | Pytorch ، tf | Scibert |
| 2019/04 | متاح للجمهور بيرت التضمينات | 229 | نص | Clinicalbert |
| 2019/04 | Clinicalbert: نمذجة الملاحظات السريرية والتنبؤ بالمستشفى إعادة القبول | 84 | Pytorch | Clinicalbert |
| 2019/05 | إرني: تمثيل اللغة المحسّن مع الكيانات المفيدة | 210 | Pytorch | إرني |
| 2019/05 | نموذج اللغة الموحدة قبل التدريب لفهم اللغة الطبيعية وتوليدها | 278 | Pytorch | uniLMV1 (UNILM1-large ، uniLM1-base-cazed) |
| 2019/05 | Hibert: مستوى المستند المسبق للمحولات ثنائية الاتجاه الهرمية لتلخيص المستند | 81 | - | |
| 2019/06 | قبل التدريب مع إخفاء الكلمة الكاملة لبرت الصيني | 98 | Pytorch ، tf | بيرت وود |
| 2019/06 | XLNET: ما قبل التدريب المسبق لتفاهم اللغة | 999+ | TF Pytorch ، TF2.0 | xlnet |
| 2019/07 | إرني 2.0: إطار مستمر قبل التدريب لفهم اللغة | 107 | paddlepaddle | إرني 2.0 |
| 2019/07 | Spanbert: تحسين التدريب المسبق من خلال تمثيل الفترات والتنبؤ بها | 282 | Pytorch | سبانبرت |
| 2019/07 | روبرتا: نهج بيرت المحسن ببراعة | 999+ | Pytorch Pytorch ، TF2.0 | روبرتا |
| 2019/09 | الكلمة الفرعية إلمو | 1 | Pytorch | - |
| 2019/09 | تمثيلات الكلمات السياقية المعرفة المعرفة | 115 | - | |
| 2019/09 | Tinybert: تقطير بيرت لفهم اللغة الطبيعية | 129 | - | |
| 2019/09 | Megatron-LM: تدريب نماذج لغة المعلمة بمليارات المليارات باستخدام موازاة النموذج | 136 | Pytorch | Megatron-LM (Bert-345M ، GPT-2-345M) |
| 2019/09 | Multifit: صقل طراز لغة متعددة اللغات فعال | 29 | Pytorch | - |
| 2019/09 | ضغط نموذج اللغة القصوى مع الكلمات الفرعية الأمثل والتوقعات المشتركة | 32 | - | |
| 2019/09 | البغل: تضمين اللغة العالمية متعددة الوسائط | 5 | - | |
| 2019/09 | Unicoder: تشفير لغة عالمي عن طريق التدريب المسبق مع مهام متعددة اللغات | 51 | - | |
| 2019/09 | K-Bert: تمكين تمثيل اللغة مع رسم بياني للمعرفة | 59 | - | |
| 2019/09 | Uniter: تعلم تمثيلات نص الصور الشاملة | 60 | - | |
| 2019/09 | ألبرت: لايت بيرت للتعلم الخاضع للرقابة لتمثيل اللغة | 803 | TF | - |
| 2019/10 | بارت: تقليل التسلسل إلى التسلسل قبل التدريب لتوليد اللغة الطبيعية وترجمة والفهم | 349 | Pytorch | بارت (بارت. |
| 2019/10 | Distilbert ، نسخة مقطرة من Bert: أصغر وأسرع وأرخص وأخف وزنا | 481 | Pytorch ، TF2.0 | Distilbert |
| 2019/10 | استكشاف حدود التعلم النقل مع محول نص إلى نص موحد | 696 | TF | T5 |
| 2019/11 | Camembert: نموذج لغة فرنسية لذيذة | 102 | - | جبن الكممبير |
| 2019/11 | Zen: تشفير النص الصيني قبل التدريب المعزز بتمثيلات n-gram | 15 | Pytorch | - |
| 2019/11 | التمثيل عبر اللغات غير الخاضع للإشراف على نطاق واسع | 319 | Pytorch | XLM-R (XLM-ROBERTA) (XLMR.LARGE ، XLMR.BASE) |
| 2020/01 | النبي: التنبؤ بالمستقبل n-gram للتسلسل إلى التسلسل قبل التدريب | 35 | Pytorch | النبي (النبي-large-16GB ، النبي-large-160GB) |
| 2020/02 | Codebert: نموذج تم تدريبه مسبقًا للبرمجة واللغات الطبيعية | 25 | Pytorch | Codebert |
| 2020/02 | UNILMV2: نماذج لغة مقنعة الزائفة لنموذج اللغة الموحدة قبل التدريب | 33 | Pytorch | - |
| 2020/03 | Electra: ترميز النصوص قبل التدريب على أنها تمييزات بدلاً من المولدات | 203 | TF | Electra (Electra-Small ، Electra-Base ، Electra-Large) |
| 2020/04 | MPNET: مقنع ومسبق للتدريب من أجل فهم اللغة | 5 | Pytorch | mpnet |
| 2020/05 | بارسبيرت: نموذج قائم على المحولات لفهم اللغة الفارسية | 1 | Pytorch | بارسبيرت |
| 2020/05 | نماذج اللغة متعلمين قليلة | 382 | - | - |
| 2020/07 | infoxlm: إطار نظري للمعلومات لنموذج اللغة عبر اللغات قبل التدريب | 12 | Pytorch | - |
| تاريخ | ورق | عدد الاقتباس | شفرة | model_name |
|---|---|---|---|---|
| - | تكيف المجال الإضافي للترجمة الآلية العصبية في إعدادات الموارد المنخفضة | ن/أ | بيثون | أراسيف |
| 2014/05 | تمثيلات موزعة للجمل والوثائق | 999+ | Pytorch بيثون | DOC2VEC |
| 2014/11 | توحيد التضمينات الدلالية البصرية مع نماذج اللغة العصبية متعددة الوسائط | 849 | ثيانو Pytorch | VSE |
| 2015/06 | محاذاة الكتب والأفلام: نحو تفسيرات بصرية تشبه القصة من خلال مشاهدة الأفلام وقراءة الكتب | 795 | ثيانو TF بيتورش ، الشعلة | تخطي |
| 2015/11 | اندماج الطلبات من الصور واللغة | 354 | ثيانو | ترتيب embedding |
| 2015/11 | نحو التضمينات الجملة إعادة صياغة | 411 | ثيانو | paragramphrase |
| 2015/؟؟ | من تضمينات الكلمات إلى توثيق المسافات | 999+ | ج ، بيثون | مسافة محرك الكلمات |
| 2016/02 | تعلم تمثيلات موزعة للجمل من البيانات غير المسمى | 363 | بيثون | Fastsent |
| 2016/07 | Crchagram: تضمين الكلمات والجمل عبر حرف n-grams | 144 | ثيانو | Crchagram |
| 2016/11 | تعلم تمثيلات الجملة العامة باستخدام الشبكات العصبية التلافيفية | 76 | ثيانو | Confsent |
| 2017/03 | التعلم غير الخاضع للرقابة للتضمينات على الجملة باستخدام ميزات التكوين n-gram | 319 | C ++ | Sent2vec |
| 2017/04 | تعلم توليد مراجعات واكتشاف المشاعر | 293 | TF Pytorch Pytorch | المشاعر الخلايا العصبية |
| 2017/05 | إعادة النظر في الشبكات المتكررة لتضمينات الجملة إعادة صياغة | 60 | ثيانو | غران |
| 2017/05 | التعلم الخاضع للإشراف على تمثيلات الجملة العالمية من بيانات الاستدلال اللغوي الطبيعي | 999+ | Pytorch | infersent |
| 2017/07 | VSE ++: تحسين التضمينات الدلالية مع السلبيات الصعبة | 132 | Pytorch | VSE ++ |
| 2017/08 | باستخدام ملايين من حوادث الرموز التعبيرية لتعلم أي تمثيل في مجال الكشف عن المشاعر والعاطفة والسخرية | 357 | كيراس Pytorch | Deepmoji |
| 2017/09 | Starspace: تضمين كل الأشياء! | 129 | C ++ | Starspace |
| 2017/10 | المعارضة: التعلم تمثيلات الجملة من علاقات الخطاب الصريحة | 47 | Pytorch | المعارضة |
| 2017/11 | دفع حدود التضمينات الجملة إعادة صياغة مع ملايين من الترجمات الآلية | 128 | ثيانو | الفقرة NMT |
| 2017/11 | تدمير نص تلغيرات مزدوج المسار مع فقدان المثيل | 44 | ماتلاب | صورة نصية الصورة |
| 2018/03 | إطار فعال لتعلم تمثيل الجملة | 183 | TF | فكر سريع |
| 2018/03 | تشفير الجملة العالمية | 564 | TF-HUB | يستخدم |
| 2018/04 | التراجع النصي الموجهة نحو المهام من خلال استكشافات عميقة لتفاعلات التفاعلات بين الخلاصة | 14 | ثيانو | ديست |
| 2018/04 | تعلم الغرض العام تمثيلات الجملة الموزعة عبر التعلم متعدد المهام على نطاق واسع | 198 | Pytorch | جنسن |
| 2018/06 | تضمين النص في المساحات الزائدية | 50 | TF | نص أشعة |
| 2018/07 | التمثيل التعلم مع الترميز التنبئي التباين | 736 | كيراس | CPC |
| 2018/08 | مسافة ومحرك السياق: النقل الأمثل للسياقات لتمثيل المباني | 8 | بيثون | CMD |
| 2018/09 | تعلم تمثيلات الجملة العالمية مع متوسطة الانتباه التلقائي | 14 | TF | يعني maxaae |
| 2018/10 | تعلم تمثيلات الجملة عبر اللغات عبر نموذج متعدد الأرقام متعدد المهام | 35 | TF-HUB | الاستخدام |
| 2018/10 | تحسين تمثيل الجملة مع تعظيم الإجماع | 4 | - | عرض متعدد |
| 2018/10 | Biosentvec: إنشاء توصيلات جملة للنصوص الطبية الحيوية | 70 | بيثون | Biosentvec |
| 2018/11 | تضمين Word Mover: من Word2Vec إلى توثيق التضمين | 47 | ج ، بيثون | WordMoversEmbeddings |
| 2018/11 | نهج متعددة المهام هرمية لتعلم التضمينات من المهام الدلالية | 76 | Pytorch | HMTL |
| 2018/12 | توطمنات جملة متعددة اللغات على نطاق واسع للنقل عبر اللغات الصفري وما وراءها | 238 | Pytorch | الليزر |
| 2018/؟؟ | الشبكة العصبية التلافيفية لتضمينات الجملة العالمية | 6 | ثيانو | CSE |
| 2019/01 | لا يوجد تدريب مطلوب: استكشاف ترميزات عشوائية لتصنيف الجملة | 54 | Pytorch | راندسنت |
| 2019/02 | CBOW ليس كل ما تحتاجه: الجمع بين CBOW مع نموذج مساحة المصفوفة التركيبية | 4 | Pytorch | CMOW |
| 2019/07 | اللمعان: التحسين الكامن لتمثيل الجملة | 1 | - | لمعان |
| 2019/07 | تشفير الجملة العالمية متعددة اللغات | 52 | TF-HUB | متعددة اللغات |
| 2019/08 | الجملة-بيرت: تدمير الجملة باستخدام Siamese Bert-Networks | 261 | Pytorch | الجملة ببرت |
| 2020/02 | Sbert-WK: طريقة تضمين الجملة عن طريق تشريح نماذج الكلمات المستندة إلى BERT | 11 | Pytorch | Sbert-WK |
| 2020/06 | Declutr: التعلم التباين العميق للتمثيلات النصية غير الخاضعة للرقابة | 4 | Pytorch | Declutr |
| 2020/07 | جملة بيرت العزوبية اللغوية التضمين | 5 | TF-HUB | لاب |
| 2020/11 | على الجملة التضمينات من نماذج اللغة التي تم تدريبها مسبقًا | 0 | TF | Bert-Flow |