لقد أصدرنا مجموعة أدوات للتعلم المفاجئ مفتوحة المصدر ، تحقق من OpenPrompt!
نشجع بشدة الباحثين الذين يرغبون في الترويج لعملهم الرائع للمجتمع لتقديم طلب سحب لتحديث معلومات الورق الخاصة بهم! (انظر التفاصيل المساهمة)
يمكن التحقيق في التكيف الفعال للنماذج المدربة مسبقًا من وجهات نظر مختلفة. يركز التعليم المطالبات على المزيد من التركيز على تنظيم إجراءات التدريب وتوحيد المهام المختلفة ، في حين يوفر ضبط دلتا (طرق فعالة للمعلمة) اتجاهًا آخر من التحسين المحدد للنماذج المدربة مسبقًا. تحقق من Deltapapers!
يجب قراءة الأوراق حول ضبط موجه لنماذج اللغة التي تم تدريبها مسبقًا. يتم تحديد قائمة الورق بشكل أساسي بواسطة Ning Ding و Shengding Hu. شاهد هذا المستودع للحصول على آخر التحديثات!
هذه قائمة ورقية حول الضبط المستند إلى النماذج اللغوية التي تم تدريبها على نطاق واسع. يختلف عن النماذج الدقيقة التقليدية التي تستخدم مصنفًا صريحًا ، ويستخدم الضبط المستند إلى النماذج مباشرةً النماذج التي تم تدريبها مسبقًا لإجراء مهام التدريب قبل التدريب للتصنيف أو الانحدار.
اختصار العمل.
الميزات الرئيسية من حيث التعلم السريع المستخدم في العمل.
المهمة التي تم استكشافها بشكل رئيسي للعمل.
خاصية تم استكشافها بشكل أساسي لطرق التعلم الفوري في العمل.
يحتوي هذا القسم على الأوراق التي نظرة عامة على الاتجاهات العامة في معالجة اللغة الطبيعية الحديثة مع نماذج كبيرة (pretrained).
OpenPrompt: إطار عمل مفتوح المصدر للتعلم السريع. preprint.
Ning Ding ، Shengding Hu ، Weilin Zhao ، Yulin Chen ، Zhiyuan Liu ، Hai-Tao Zheng ، Mauson Sun [PDF] [Project] ، 2021.11
النماذج المدربة مسبقًا: الماضي والحاضر والمستقبل. preprint.
شو هان ، تشينغيان تشانغ ، نينغ دينغ ، يوكسان غو ، شياو ليو ، يوكي هوو ، جيزهونغ تشيو ، يوان ياو ، أوو تشانغ ، ليانغ تشانغ ، ووياو هان ، مينلي هوانغ ، تشين جين ، يانان لان ، يانغ ليو ، xipeng Qiu ، Ruihua Song ، Jie Tang ، Ji-Rong Wen ، Jinhui Yuan ، Wayne Xin Zhao ، Jun Zhu. [PDF] ، 2021.6
ما قبل التدريب ، المطالبة ، والتنبؤ: مسح منهجي لطرق الأساليب في معالجة اللغة الطبيعية. preprint.
ليو ، بينجفي ، فايزهي يوان ، جينلان فو ، تشنغبو جيانغ ، هيرواكي هاياشي ، وغراهام نيوبيج. [PDF] [Project] ، 2021.7
تحول النموذج في معالجة اللغة الطبيعية. أبحاث الذكاء الآلي.
Tianxiang Sun ، Xiangyang Liu ، Xipeng Qiu ، Xuanjing Huang [PDF] [Project] ، 2021.9
يحتوي هذا القسم على الأعمال التجريبية التي قد تساهم في انتشار نموذج التعلم الفوري.
التعلم النقل المعلمة المعلمة لـ NLP. ICML 2019.
نيل هولسبي ، أندريه جيروجو ، ستانيسلاف جاستنبسكي ، برونا موريون ، كوينتين دي لاروسلي ، أندريا جيسموندو ، منى أتياريان ، سيلفان جيلي . [PDF] ، [Project] ، 2019.6
استكشاف حدود التعلم النقل مع محول نص إلى نص موحد. jmlr. كولن رافيل ، نام شازير ، آدم روبرتس ، كاثرين لي ، شاران نارانج ، مايكل ماتينا ، يانكي تشو ، وي لي ، بيتر ج. ليو. [PDF] ، [Project]. 2019.10.
نماذج اللغة كقواعد المعرفة؟ EMNLP 2019.
فابيو بتروني ، تيم روكتاسشيل ، باتريك لويس ، أنطون باختين ، يوكسانغ وو ، ألكساندر هـ. ميلر ، سيباستيان ريدل. [PDF] ، [Project] ، 2019.9
كيف يمكن أن نعرف ما هي نماذج اللغة تعرف؟ TACL 2020.
Zhengbao Jiang ، Frank F. Xu ، Jun Araki ، Graham Neubig . [PDF] ، [Project] ، 2019.11
نماذج اللغة هي متعلمين قليلة. Neupips 2020.
توم بي براون ، بنيامين مان ، نيك رايدر ، ميلاني سوبريا ، جاريد كابلان ، براوللا داريوال ، آرفيند نيلاكانتان ، براناف شيام ، جيريش ساستري ، أماندا أسكيل ، سانهيني أغاروال ، آرييل هربرت ، غريتشن كروغر ، توم هينايغر ، رويان ، راميش ، دانيال م. زيغلر ، جيفري وو ، كليمنز وينتر ، كريستوفر هيس ، مارك تشن ، إريك سيغلر ، ميتوس ليتوين ، سكوت جراي ، بنيامين تشيس ، جاك كلارك ، كريستوفر بيرنر ، سام ماكاندش ، أليك رادفورد ، إيليا سوتسكيفر ، داريو أمودي. [PDF] ، [موقع ويب] ، 2020.5
adaprompt: تدريب النموذج التكيفي لـ NLP القائم على القائمة
Yulong Chen ، Yang Liu ، Li Dong ، Shuohang Wang ، Chenguang Zhu ، Michael Zeng ، Yue Zhang [PDF] ، 2022.02
يحتوي هذا القسم على الاستكشاف على الجوانب الأساسية للضبط السريع ، مثل القالب ، واللفظ ، ونماذج التدريب ، إلخ.
استغلال أسئلة cloze لعدد قليل من تصنيف نص الرصاص واستنتاج اللغة الطبيعية. EACL 2021.
تيمو شيك ، هينريش شوتز. [PDF] ، [Project] ، 2020.1
لا يقتصر الأمر على الحجم: نماذج اللغة الصغيرة هي أيضًا متعلمين قليلة. NAACL 2021.
تيمو شيك ، هينريش شوتز. [PDF] ، [Project] ، 2020.9
Autoprompt: استنباط المعرفة من نماذج اللغة مع مطالبات تم إنشاؤها تلقائيًا. preprint.
تايلور شين ، ياسامان رايجي ، روبرت ل. لوغان الرابع ، إريك والاس ، سمير سينغ. [PDF] ، [موقع ويب] ، 2020.10
تحديد الكلمات تلقائيًا يمكن أن تكون بمثابة ملصقات لتصنيف نص قليلة. Coling 2020.
تيمو شيك ، هيلموت شميد ، هينريش شوتز. [PDF] ، [Project] ، 2020.12
جعل نماذج اللغة التي تم تدريبها مسبقًا أفضل متعلمين قليل. ACL 2021.
تيانيو غاو ، آدم فيش ، دانكي تشن. [PDF] ، [Project] ، 2020.12
بادئة ضبط: تحسين المطالبات المستمرة للجيل . ACL 2021.
شيانغ ليزا لي ، بيرسي ليانغ. [PDF] ، [Project] ، 2021.1
البرمجة الفورية لنماذج اللغة الكبيرة: ما وراء نموذج القليل من اللقطة. preprint.
لاريا رينولدز ، كايل ماكدونيل. [PDF] ، 2021.2
تحسين وتبسيط التدريب على استغلال النمط. preprint.
ديريك تام ، راكيش آر مينون ، موهيت بانسال ، شاشانك سريفاستافا ، كولين رافيل. [PDF] ، 2021.3
GPT يفهم ، أيضا. preprint.
شياو ليو ، يانان تشنغ ، Zhengxiao DU ، Ming Ding ، Yujie Qian ، Zhilin Yang ، Jie Tang . [PDF] ، [Project] ، 2021.3
قوة المقياس لضبط موجه المعلمة. preprint.
براين ليستر ، رامي الرفو ، نوح ثابت . [PDF] ، [Project] ، 2021.4
تعلم كيفية السؤال: الاستعلام عن LMS بمزيج من المطالبات الناعمة. NAACL 2021.
جوانغوي تشين ، جيسون إيزنر. [PDF] [Project] ، 2021.4
التحقيق الواقعية هو [قناع]: التعلم مقابل تعلم التذكر. NAACL 2021.
زيكسوان تشونغ ، دان فريدمان ، دانكي تشن. [PDF] ، [Project] ، 2021.4
تقطيع المطالبات والمعلمات: التعلم البسيط قليل من الطلقات مع نماذج اللغة. preprint.
روبرت ل. لوجان الرابع ، إيفانا بالاشيفيتش ، إريك والاس ، فابيو بتروني ، سمير سينغ ، سيباستيان ريدل . [PDF] ، 2021.6
الاعوجاج: إعادة برمجة الاستعداد على مستوى الكلمات. ACL 2021.
كارين هامباردزوميان ، هرانت خاتشتيان ، جوناثان ماي. [PDF] ، [Project] ، 2021.6
PTR: ضبط موجه مع قواعد تصنيف النص. preprint.
شو هان ، ويلين تشاو ، نينغ دينغ ، تشايوان ليو ، ماوسونج صن. [PDF] ، 2021.5
NSP-Bert: متعلم صفري صفر قائم على ذلك من خلال مهمة أصلية قبل التدريب-التنبؤ بالجملة التالية
Yi Sun*، Yu Zheng*، Chao Hao ، Hangping Qiu ، [PDF] ، [Project] ، 2021.9
نماذج اللغات المحفورة بالحيوية هي متعلمين صفري.
Ason Wei ، Maarten Bosma ، Vincent Y. Zhao ، Kelvin Guu ، Adams Wei Yu ، Brian Lester ، Nan Du ، Andrew M. Dai ، Quoc V. Le. [PDF] ، 2021.9
PPT: ضبط موجه مسبقًا للتعلم قليلًا
Yuxian Gu*، Xu Han*، Zhiyuan Liu ، Minlie Huang. [PDF] ، 2021.9
موجه قابلة للتمييز يجعل نماذج اللغة التي تم تدريبها مسبقًا أفضل متعلمين. ICLR 2022.
Ningyu Zhang ، Luoqiu Li ، Xiang Chen ، Shumin Deng ، Zhen Bi ، Chuanqi Tan ، Fei Huang ، Huajun Chen. [PDF] ، [Project] ، 2021.10
تمكين المهام المتعددة التي تمكن التدريب من تعميم المهمة صفرية.
فيكتور سانه ، ألبرت ويبسون ، كولين رافيل ، ستيفن هـ. إليزا Szczechla ، Taewoon كيم ، غونجان شاباني ، نيهال ناياك ، ديباجيوتي داتا ، جوناثان تشانغ ، مايك تيان جيان جيانغ ، هان وانغ ، ماتيو مانيكا ، شنغ شين ، تشنغ شين يونغ ، هارشيت باندي ، راشيل باودن ، توماس وانغ ، تريشالا نيرا. ، أندريا Santilli ، Thibault Fevry ، Jason Alan Fries ، Ryan Teehan ، Stella Biderman ، Leo Gao ، Tali Bers ، Thomas Wolf ، Alexander M. Rush. [PDF] ، 2021.10
P-Tuning V2: يمكن أن يكون الضبط السريع قابلاً للمقارنة مع التكاثر العالمي عبر المقاييس والمهام. ACL 2022.
Xiao Liu ، Kaixuan Ji ، Yicheng Fu ، Zhengxiao Du ، Zhilin Yang ، Jie Tang [PDF] ، [Project] ، 2021.10
ضبط الصندوق الأسود لنظام اللغة كخدمة. ICML 2022.
Tianxiang Sun ، Yunfan Shao ، Hong Qian ، Xuanjing Huang ، Xipeng Qiu [PDF] ، [Project] ، 2022.1
التعلم السريع في صندوق الأسود لنماذج اللغة التي تم تدريبها مسبقًا. preprint.
Shizhe Dio ، Xuechun Li ، Yong Lin ، Zhichao Huang ، Tong Zhang [PDF] ، 2022.1
نماذج لغة ملزمة باللغات الرمزية. preprint.
Zhoujun Cheng*، Tianbao Xie*، Peng Shi ، Chengzu Li ، Rahul Nadkarni ، Yushi Hu ، Caiming Xiong ، Dragomir Radev ، Mari Ostendorf ، Luke Zettlemoyer ، Noah A. ، 2022.10
كتالوج نمط موجه لتعزيز الهندسة السريعة مع chatgpt. Jules White ، Quchen Fu ، Sam Hays ، Michael Sandborn ، Carlos Olea ، Henry Gilbert ، Ashraf Elnashar ، Jesse Spencer-Smith ، Douglas C. Schmidt [PDF] ، 2023.2
يحتوي هذا القسم على تحليل أساليب التعلم الفوري ، بما في ذلك على سبيل المثال لا الحصر لماذا يعمل التعلم الفوري ، وخصائص مختلفة لأساليب التعلم الفوري ، وتقييد أساليب التعلم الفوري.
ما الذي يجعل أمثلة جيدة في السياق لـ GPT-3؟ . preprint.
Jiachang Liu ، Dinghan Shen ، Yizhe Zhang ، Bill Dolan ، Lawrence Carin ، Weizhu Chen . [PDF] 2021.1
كم عدد نقاط البيانات قيمة موجبة؟ NAACL 2021.
تيفين لو سكاو ، ألكساندر م. راش. [PDF] ، [Project] ، 2021.3
منافسة شكل السطح ، لماذا لا تكون أعلى إجابة احتمالية ليست صحيحة دائمًا. preprint. preprint.
آري هولتزمان ، بيتر ويست ، شوارتز ، ياجين تشوي ، لوك Zettlemoyer. [PDF] [Project] ، 2021.4
التعليمات الطبيعية: التعميم القياسي على مهام جديدة من تعليمات اللغة الطبيعية. preprint.
سواروب ميشرا ، دانييل خاشابي ، شيتا بارال ، هانانه هاجشييرزي. [PDF] ، [Project] ، 2021.4
المطالبات المطلوبة بشكل خيالي وأين يمكن العثور عليها: التغلب على حساسية ترتيب قليلة الطلقة . preprint.
Yao Lu ، Max Bartolo ، Alastair Moore ، Sebastian Riedel ، Pontus Stenetorp . [PDF] 2021.4
نماذج لغة ضبط التلويح للإجابة على المطالبات بشكل أفضل. preprint.
Ruiqi Zhong ، Kristy Lee*، Zheng Zhang*، Dan Klein . [PDF] 2021.4
التعلم القليلة الحقيقية مع نماذج اللغة . preprint.
إيثان بيريز ، دووي كيلا ، كيونغيون تشو . [PDF] ، [Project] 2021.5
لماذا تساعد نماذج اللغة المسبقة في مهام المصب؟ تحليل الرأس والضبط السريع . preprint.
كولين وي غنت مايكل Xie Tengyu Ma [PDF] ، 2021.6
هل تتفهم النماذج المستندة إلى الموجهات معنى مطالباتها؟ preprint.
ألبرت ويبسون ، إيلي بافليك. [PDF] ، [Project] 2021.9
تجنب الاستدلال الاستدلال في Finetuning القائمة على الطلقة القليلة. preprint.
Prasetya Ajie Utama ، Nafise Sadat Moosavi ، Victor Sanh ، Irina Gurevych. [PDF] ، 2021.9
نحو رؤية موحدة للتعلم النقل الفعال للمعلمة. preprint.
Junxian He ، Chunting Zhou ، Xuezhe MA ، Taylor Berg-Kirkpatrick ، Graham Neubig. [PDF] ، 2021.10
استكشاف مساحة المهمة الداخلية منخفضة الأبعاد عن طريق ضبط موجه. preprint.
Yujia Qin ، Xiaozhi Wang ، Yusheng Su ، Yankai Lin ، Ning Ding ، Zhiyuan Liu ، Juanzi Li ، Lei Hou ، Peng Li ، Maosong Sun ، Jie Zhou [PDF]
استكشاف الضعف العالمي لنموذج التعلم الفوري. نتائج NAACL 2022.
Lei Xu ، Yangyi Chen ، Ganqu Cui ، Hongcheng Gao ، Zhiyuan Liu [PDF] ، [Project]
إعادة التفكير في دور المظاهرات: ما الذي يجعل التعلم في السياق؟ Arxiv 2022.
Sewon Min ، Xinxi Lyu ، Ari Holtzman ، Mikel Artetxe ، Mike Lewis ، Hannaneh Hajishirzi ، Luke Zettlemoyer [PDF] ، [Project]
يجعل الضبط السريع الموفرة للمعلمة المعممة والمعايرة المستردة النصية العصبية. preprint.
Weng Lam Tam ، Xiao Liu ، Kaixuan JI ، Lilong Xue ، Yuxiao Dong ، Jiahua Liu ، Maodi Hu ، Jie Tang [PDF] [Project]
تجاهل موجه السابق: تقنيات الهجوم لنماذج اللغة. جائزة أفضل ورقة @ Neups ML السلامة ورشة عمل 2022.
Fábio Perez ، Ian Ribeiro [PDF] [Project] ، 2022.11
يحتوي هذا القسم على تحسين أساليب ضبط المطالبة الأساسية ، على سبيل المثال لا الحصر لاستخدام موارد إضافية لتحسين العروض ، مما يجعل أوجه القصور في العمل السابق أو إجراء ضبط سريع بطرق غير مرئية.
المعايرة قبل الاستخدام: تحسين أداء طلقة قليلة لنماذج اللغة. preprint.
توني زهو ، إريك والاس ، شي فنغ ، دان كلاين ، سمير سينغ. [PDF] ، [Project] ، 2021.2
توليد النص مع تعليم Q فعال (ناعم). preprint.
هان قوه ، بوين تان ، تشنغتشونغ ليو ، إريك ب. شينغ ، تشينغ هو. [PDF] ، 2021.6
صقل موجه على دراية: دمج المعرفة في المُلحق اللفظي السريع لتصنيف النص. preprint.
Shengding Hu ، Ning Ding ، Huadong Wang ، Zhiyuan Liu ، Juanzi Li ، Maosong Sun. [PDF] ، [Project] ، 2021.8
نموذج لغة القناة الصاخبة التي تقدم لتصنيف نص قليلة. preprint.
Sewon Min ، Mike Lewis ، Hannaneh Hajishirzi ، Luke Zettlemoyer. [PDF] ، 2021.8
تكييف نماذج اللغة للتعلم صفريًا من خلال صياغة ميتا على مجموعة البيانات وجمع المطالبة.
Ruiqi Zhong ، Kristy Lee* Zheng Zhang* ، Dan Klein. [PDF] ، 2021.9
إعادة النظر في التدريب الذاتي للتعلم القليلة من نموذج اللغة. preprint.
Yiming Chen ، Yan Zhang ، Chen Zhang ، Grandee Lee ، Ran Cheng ، Haizhou Li. [PDF] ، 2021.10
القائمة: التدريب الذاتي لايت يجعل متعلمي القليل من اللقطة. preprint.
Yaqing Wang ، Subhabrata Mukherjee ، Xiaodong Liu ، Jing Gao ، أحمد حسن عودله ، Jianfeng Gao. [PDF] ، 2021.10
النماذج اللفظية النموذجي لضبط طلقة قليلة القائمة. ACL 2022.
Ganqu Cui ، Shengding Hu ، Ning Ding ، Longtao Huang ، Zhiyuan Liu . [PDF] ، [Project] ، 2022.3
BBTV2: يمكن أن يكون تحسين صندوق السوداء النقي قابلاً للمقارنة مع هبوط التدرج للتعلم قليلاً. preprint.
Tianxiang Sun ، Zhengfu He ، Hong Qian ، Xuanjing Huang ، Xipeng Qiu [PDF] [Project] ، 2022.5
يحتوي هذا القسم على أساليب التعلم السريع المصممة لمهمة NLP المختلفة.
التفكير بصوت عالٍ: يعمل توليد السياق الديناميكي على تحسين أداء التفكير الصفري لـ GPT-2. preprint.
جريجور بيتز ، كايل ريتشاردسون ، كريستيان فويغت. [PDF] 2021.3
GPT3MIX: الاستفادة من نماذج اللغة واسعة النطاق لزيادة النص. preprint.
Kang Min Yoo ، Dongju Park ، Jawook Kang ، Sang-Woo Lee ، Woomyeong Park. [PDF] 2021.4
نماذج اللغة المقيدة تسفر عن محلات دلالية قليلة. preprint.
ريتشارد شين ، كريستوفر هـ. لين ، سام طومسون ، تشارلز تشن ، سوبهرو روي ، إيمانويل أنطونيوس بلاتانيوس ، آدم بولس ، دان كلاين ، جيسون إيزنر ، بنيامين فان دورمي. [PDF] 2021.4
تسمية اللفظي والترحيب لاستخراج العلاقة الفعالة صفر وبعض اللقطة. EMNLP 2021.
Oscar Sainz ، Oier Lopez de Lacalle ، Gorka Labaka ، Ander Barrena ، Eneko Agirre. [PDF] ، 2021.4
PADA: نهج الانحدار التلقائي القائم على التكيف مع المجالات غير المرئية preprint.
Eyal Ben-David ، Nadav Oved ، ROI Reichart. [PDF] [Project] 2021.5
تعلم موجه لكتابة الكيان الدقيقة. preprint.
Ning Ding ، Yulin Chen ، Xu Han ، Guangwei Xu ، Pengjun Xie ، Hai-Tao Zheng ، Zhiyuan Liu ، Juanzi Li ، Hong-Gee Kim [PDF] ، 2021.8
knowprompt: صقل موجه مدرك للمعرفة مع التحسين التآزري لاستخراج العلاقة. www 2022.
Xiang Chen ، Xin Xie ، Ningyu Zhang ، Jiahuan Yan ، Shumin Deng ، Chuanqi Tan ، Fei Huang ، Luo Si ، Huajun Chen. . [PDF] ، [Project] ، 2021.9
استكشاف التعلم القائم على الطائرات القليلة لتوليد الحوار. preprint.
تشوجي تشنغ ، مينلي هوانغ. [PDF] ، 2021.9
Sentiprompt: المعرفة المعرفة المحسّنة في التحليل السريع لتحليل المشاعر القائمة على الجانب. preprint.
Chengxi Li ، Feiyu Gao ، Jiajun Bu ، Lu Xu ، Xiang Chen ، Yu Gu ، Zirui Shao ، Qi Zheng ، Ningyu Zhang ، Yongpan Wang ، Zhi Yu. [PDF] 2021.9
ضبط موجه خالية من القالب ل NER قليل. preprint.
Ruotian Ma*، Xin Zhou*، Tao Gui ، Yiding Tan ، Qi Zhang ، Xuanjing Huang. [PDF] ، 2021.9
تعلم المطالبة بنماذج لغة الرؤية. preprint.
Kaiyang Zhou و Jingkang Yang و Chen Change Loy و Ziwei Liu. [PDF] ، 2021.9
CPT: ضبط موجه ملون لنماذج اللغة التي تم تدريبها مسبقًا. preprint.
Yuan Yao*، Ao Zhang*، Zhengyan Zhang ، Zhiyuan Liu ، Tat-Seng Chua ، Maosong Sun. [PDF] ، 2021.10
MSP: مطالبة متعددة المراحل بجعل نماذج اللغة التي تم تدريبها مسبقًا مترجمين أفضل. preprint.
Zhixing Tan ، Xiangwen Zhang ، Shuo Wang ، Yang Liu. [PDF] ، 2021.10
روبوت قليلة: التعلم القائم على أنظمة الحوار. preprint.
Andrea Madotto ، Zhaojiang Lin ، Genta Indra Winata ، Pascale Fung [PDF] ، 2021.10
البادئات السيطرة لتوليد النص. preprint.
جوردان كلايف ، كريس تساو ، ماريك ري. [PDF] ، 2021.10
قوة الضبط الفوري للحلية الدلالية منخفضة الموارد. preprint.
ناثان شوشير ، سيفا ريدي ، هارم دي فريز. [PDF] ، 2021.10
مطالبة جيدة تساوي ملايين المعلمات؟ التعلم القائم على الموارد المنخفضة في الموارد الطبيعية لنماذج اللغات الرؤية.
Woojeong Jin ، Yu Cheng ، Yelong Shen ، Weizhu Chen ، Xiang Ren. [PDF]
Lightner: إطار عمل خفيف الوزن مع انتباه موجه سريعًا لـ NER منخفض الموارد. Coling 2022.
Xiang Chen ، Lei Li ، Shumin Deng ، Chuanqi Tan ، Changliang Xu ، Fei Huang ، Luo Si ، Huajun Chen ، Ningyu Zhang. [PDF] ، [Project] ، 2021.8
UnifiedSKG: توحيد ومهام المعرفة منظم مع نماذج لغة النص إلى نص.
Tianbao Xie*، Chen Henry Wu*، Peng Shi ، Ruiqi Zhong ، Torsten Scholak ، Michihiro Yasunaga ، Chien-Sheng Wu ، Ming Zhong ، Pengcheng Yin ، Sida I. Wang ، Victor Zhong ، Bailin Wang ، Chengzu Li ، Connor Boyle ، Ansong Ni ، Ziyu Yao ، Dragomir Radev ، Caiming Xiong ، Lingpeng Kong ، Rui Zhang ، Noah A. Smith ، Luke Zettlemoyer ، Tao Yu. [PDF] ، [Project] ، [Website] ، 2022.1
صياغة موجهة معززة بالأنطولوجيا لتعلم القليل من اللقطة. www 2022.
Hongbin Ye ، Ningyu Zhang ، Shumin Deng ، Xiang Chen ، Hui Chen ، Feiyu Xiong ، Xi Chen ، Huajun Chen. [PDF] ، 2022.1
تعلم المطالبة بالتعلم المستمر. CVPR 2022.
Zifeng Wang ، Zizhao Zhang ، Chen-Yu Lee ، Han Zhang ، Ruoxi Sun ، Xiaoqi Ren ، Guolong Su ، Vincent Perot ، Jennifer Dy ، Tomas Pfister. [PDF] ، [Project] ، 2021.12
استخراج العلاقة كفحص للكتاب المفتوح: ضبط موجه المعزز بالاسترجاع. سيجير 2022.
Xiang Chen ، Lei Li ، Ningyu Zhang ، Chuanqi Tan ، Fei Huang ، Luo Si ، Huajun Chen. [PDF] ، [Project] ، 2022.5
إرشادات بصرية جيدة تجعل مستخرجًا أفضل: بادئة مرئية هرمية للكيان متعدد الوسائط واستخراج العلاقة. نتائج NAACL 2022.
Xiang Chen ، Ningyu Zhang ، Lei Li ، Yunzhi Yao ، Shumin Deng ، Chuanqi Tan ، Fei Huang ، Luo Si ، Huajun Chen. [PDF] ، [Project] ، 2022.5
سلسلة من الفكر تثير التفكير في نماذج اللغة الكبيرة. preprint 2022.
جيسون وي ، Xuezhi Wang ، Dale Schuurmans ، Maarten Bosma ، Ed Chi ، Quoc LE ، Denny Zhou. [PDF]
يتحسن التوافق الذاتي سلسلة من التفكير في نماذج اللغة. preprint 2022.
Xuezhi Wang ، Jason Wei ، Dale Schuurmans ، Quoc LE ، Ed Chi ، Sharan Narang ، Aakanksha Chowdhery ، Denny Zhou. [PDF]
نماذج اللغة الكبيرة هي أسباب صفرية. preprint 2022.
Takeshi Kojima ، Shixiang Shane Gu ، Machel Reid ، Yutaka Matsuo ، Yusuke Iwasawa. [PDF]
يتيح المطالبة الأقل من أن تتيح التفكير المعقد في نماذج اللغة الكبيرة. preprint 2022.
ديني تشو ، ناثانيل شرلي ، لو هو ، جيسون وي ، ناثان سكاليس ، Xuezhi Wang ، Dale Schuurmans ، Olivier Bousquet ، Quoc LE ، Ed Chi. [PDF]
المطالبة الوهمية: التفكير المتسق منطقيا مع التفسيرات العودية. preprint 2022.
Jaehun Jung ، Lianhui Qin ، Sean Welleck ، Faeze Brahman ، Chandra Bhagavatula ، Ronan Le Bras ، Yejin Choi [PDF]
على تقدم جعل نماذج اللغة أفضل. preprint 2022.
Yifei Li ، Zeqi Lin ، Shizhuo Zhang ، Qiang Fu ، Bei Chen ، Jian-Guang Lou ، Weizhu Chen [PDF]
تعلم تكوين مطالبات ناعمة للتعلم الصفري الصفر. preprint 2022.
Nihal V. Nayak*، Peilin Yu*، Stephen H. Bach [PDF] ، [Project]
فصل المعرفة من الحفظ: التعلم السريع المتمثل في الاسترجاع. Neupips 2022.
Xiang Chen ، Lei Li ، Ningyu Zhang ، Xiaozhuan Liang ، Shumin Deng ، Chuanqi Tan ، Fei Huang ، Luo Si ، Huajun Chen. [PDF] ، [Project] ، 2022.5
استكشاف تعميم الطول في نماذج اللغة الكبيرة. preprint 2022.
CEM Anil ، Yuhuai Wu ، Andersen Andreasen ، Aitor Lewkowycz ، Vedant Misra ، Vinay Ramasesh ، Ambrose Slone ، Guy Gur-Ari ، Ethan Dyer ، Behnam Neyshabur [PDF]
اسألني أي شيء: استراتيجية بسيطة لطرح نماذج اللغة. preprint 2022.
Simran Arora ، Avanika Narayan ، Mayee F. Chen ، Laurel Orr ، Neel Guha ، Kush Bhatia ، Ines Chami ، Frederic Sala ، Christopher Ré [PDF]
قياس وتضييق فجوة التكوين في نماذج اللغة preprint 2022.
Ofir Press ، Muru Zhang ، Sewon Min ، Ludwig Schmidt ، Noah A. Smith ، Mike Lewis [PDF]
RLPROMPT: تحسين النص المنفصل يطالب بتعلم التعزيز preprint 2022.
Mingkai Deng ، Jianyu Wang ، Cheng-Ping Hsieh ، Yihan Wang ، Han Guo ، Tianmin Shu ، Meng Song ، Eric P. Xing ، Zhiting Hu [PDF]
المنطق مع نموذج اللغة المطالبة: A Survey Preprint 2022.
Shuofei Qiao ، Yixin OU ، Ningyu Zhang ، Xiang Chen ، Yunzhi Yao ، Shumin Deng ، Chuanqi Tan ، Fei Huang ، Huajun Chen [PDF]
نشكر Yujia Qin ، Xiachong Feng ، Chenglei SI ، Tianbao Xie ، Muhtasham Oblokulov على التوصية الورقية.
لا تقلق إذا وضعت كل هذه الخطأ ، وسوف نصلحها لك. فقط المساهمة وترويج عملك الرائع هنا!
إذا أوصيت بعمل لم يكن لك ، فسيتم إضافتك إلى قائمة المساهمين (تأكد من تقديم معلوماتك في المساهمين الآخرين).