قم بإنشاء readMe.md مع التعلم GPT-3 قليل
تمثل MereMe-Ai-Research مشروعًا أساسيًا لإنشاء README.md من رموز المصدر في أي مستودع. يقرأ نموذج الذكاء الاصطناعى بعض أجزاء رموز المصدر واكتب مستند README.md المقابل. يقوم فريق MereMe.md حاليًا بتقديم خدمة حول هذه الميزة ، ويمكنك العثور على نتائجنا في هذه الصفحة.
يحتوي هذا المستودع على العديد من المشروعات الفرعية. يمكنك رؤية الأوصاف التفصيلية في الدلائل.
كما أظهرت النماذج واسعة النطاق مثل GPT-3 ، فإن التعلم القليلة هو المفتاح الأكثر أهمية لبناء نموذج اللغة المعمم. يمكنهم فهم ما يجب عليهم الكتابة وفقًا للأمثلة السابقة والضافة القليلة. باستخدام هذه الميزات ، يمكنهم فعل أي شيء تقريبًا دون صقل جيد. يمكنهم تلخيص الأخبار والإجابة على الأسئلة وحتى إجراء محادثة!
قدم Openai Codex نموذج Langauge جديد واسع النطاق للبرمجة عن طريق ضبط GPT-3. الآن يمكننا أن نتوقع الأداء المعمم (التعلم قليلًا) على لغات البرمجة. على سبيل المثال ، قم بإنشاء docstring من الكود المصدري ، واكتب رمزًا جديدًا من الوصف (وهذه هي الطريقة التي يعمل بها Copilot) ، والترجمة من Python إلى Java.
نستخدم Bloom وهو من أجل العلوم المفتوحة والوصول المفتوح لنموذج اللغة على نطاق واسع. يدعم بلوم متعددة اللغات التي ليست لغات طبيعية فحسب ، بل لغات البرمجة أيضًا. قمنا بتصميم قوالب سريعة ووجدنا أفضل إصدار منها.
&&&&&&
$ head -n 30 model-finetuning/src/data.py
from __future__ import annotations
from dataclasses import dataclass
import torch
[...]
&&&&&&
$ head -n 37 model-finetuning/src/train.py
from __future__ import annotations
import argparse
import os
[...]
&&&&&&
$ git config --get remote.origin.url
https://github.com/readme-generator/alreadyme-ai-research.git
&&&&&&
$ cat README.md
[...]
سيتم فصل جميع الأمثلة بواسطة &&&&&& . لقد صممنا لجعل Bloom لأداء (أو محاكاة) أمر Linux Bash. سوف تقرأ Bloom بعض أجزاء رموز المصدر من المطالبة المحددة وإنشاء ملف README.md مناسب.
لمزيد من التفاصيل ، تحقق من مشروعنا الفرعي للبليصة .
تم إصدار MereMe-Ai-Research ضمن ترخيص Apache 2.0. يمكن العثور على الترخيص هنا.
@misc { https://doi.org/10.48550/arxiv.2005.14165 ,
title = { Language Models are Few-Shot Learners } ,
author = { Brown, Tom B. and Mann, Benjamin and Ryder, Nick and Subbiah, Melanie and Kaplan, Jared and Dhariwal, Prafulla and Neelakantan, Arvind and Shyam, Pranav and Sastry, Girish and Askell, Amanda and Agarwal, Sandhini and Herbert-Voss, Ariel and Krueger, Gretchen and Henighan, Tom and Child, Rewon and Ramesh, Aditya and Ziegler, Daniel M. and Wu, Jeffrey and Winter, Clemens and Hesse, Christopher and Chen, Mark and Sigler, Eric and Litwin, Mateusz and Gray, Scott and Chess, Benjamin and Clark, Jack and Berner, Christopher and McCandlish, Sam and Radford, Alec and Sutskever, Ilya and Amodei, Dario } ,
year = 2020 ,
publisher = { arXiv } ,
doi = { 10.48550/ARXIV.2005.14165 } ,
url = { https://arxiv.org/abs/2005.14165 } ,
copyright = { arXiv.org perpetual, non-exclusive license } ,
keywords = { Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences }
} @misc { https://doi.org/10.48550/arxiv.2107.03374 ,
title = { Evaluating Large Language Models Trained on Code } ,
author = {Chen, Mark and Tworek, Jerry and Jun, Heewoo and Yuan, Qiming and Pinto, Henrique Ponde de Oliveira and Kaplan, Jared and Edwards, Harri and Burda, Yuri and Joseph, Nicholas and Brockman, Greg and Ray, Alex and Puri, Raul and Krueger, Gretchen and Petrov, Michael and Khlaaf, Heidy and Sastry, Girish and Mishkin, Pamela and Chan, Brooke and Gray, Scott and Ryder, Nick and Pavlov, Mikhail and Power, Alethea and Kaiser, Lukasz and Bavarian, Mohammad and Winter, Clemens and Tillet, Philippe and Such, Felipe Petroski and Cummings, Dave and Plappert, Matthias and Chantzis, Fotios and Barnes, Elizabeth and Herbert-Voss, Ariel and Guss, William Hebgen and Nichol, Alex and Paino, Alex and Tezak, Nikolas and Tang, Jie and Babuschkin, Igor and Balaji, Suchir and Jain, Shantanu and Saunders, William and Hesse, Christopher and Carr, Andrew N. and Leike, Jan and Achiam, Josh and Misra, Vedant and Morikawa, Evan and Radford, Alec and Knight, Matthew and Brundage, Miles and Murati, Mira and Mayer, Katie and Welinder, Peter and McGrew, Bob and Amodei, Dario and McCandlish, Sam and Sutskever, Ilya and Zaremba, Wojciech},
year = 2021 ,
publisher = { arXiv } ,
doi = { 10.48550/ARXIV.2107.03374 } ,
url = { https://arxiv.org/abs/2107.03374 } ,
copyright = { arXiv.org perpetual, non-exclusive license } ,
keywords = { Machine Learning (cs.LG), FOS: Computer and information sciences, FOS: Computer and information sciences }
} @misc { https://doi.org/10.48550/arxiv.2106.09685 ,
title = { LoRA: Low-Rank Adaptation of Large Language Models } ,
author = { Hu, Edward J. and Shen, Yelong and Wallis, Phillip and Allen-Zhu, Zeyuan and Li, Yuanzhi and Wang, Shean and Wang, Lu and Chen, Weizhu } ,
year = 2021 ,
publisher = { arXiv } ,
doi = { 10.48550/ARXIV.2106.09685 } ,
url = { https://arxiv.org/abs/2106.09685 } ,
copyright = { arXiv.org perpetual, non-exclusive license } ,
keywords = { Computation and Language (cs.CL), Artificial Intelligence (cs.AI), Machine Learning (cs.LG), FOS: Computer and information sciences, FOS: Computer and information sciences }
} @misc { bigscience_2022 ,
title = { Bigscience large open-science openaccess multilingual language model. } ,
author = { BigScience } ,
year = 2022 ,
journal = { bigscience/bloom · Hugging Face } ,
url = { https://huggingface.co/bigscience/bloom }
}