يتم نشر أنظمة الذكاء الاصطناعي (GENAI) التوليدي بشكل متزايد في جميع أنحاء إعدادات الصناعة والبحث. يتفاعل المطورون والمستخدمون النهائيون مع هذه الأنظمة من خلال استخدام الهندسة المطالبة أو المطالبة. على الرغم من أن المطالبة بمفهوم واسع النطاق وبحث للغاية ، إلا أن هناك مصطلحات متضاربة وفهمًا أنطاميًا سيئًا لما يشكل موجهًا بسبب عدم النسيج في المنطقة. هذا المستودع هو رمز التقرير السريع ، وهو بحثنا الذي يحدد فهمًا منظمًا للمطالبات ، من خلال تجميع تصنيف لتقنيات المطالبة وتحليل استخدامها. يسمح هذا الرمز بالمراجعة الآلية للأوراق وجمع البيانات وتشغيل التجارب. تتوفر مجموعة البيانات الخاصة بنا على وجه المعانقة وورقةنا متوفرة على arxiv.org. المعلومات متوفرة أيضًا على موقعنا.
بعد الاستنساخ ، قم بتشغيل pip install -r requirements.txt من الجذر
قم بعمل ملف في الجذر يسمى .env .
لـ Openai: https://platform.openai.com/docs/quickstart
لعناق الوجه: https://huggingface.co/docs/hub/security-tokens ، قم أيضًا بتشغيل huggingface-cli login
للباحث المنتمي: https://www.semanticscholar.org/product/api#api-key
استخدم ملف example.env المرجعية لملء مفاتيح API/الرموز.
OPENAI_API_KEY=sk.-...
SEMANTIC_SCHOLAR_API_KEY=...
HF_TOKEN=...
ثم لتحميل ملف .env ، اكتب:
pip install pytest-dotenv
يمكنك أيضًا اختيار تحديث ملف ENV عن طريق العمل:
py.test --envfile path/to/.env
في حالة وجود العديد من ملفات .env ، قم بإنشاء env_files جديد في مجلد تكوين pytest ونوعه:
env_files =
.env
.test.env
.deploy.env
يقوم برنامج البرنامج النصي main.py باستدعاء الوظائف اللازمة لتنزيل جميع الأوراق ، وتصفيةها وتصفيةها ، ثم قم بتشغيل جميع التجارب.
جوهر المستودع في src/prompt_systematic_review . يحتوي البرنامج النصي config_data.py على تكوينات مهمة لتشغيل التجارب وتوفير الوقت. يمكنك أن ترى في main.py كيف يتم استخدام بعض هذه الخيارات.
ينقسم المجلد المصدر إلى 4 أقسام رئيسية: 3 نصوص ( automated_review.py ، collect_papers.py ، config_data.py experiments get_papers utils التجارب.
في الجذر ، يوجد مجلد data . يأتي محملاً مسبقًا ببعض البيانات المستخدمة في التجارب ، ولكن يمكن إنشاء الجزء الأكبر من مجموعة البيانات عن طريق تشغيل main.py أو عن طريق تنزيل البيانات من Hugging Face. في data/experiments_output يتم حفظ نتائج التجارب.
والجدير بالذكر أن الكلمات الرئيسية المستخدمة في عملية المراجعة/التجسس الآلية هي في src/prompt_systematic_review/utils/keywords.py . يمكن لأي شخص يرغب في تشغيل المراجعة الآلية ضبط هذه الكلمات الرئيسية على إعجابهم في هذا الملف.
git clone https://github.com/trigaten/Prompt_Systematic_Review.git && cd Prompt_Systematic_Review
pip install -r requirements.txt
# create a .env file with your API keys
nano .env
git lfs install
git clone https://huggingface.co/datasets/PromptSystematicReview/ThePromptReport
mv ThePromptReport/ * data/
python main.py سيقوم تشغيل main.py بتنزيل الأوراق وتشغيل المراجعة الآلية وتشغيل التجارب. ومع ذلك ، إذا كنت ترغب في توفير الوقت وتشغيل التجارب فقط ، فيمكنك تنزيل البيانات من Hugging Face ونقل مجلد الأوراق وجميع ملفات CSV في مجموعة البيانات إلى مجلد البيانات (يجب أن تبدو مثل البيانات data/master_papers.csv data/papers/*.pdf . ضبط main.py وفقا لذلك.
يحتوي كل برنامج نصي للتجربة على وظيفة run_experiment التي تسمى في main.py وظيفة run_experiment هي المسؤولة عن تشغيل التجربة وحفظ النتائج. ومع ذلك ، يمكن تشغيل كل برنامج نصي بشكل فردي فقط عن طريق تشغيل python src/prompt_systematic_review/experiments/<experiment_name>.py من الجذر.
هناك تجربة واحدة ، graph_internal_references التي ، بسبب مشاكل غريبة مع التوازي ، يتم تشغيلها بشكل أفضل من الجذر كنص فردي. لتجنبها التي تسبب مشكلات في تجارب أخرى ، يتم تشغيله أخيرًا كما هو مطلوب في الجزء السفلي من القائمة في experiments/__init__.py .