
Pour une démonstration vidéo, visitez le lien YouTube: https://youtu.be/agl7UGYU1N4
Le projet peut être:
Tous les autres bogues, correctifs, commentaires et demandes de fonctionnalités connus peuvent être signalés sur la page des problèmes GitHub.
Autonomiser les autres, tout comme ils vous ont aidé! Contribuer à ce projet open source et faire une différence. Créez une branche, améliorez le code et soulevez une demande de traction!
Nous visons à créer un système automatisé qui fait de la demande d'emplois un jeu d'enfant. La chasse au travail a de nombreuses étapes, et nous voyons une chance d'automatiser les choses et d'utiliser LLM (modèle de langue) pour la rendre encore plus fluide. Nous examinons différentes manières, à la fois l'habitude et certaines nouvelles idées, pour intégrer LLM dans le processus de demande d'emploi. L'objectif est de réduire ce que vous devez faire et de laisser LLM faire son truc, ce qui vous facilite le processus.
pip install zlm from zlm import AutoApplyModel
job_llm = AutoApplyModel (
api_key = "PROVIDE_API_KEY" ,
provider = "ENTER PROVIDER <gemini> or <openai>" ,
downloads_dir = "[optional] ENTER FOLDER PATH WHERE FILE GET DOWNLOADED, By default, 'downloads' folder"
)
job_llm . resume_cv_pipeline (
"ENTER_JOB_URL" ,
"YOUR_MASTER_RESUME_DATA" # .pdf or .json
) # Return and downloads curated resume and cover letter.git clone https://github.com/Ztrimus/job-llm.git
cd job-llmpython -m venv .env ou Conda ou etc.) pour éviter tout conflit de dépendance de package.pip install poetrypoetry installpip install -r resources/requirements.txtsudo apt-get install texlive-latex-base texlive-fonts-recommended texlive-fonts-extrasudo apt-get update si le terminal incapable de localiser le package.brew install basictex
sudo tlmgr install enumitem fontawesomeollama pull llama3.1>>> python main.py /
--url " JOB_POSTING_URL " /
--master_data= " JSON_USER_MASTER_DATA " /
--api_key= " YOUR_LLM_PROVIDER_API_KEY " / # put api_key considering provider
--downloads_dir= " DOWNLOAD_LOCATION_FOR_RESUME_CV " /
--provider= " openai " # openai, gemini Si vous trouvez Jobllm utile dans vos recherches ou vos applications, veuillez envisager de nous donner une étoile? et le citant.
@inproceedings { 10.1145/3626772.3657680 ,
author = { Zinjad, Saurabh Bhausaheb and Bhattacharjee, Amrita and Bhilegaonkar, Amey and Liu, Huan } ,
title = { ResumeFlow: An LLM-facilitated Pipeline for Personalized Resume Generation and Refinement } ,
series = { SIGIR '24 } ,
booktitle = { Proceedings of the 47th International ACM SIGIR Conference on Research and Development in Information Retrieval } ,
publisher = { Association for Computing Machinery } ,
doi = { 10.1145/3626772.3657680 } ,
url = { https://doi.org/10.1145/3626772.3657680 } ,
year = { 2024 } ,
isbn = { 9798400704314 } ,
location = { Washington DC, USA } ,
address = { New York, NY, USA } ,
} @misc { zinjad2024resumeflow ,
title = { ResumeFlow: An LLM-facilitated Pipeline for Personalized Resume Generation and Refinement } ,
author = { Saurabh Bhausaheb Zinjad and Amrita Bhattacharjee and Amey Bhilegaonkar and Huan Liu } ,
year = { 2024 } ,
eprint = { 2402.06221 } ,
archivePrefix = { arXiv } ,
primaryClass = { cs.CL }
}JoBLLM est sous la licence MIT et est soutenu pour l'utilisation commerciale.
Besoin de trouver un moyen d'installer la commande suivante dans Streamlit
ollama
playwright
" ollama pull llama3.1 "
" ollama pull bge-m3 "