АИ-активное извлечение работы и генератор электронной почты с холодным
Этот проект использует передовые инструменты и структуры ИИ для автоматизации процесса извлечения публикаций заданий с веб-страниц и генерации персонализированных холодных электронных писем для приложений для работы на основе ввода пользователя и настраиваемого портфеля навыков. Он интегрирует GROQ LLM (модель изучения языка), подсказки Langchain, веб-базы данных и векторные базы данных для оптимизации сквозного процесса создания приложений для работы.
Функции
- Скраинг в Интернете: автоматически извлекает публикации заданий с динамических веб -страниц с использованием
WebBaseLoader и очищает извлеченные данные для устранения шума. - Извлечение работы рабочих мест: использует цепочки быстрого подсказки LLM LANGCHAIN для извлечения и формата соответствующих деталей работы (роль, опыт, навыки, описание) в действительные объекты JSON.
- Персонализированные холодные электронные письма: генерирует адаптированные холодные электронные письма с использованием LLM с питанием Groq, настраиваемых с навыками кандидата и соответствующими портфельными ссылками.
- Интеграция векторной базы данных: хранит технический стек и метаданные портфеля с использованием ChromADB для эффективного запроса соответствующих ссылок для холодной электронной почты.
- Динамическое генерация электронной почты: создает персонализированные, управляемые результатами электронные письма, которые соответствуют инструкциям и выделяют наиболее релевантный опыт и проекты.
Технологии используются
- Интеграция LLM (GROQ): Chatgroq (Llama-3.1-70b) Модель для генерации текста с высокой точностью.
- Langchain: используется для создания динамических шаблонов быстрого приглашения и цепочек LLM для генерации ответов.
- Flask: Бэкэнд -сервер для обработки запросов на генерацию электронной почты и управления соскобкой задания и взаимодействием LLM.
- React.js: Frontend для сбора пользовательского ввода (например, имя пользователя) и запуска процесса генерации электронной почты.
- ChromADB: векторная база данных для эффективного хранения и запросов метаданных.
- Панды: Используется для обработки портфельных данных CSV и обработки их для хранения в ChromADB.
- Flask-Cors: включение CORS для бэкэнда колбы.
Инструкции по настройке
Предварительные условия
- Питон 3
- Node.js и npm (для react frontend)
- Groq API -ключ (для интеграции LLM)
Установка
Клонировать репозиторий:
git clone https://github.com/IMRANDIL/cold_email_generator_llm.git
cd cold_email_generator_llm
Настройка бэкэнд (колба):
- Создать и активировать виртуальную среду:
python3 -m venv venv
source venv/bin/activate
- Установите необходимые зависимости от питона:
pip install -r requirements.txt
- Установите переменные среды для ключа API Groq:
export GROQ_API_KEY= " your-api-key "
- Запустите сервер Flask:
Настройка фронта (React):
- Перейдите к каталогу
frontend : - Установите зависимости:
- Запустите сервер разработки React:
Использование
- Посетите интерфейс Frontend, чтобы ввести имя пользователя и запустить процесс генерации электронной почты.
- Бэкэнд будет соскребить публикации работы, обрабатывать их с помощью подсказок Langchain, запросить векторную базу данных и генерировать индивидуальные холодные электронные письма для каждой работы.
- Электронные письма возвращаются в формате JSON и отображаются в хорошо форматированном блоке кода с функцией «Копировать в буфер обмена».
Пример вывода
{
"subject" : " Application for Lead Software Engineer at XYZ Inc. " ,
"body" : " Dear Hiring Manager, I am writing to express my interest in the Lead Software Engineer position... "
}Будущие улучшения
- Динамическое сетевое скрезование: расширение возможностей для сети для обработки более сложных и динамичных веб -сайтов размещения заданий.
- Усовершенствованные запросы: улучшить механизм запросов векторной базы данных, чтобы более эффективно обрабатывать множественные наборы навыков.
- Усовершенствования пользовательского интерфейса: дальнейшее улучшение фронта React.js для лучшего опыта пользователя и поддержки нескольких шаблонов электронной почты.
- Многократная интеграция API: изучить интеграцию с другими моделями LLM (OpenAI и т. Д.) Для повышения универсальности.
Лицензия
Этот проект лицензирован по лицензии MIT. Смотрите файл лицензии для получения подробной информации.