이 프로젝트는 자동 데이터 추출 및 처리를 위해 AI 에이전트를 활용합니다. 이 시스템을 통해 사용자는 CSV 파일을 업로드하거나 Google 시트에 연결 한 다음 자연어 쿼리를 사용하여 데이터와 상호 작용할 수 있습니다. 에이전트는 쿼리를 기반으로 Python 코드를 생성하고, 데이터를 조작하기 위해 코드를 실행하고, 결과를 테이블, 플롯 또는 문자열 또는 파일에 유용한 데이터와 같은 다양한 형식으로 제공합니다.
이 프로젝트를 실행하려면 Python 3.7 이상이 필요합니다. 이 프로젝트는 PIP를 통해 설치할 수있는 여러 타사 라이브러리를 사용합니다.
git clone https://github.com/UjjawalGusain/CheatSheet-Langchain-Project.git
cd Langchain-Web-Agent python3 -m venv venv
source venv/bin/activate # On Windows, use `venvScriptsactivate`
pip install -r requirements.txtGoogle Sheets API 설정 :
응용 프로그램 실행 :
streamlit run dashboard.py이 명령을 실행하면 응용 프로그램이 시작되며 브라우저를 통해 응용 프로그램에 액세스 할 수 있습니다.
이 프로젝트는 여러 API를 사용하여 데이터 스크래핑 및 모델과의 상호 작용을 포함하여 다른 작업을 처리합니다. 통합 된 API는 다음과 같습니다.
Groq API :
모델 : llama-3.1-70b versatile
목적 : GROQ API는 응답을 생성하고 데이터 세트에서 작업을 실행하며 복잡한 쿼리를 처리하기 위해 큰 언어 모델과 상호 작용하는 데 사용됩니다. Model LLAMA-3.1-70B versatile은 효율적인 자연 언어 이해 및 생성에 활용되어 프로세스 쿼리 및 실행 가능한 결과를 생성하는 데 도움이됩니다.
용법:
API는 추출, 필터링 및 생성 요약과 같은 작업을 포함하여 데이터와 관련된 쿼리를 처리하도록 호출됩니다. 모델의 응답은 데이터 세트에 적용되는 작업을 형성하는 데 도움이됩니다.
모델에 사용 된 프롬프트는 원하는 응답을 보장하고 실행 중 오류를 피하기 위해 특정 형식으로 구성됩니다.
스크레이퍼 API :
목적 : 스크레이퍼 API는 외부 소스에서 추가 데이터를 수집 하고이 데이터를 데이터 세트에 추가하는 데 사용됩니다.
용법:
사이드 바에서 데이터 소스를 선택하십시오 : CSV를 업로드하거나 Google 시트를 연결하십시오.
쿼리를 입력하십시오.
결과보기 :
프롬프트 형식 및 복잡성 : 중요한 도전은 모델로 전달 된 프롬프트가 시스템에 의해 올바르게 형식화되고 처리되도록하는 것이 었습니다. 모델은 쿼리의 구조와 복잡성에 따라 정확한 응답을 생성해야했습니다. 또한 정보를 추출하여 사용자에게, 특히 복잡한 쿼리를 통해 명확성과 일관성을 유지하는 것이 중요했습니다.
LLMS를 통한 보안 위험 관리 : LLMS (Lange Language Model) 활용 (LLMS)은 특히 데이터 개인 정보 및 민감한 정보 처리와 관련하여 잠재적 인 보안 위험이 도입되었습니다. 모델과 상호 작용하는 동안 기밀 또는 개인 데이터가 실수로 노출되지 않도록하는 것은 개발 프로세스의 중요한 측면이었습니다. 코드 및 처리 데이터를 생성하는 데 LLM을 사용하면서 이러한 위험을 최소화하기 위해 보호 조치를 구현해야했습니다.