langchain_readlocal
langchain을 사용하여 로컬 파일을 벡터 데이터베이스로 읽고 벡터화 된 문서를 사용하여 LLM으로 Q & A를 시작합니다.
사용 방법
- 사용자는 요구 사항에서 Python 패키지를 설치해야합니다 .txt 파일, 사용 된 Python 버전은 다음과 같습니다. Python 3.11.4
- 사용자는 모듈 위치에 설치된 GPT4ALL 폴더에서 GPT4ALL.PY 파일을 제공 한 것과 함께 gpt4all.py 파일을 전환해야합니다. 여기에 제공된 것들이 LLM이 GPT4ALL 웹 사이트에서 설치할 기본 모델이 아닌 사용자 선택 모델과 함께 로컬로 작용하는 것입니다. 이를 통해 LLM은 인터넷 연결없이 순전히 로컬로 실행할 수 있습니다. 참고 사용자는 gpt4all.py 파일에 2 개의 입력이 필요합니다 (사용 된 LLM의 파일 위치와 파일 자체의 이름).
- 즉, 사용자는 선택한 "xx.bin"의 LLM을 다운로드하고 (많은 온라인을 쉽게 찾을 수 있음) 파일 위치와 이름을 GPT4all.py 파일에 삽입해야합니다.
- 사용자는 또한 사용을 위해 OpenAI API 키가 필요합니다.
로드맵