LlocalSearch는 로컬에서 Large Language Models 실행하는 래퍼로 (ChatGTP와 같이, 훨씬 작고 덜 "스마트") 일련의 도구 중에서 선택할 수 있습니다. 이 도구를 사용하면 인터넷을 검색하여 질문에 대한 최신 정보를 검색 할 수 있습니다. 이 프로세스는 재귀 적이며, Running LLM은 귀하 및 기타 도구 호출에서 얻은 정보를 기반으로 도구 (여러 번)를 자유롭게 사용하도록 선택할 수 있음을 의미합니다.
xy 의 것이 아니라 왜 이것을 사용하고 싶습니까?OpenAi가 큰 미디어 하우스에 판매하는 장기 계획 :
또한, 프로그램 회원은 채팅 대화에서 우선 순위 배치 및 "더 풍부한 브랜드 표현"을받으며,보다 두드러진 링크 처리로부터 컨텐츠의 이점이 있습니다.
최고 입찰자가 조작한다는 아이디어를 싫어한다면이 프로젝트와 같이 덜 차별적 인 대안을 시도 할 수 있습니다.
Langchain 라이브러리 IM을 사용하는 것은 llama3 정지 단어를 존중하지 않으므로 LLAMA3이 턴이 끝날 때 환각을 시작합니다. 나는 작동 패치가 있지만 (실험 지점을 확인), 나는 내 방식이 이것을 해결하는 올바른 방법인지 확실하지 않기 때문에 여전히 Langchaingo 팀의 응답을 기다리고 있습니다.
인터페이스 점검으로보다 유연한 패널과 더 효율적인 공간 사용이 가능합니다. 흑요석의 현재 레이아웃에서 영감을 얻었습니다
전체 데이터 전송 및 인터페이스 부품을 다시 작성하지 않고도 향후 기능을 확장 할 수있는보다 개선적이고 유연한 방법을 허용하기 위해 많은 내부 데이터 구조를 리팩토링하는 등 많은 작업이 여전히 필요합니다.
자신의 문서 업로드 또는 LlocalSearch를 Google 드라이브와 같은 서비스에 연결하거나 Confluence와 같은 Rag Chain 내부의 개인 정보를 기반으로합니다.
이를 구현하는 올바른 방법이 있는지 확실하지 않지만 기본 에이전트 체인에 기본 설정과 같은 사용자에 대한 정보를 제공하고 사용자 당 추가 정보를 위해 추가 벡터 DB 네임 스페이스를 제공합니다.
[email protected]:nilsherzig/LLocalSearch.git
cd LLocalSearch.env 파일을 작성하고 편집하십시오. 이것은 일반적으로 다른 장치에서 Ollama가 실행 중이거나 더 복잡한 설정을 구축하려는 경우에만 필요합니다 (개인 용도 F.Ex.). Ollama Connection을 실행하기 위해 고군분투하는 경우 Ollama Setup Guide를 읽으십시오. touch .env
code .env # open file with vscode
nvim .env # open file with neovimdocker-compose up -d