HackerLLM
1.0.0
이 프로젝트는 VUE (프론트 엔드) 및 Fastapi (백엔드)를 기반으로합니다. BCE-embedding 모델을 호출하여 벡터 데이터베이스 텍스트를 포함시키고 Propt와 결합하여 Tongyi 텍스트의 이전 텍스트의 Qwen-Long Long 대화 모델을 호출하여 특정 필드에서 Q & A를 실현합니다. 동시에 Vue는 vuetify 구성 요소를 도입하여 https://www.hackthebox.com 웹 사이트의 분석 결과를 시각적으로 표시했습니다.
Ubuntu Linux에 적합합니다 (Windows에서 로컬로 운영하는데도 적합)
mkdir -p ~ /miniconda3
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O ~ /miniconda3/miniconda.sh
bash ~ /miniconda3/miniconda.sh -b -u -p ~ /miniconda3
rm -rf ~ /miniconda3/miniconda.sh
~ /miniconda3/bin/conda init bash
~ /miniconda3/bin/conda init zshsudo apt-get update
sudo apt-get install nodejs main.py 에서 API_KEY를 구성하십시오. https://help.aliyun.com/zh/dashscope/developer-reference/acquisition-and-configuration-opi-key?spm=a2c4g.11186623.0.0.42124937IllJump
main.py 에서 코드 세그먼트를 변경하십시오. model_name = r"/root/huggingface_cache/bce-embedding-base_v1"
model_kwargs = { 'device' : 'cpu' }
encode_kwargs = { 'normalize_embeddings' : False }
hfembedding = HuggingFaceEmbeddings (
model_name = model_name ,
model_kwargs = model_kwargs ,
encode_kwargs = encode_kwargs
)Model_Name을 다운로드하고 넣은 경로로 변경하십시오
SWS3023 웹 마이닝 그룹 1
오신 것을 환영합니다