LLM 재고 시스템
텍스트 기반 권장 사항을위한 미세 조정 LLM
이 프로젝트는 정확도와 사용자 만족도를 향상시키기 위해 텍스트 기반 권장 사항을 위해 특별히 LLM (Langer Language Models)의 미세 조정 가능성을 탐구합니다. 관계 정보를 자연 언어 텍스트로 변환하는 새로운 프롬프트 메커니즘을 소개하여 LLM이 사용자 상호 작용을 해석하고보다 정보에 입각 한 권장 사항을 만들 수 있습니다.
프로젝트 개요
핵심 사항 :
- 2018 Amazon Review 데이터 세트를 활용하여 개인화 된 제품 추천 시스템을 개발했습니다.
- Mistral-7B와 Tinyllama의 두 가지 큰 언어 모델의 성능을 구현하고 비교했습니다.
- 효율적인 모델 미세 조정을 위해 LORA (저급 적응) 및 Qlora (양자화 된 LORA)와 같은 고급 기술을 적용했습니다.
- 사용자 상호 작용 기록을 모델의 자연 언어 입력으로 변환하기위한 새로운 프롬프트 전략을 개발했습니다.
- 미세 조정 된 Tinyllama 모델을 사용하여 사용자의 다음 제품 구매를 예측할 때 98% 이상의 정확도를 달성했습니다.
- 더 작고 전문화 된 모델은 적절하게 미세 조정할 때 특정 작업에 대한 대형 모델을 능가 할 수 있음을 보여주었습니다.
- 잘못된 예측에서 패턴을 식별하기 위해 오류 분석을 수행했습니다.
- 권장 시스템의 모델 크기, 계산 효율 및 예측 정확도 사이의 균형을 탐색했습니다.
이 프로젝트는 다양하고 광대 한 데이터 세트를 사용하여 추천 작업을위한 미세 조정 LLM의 효율성을 보여주는 데 중점을 둡니다. 구현에는 다음 단계가 포함됩니다.
데이터 추출 및 전처리 :
- Amazon 검토 데이터의 서브 세트를 추출하여 데이터 프레임으로 변환했습니다.
- 불필요한 열을 제거했습니다.
- 구매 이력이 불충분 한 사용자를 필터링했습니다.
- 나머지 데이터를 프롬프트로 변환하여 LLM의 입력을 형성했습니다.
신속한 엔지니어링 :
- 다양한 프롬프트 기술을 탐구했습니다.
- 명령, 입력 세부 사항 및 지상 진실 출력과 같은 각 프롬프트에 대한 3 부 구조에 정착되었습니다.
- 이 구조는 명확한 작업, 관련 정보 및 원하는 출력 형식을 모델에 제공합니다.
모델 구현 :
- 미리 훈련 된 모델 및 사용자 정의 도구를 위해 Unsloth AI 및 Huggingface 라이브러리를 활용했습니다.
- 모델 성능을 향상시키는 기술인 Qlora로 간주됩니다.
- 통합 된
SFTTrainer 및 TrainingArguments 객체를 조정하여 훈련 중에 과다 파라미터 조정을 중앙 집중화합니다.