Systèmes de recommandation LLM
LLMS de réglage fin pour les recommandations textuelles
Ce projet explore le potentiel des modèles de grande langue (LLMS) affinés spécifiquement pour les recommandations textuelles, visant à améliorer la précision et la satisfaction des utilisateurs. Il introduit un nouveau mécanisme rapide qui transforme les informations sur les relations en texte en langage naturel, permettant au LLM d'interpréter les interactions des utilisateurs et de faire des recommandations plus éclairées.
Aperçu du projet
Points clés:
- Utilisé l'ensemble de données Amazon Review 2018 pour développer un système de recommandation de produits personnalisé.
- Implémenté et comparé les performances de deux modèles de grande langue: Mistral-7b et Tinyllama.
- Techniques avancées appliquées comme LORA (adaptation de faible rang) et Qlora (LORA quantifiée) pour un réglage fin efficace.
- A développé une nouvelle stratégie d'incitation pour transformer l'historique d'interaction des utilisateurs en entrées en langage naturel pour les modèles.
- A atteint une précision de plus de 98% pour prédire les prochains achats de produits des utilisateurs à l'aide du modèle TinyLlama affiné.
- A démontré que des modèles plus petits et spécialisés peuvent surpasser les modèles plus grands pour des tâches spécifiques lorsqu'elles sont correctement affinées.
- Analyse des erreurs effectuée pour identifier les modèles dans des prévisions incorrectes et des zones potentielles d'amélioration.
- A exploré l'équilibre entre la taille du modèle, l'efficacité de calcul et la précision de prédiction dans les systèmes de recommandation.
Le projet se concentre sur la démonstration de l'efficacité des LLM de réglage fin pour les tâches de recommandation à l'aide d'un ensemble de données diversifié et expansif. La mise en œuvre comprend les phases suivantes:
Extraction des données et prétraitement :
- Extrait des sous-ensembles d'Amazon Review Data et les a convertis en dataframes.
- Supprimé des colonnes inutiles.
- Les utilisateurs filtrés avec des histoires d'achat insuffisantes.
- Transformé les données restantes en invites, formant l'entrée pour le LLM.
Ingénierie rapide :
- A exploré diverses techniques d'incitation.
- Réglé sur une structure en trois parties pour chaque invite: instruction, détails d'entrée et sortie de vérité au sol.
- Cette structure fournit au modèle une tâche claire, des informations pertinentes et le format de sortie souhaité.
Implémentation du modèle :
- Utilisé les bibliothèques AI et HuggingFace innombres pour les modèles prélevés et les outils de personnalisation.
- Considéré Qlora, une technique pour améliorer les performances du modèle.
- Création
SFTTrainer consolidé et TrainingArguments pour centraliser les ajustements de l'hyperparamètre pendant la formation.