⚡ La bibliothèque pour créer et auto-optimiser les applications LLM ⚡
Toute documentation | Modèles | Retrievers | Agents | Évaluation LLM | Entraîneur et optimisateurs
Pour les chercheurs de l'IA, les équipes de produits et les ingénieurs logiciels qui souhaitent apprendre la voie de l'IA.
Installez AdalFlow avec PIP:
pip install adalflowVeuillez vous référer au guide d'installation complet pour plus de détails.
Model-agnostic pour construire des pipelines de tâches LLM, allant du chiffon, des agents aux tâches NLP classiques comme la classification du texte et la reconnaissance des entités nommées. Il est facile d'obtenir des performances élevées uniquement en utilisant une incitation manuelle.Text-Grad et DsPy . Grâce à nos recherches, Text-Grad 2.0 et Learn-to-Reason Few-shot In Context Learning , AdalFlow Trainer atteint la plus grande précision tout en étant le plus économe en jetons.Voici une démonstration d'optimisation sur une tâche de classification de texte:
Parmi toutes les bibliothèques, Adalflow a atteint la plus grande précision avec une invitation manuelle (à partir de 82%) et la plus grande précision après optimisation.
Lire plus approfondie: Optimiser la classification
Les LLM sont comme l'eau; Adalflow vous aide à les façonner rapidement en toutes les applications, des applications Genai telles que les chatbots, la traduction, le résumé, la génération de code, le chiffon et les agents autonomes aux tâches NLP classiques comme la classification du texte et la reconnaissance de l'entité nommée.
Adalflow a deux classes de base fondamentales mais puissantes: Component pour le pipeline et DataClass pour l'interaction des données avec les LLM. Le résultat est une bibliothèque avec une abstraction minimale, offrant aux développeurs une personnalisation maximale .
Vous avez un contrôle complet sur le modèle d'invite, le modèle que vous utilisez et l'analyse de sortie pour votre pipeline de tâches.
De nombreux fournisseurs et modèles accessibles via la même interface:
Tous les fournisseurs de modèles disponibles
Lire plus approfondie: Comment nous avons commencé, la philosophie de conception et la hiérarchie des classes.
AdalFlow fournit une optimisation rapide économe en jetons et très performante dans un cadre unifié. Pour optimiser votre pipeline, définissez simplement un Parameter et passez-le au Generator d'Adalflow. Que vous ayez besoin d'optimiser les instructions de la tâche ou d'exécuter quelques démonstrations à quelques coups, le cadre unifié d'Adalflow offre un moyen facile de diagnostiquer , de visualiser , de déboguer et de former votre pipeline.
Ce graphique de calcul dynamique montre comment fonctionne notre auto-différenciation et le graphique de calcul dynamique.
Pas besoin de nœuds et de bords définis manuellement, AdalFlow tracera automatiquement le graphique de calcul pour vous.
Définissez-le simplement comme un Parameter et passez-le au Generator d'Adalflow.
AdalComponent agit comme «interprète» entre le pipeline de tâches et le formateur, définissant les étapes de formation et de validation, les optimisateurs, les évaluateurs, les fonctions de perte, le moteur arrière pour les gradients textuels ou le traçage des démonstrations, le générateur d'enseignants.
Documentation complète AdalFlow disponible sur adalflow.sylph.ai:
Adalflow est nommé en l'honneur d'Ada Lovelace, la mathématicienne pionnière qui a d'abord reconnu que les machines pouvaient aller au-delà de simples calculs. En tant qu'équipe dirigée par une femme fondatrice, nous visons à inspirer plus de femmes à poursuivre des carrières en IA.
L'Adalflow est un projet axé sur la communauté, et nous nous inhabituons à nous rejoindre pour construire l'avenir des applications LLM.
Rejoignez notre communauté Discord pour poser des questions, partager vos projets et obtenir des mises à jour sur AdalFlow.
Pour contribuer, veuillez lire notre guide des contributeurs.
De nombreuses œuvres existantes ont grandement inspiré la bibliothèque Adalflow! Voici une liste non exhaustive:
Component , Parameter , Sequential .Textual Gradient Descent .__{input/output}__fields dans notre DataClass et l'optimiseur à quelques coups de bootstrap.AdalComponent et Trainer . @software { Yin2024AdalFlow ,
author = { Li Yin } ,
title = { {AdalFlow: The Library for Large Language Model (LLM) Applications} } ,
month = { 7 } ,
year = { 2024 } ,
doi = { 10.5281/zenodo.12639531 } ,
url = { https://github.com/SylphAI-Inc/AdalFlow }
}