Ce module fournit un gestionnaire de bibliothèque invite et un wrapper API pour interagir avec les modèles de langue importants pour générer des invites et des définitions d'assistant. Il repose sur la bibliothèque de Langchain ainsi que sur les API OpenAI et anthropiques.
Ce package n'est pas actuellement disponible sur PYPI. Pour installer clone le repo et installer les packages Langchain, anthropic et Openai PYPI.
Vous devrez également obtenir des clés API pour OpenAI et Anthropic pour utiliser leurs modèles.
Pour définir un nouvel assistant, formatez un assistant_definition dans Markdown comme celui-ci:
<assistant_definition>
< name >Your Assistant Name</ name >
< role >Description of your assistant's purpose or role</ role >
<system_message>A message from your assistant to the user explaining its purpose</system_message>
<example_input>An example user input or query</example_input>
<example_output>Your assistant's response to the example input</example_output>
</assistant_definition> Vous pouvez ensuite générer un nouvel objet LanguageExpert à partir de cette définition à l'aide de la fonction parse_assistant_definition() :
definition_text = ... # Your assistant definition markdown
expert = parse_assistant_definition ( definition_text )
expert = LanguageExpert ( ** expert ) L'objet LanguageExpert peut ensuite être utilisé pour générer des réponses à partir de votre modèle assistant. Vous pouvez également améliorer une définition d'assistant existante à l'aide de la fonction improve() .
Les contributions sont les bienvenues! Veuillez ouvrir un problème ou soumettre une demande de traction sur GitHub avec des bogues, des demandes de fonctionnalités ou des modifications. Comme il est clairement évident, je ne suis pas un très bon programmeur, mais je suis un très bon ingénieur rapide. J'espère partager ce que j'ai appris avec les autres et améliorer les deux compétences dans le processus.