Dieses Modul bietet eine Eingabeaufforderung für Bibliotheksmanager und API -Wrapper für die Interaktion mit großartigen Modellen, um Eingabeaufforderungen und Assistenzdefinitionen zu generieren. Es stützt sich auf die Langchain -Bibliothek sowie auf die OpenAI- und Anthropic -APIs.
Dieses Paket ist derzeit nicht auf PYPI erhältlich. So installieren Sie das Repo und installieren Sie Langchain-, Anthropic- und OpenAI -PYPI -Pakete.
Sie müssen auch API -Schlüssel für OpenAI und Anthropic erhalten, um ihre Modelle zu verwenden.
Um einen neuen Assistenten zu definieren, formatieren Sie einen assistant_definition in Markdown wie folgt:
<assistant_definition>
< name >Your Assistant Name</ name >
< role >Description of your assistant's purpose or role</ role >
<system_message>A message from your assistant to the user explaining its purpose</system_message>
<example_input>An example user input or query</example_input>
<example_output>Your assistant's response to the example input</example_output>
</assistant_definition> Sie können dann ein neues LanguageExpert -Objekt aus dieser Definition unter Verwendung der Funktion parse_assistant_definition() erstellen:
definition_text = ... # Your assistant definition markdown
expert = parse_assistant_definition ( definition_text )
expert = LanguageExpert ( ** expert ) Das LanguageExpert -Objekt kann dann verwendet werden, um Antworten aus Ihrem Assistenzmodell zu generieren. Sie können auch eine vorhandene Assistenzdefinition unter Verwendung der Funktion improve() verbessern.
Beiträge sind willkommen! Bitte öffnen Sie ein Problem oder senden Sie eine Pull -Anfrage bei GitHub mit Fehler, Feature -Anfragen oder Änderungen. Es ist deutlich, dass ich kein sehr guter Programmierer bin, aber ich bin ein ziemlich guter personeller Ingenieur. Ich hoffe, das zu teilen, was ich mit anderen gelernt habe, und beide Fähigkeiten zu verbessern.