
Miniautogen ist eine innovative Open-Source-Bibliothek, die für die nächste Generation von Anwendungen in Großsprachenmodellen (LLMs) entwickelt wurde. Miniautogen konzentriert sich darauf, Multi-Agent-Gespräche zu ermöglichen, und wird für seine leichte und flexible Struktur gefeiert. Es ist ideal für Entwickler und Forscher, die die Grenzen der Konversations -KI erforschen und erweitern möchten.
Miniautogen inspirieren von Autogen und bietet eine umfassende Reihe von Werkzeugen:
chat ): Erleichtert die Erstellung und Verwaltung von Gesprächen mit mehreren Agenten.chatadmin ): Gewährleistet eine effiziente Synchronisation und das Management von Agenten.agent ): Bietet die Flexibilität, Agenten entsprechend den Bedürfnissen an die Flexibilität anzupassen.pipeline ): Automatisiert und optimiert den Agentenbetrieb, Verbesserung der Skalierbarkeit und Wartung.Miniautogen enthält Litellm und integriert sich bereits in über 100 LLMs. Verwenden Sie Grundgestein, Azure, Openai, Cohere, Anthropic, Ollama, Sagemaker, Umarmung, Wiederholung.
agent Pipeline.Erkunden Sie unser Sortiment an vorgefertigten Komponenten, die hier erhältlich sind.
Installieren Sie pip install miniautogen
Einen Chat mit einem LLM einhauen
#Initializing LLM Clients
import os
os.environ["OPENAI_API_KEY"] = "your-openai-key"
from miniautogen.llms.llm_client import LiteLLMClient
openai_client = LiteLLMClient(model='gpt-3.5-turbo-16k')
# Building the Chat Environment
from miniautogen.chat.chat import Chat
from miniautogen.agent.agent import Agent
from miniautogen.chat.chatadmin import ChatAdmin
from miniautogen.pipeline.pipeline import Pipeline
from miniautogen.pipeline.components.components import (
UserResponseComponent, AgentReplyComponent, TerminateChatComponent,
Jinja2SingleTemplateComponent, LLMResponseComponent, NextAgentSelectorComponent
)
# Define a Jinja2 template for formatting messages
template_str = """
[{"role": "system", "content": "{{ agent.role }}"}{% for message in messages %},
{% if message.sender_id == agent.agent_id %}
{"role": "assistant", "content": {{ message.message | tojson | safe }}}
{% else %}
{"role": "user", "content": {{ message.message | tojson | safe }}}
{% endif %}
{% endfor %}]
"""
# Initialize Jinja2 component with the template
jinja_component = Jinja2SingleTemplateComponent()
jinja_component.set_template_str(template_str)
# Set up pipelines for different components
pipeline_user = Pipeline([UserResponseComponent()])
pipeline_jinja = Pipeline([jinja_component, LLMResponseComponent(litellm_client)])
pipeline_admin = Pipeline([NextAgentSelectorComponent(), AgentReplyComponent(), TerminateChatComponent()])
# Create the chat environment
chat = Chat()
# Define agents with JSON data
json_data = {'agent_id': 'Bruno', 'name': 'Bruno', 'role': 'user'}
agent1 = Agent.from_json(json_data)
agent1.pipeline = pipeline_user # Assign the user pipeline to agent1
agent2 = Agent("dev", "Carlos", "Python Senior Developer")
agent2.pipeline = pipeline_jinja # Assign the LLM pipeline to agent2
# Add agents to the chat
chat.add_agent(agent1)
chat.add_agent(agent2)
# Add test messages to the chat
json_messages = [{'sender_id': 'Bruno', 'message': 'It’s a test, don’t worry'}]
chat.add_messages(json_messages)
# Initialize and configure ChatAdmin
chat_admin = ChatAdmin("admin", "Admin", "admin_role", pipeline_admin, chat, 10)
#running the chat
chat_admin.run()
Multi-Agent-Gespräche repräsentieren Interaktionen, an denen mehrere Agenten beteiligt sind, ob autonom oder menschlich, die jeweils mit Autonomie und spezialisierten Fähigkeiten ausgestattet sind. Sie arbeiten zusammen, um komplexe Probleme zu lösen, Informationen auszutauschen oder bestimmte Aufgaben auszuführen.
In diesem Beispiel werden wir ein Gespräch zwischen zwei Agenten führen: eine spielte die Rolle eines Produktbesitzers und der andere als Experte für die Entwicklung von Miniautogen -Komponenten in Python.
Das Hauptziel dieses Tests ist es, die Flexibilität, Leichtigkeit und Effizienz von Miniautogen bei der Erstellung und Koordinierung von Multi-Agent-Gesprächen sowie die Einfachheit bei der Entwicklung neuer Komponenten dank des flexiblen Designs der Bibliothek zu demonstrieren.
Der vollständige Gesprächsgeschichte: chat_history.md
Sehen Sie sich das Notizbuch hier an
Weitere Einblicke und Inspirationen finden Sie in unserem Beispiel -Ordner. Hier finden Sie eine Vielzahl von Szenarien, die die Vielseitigkeit und Fähigkeiten von Miniautogen in verschiedenen Kontexten demonstrieren.
Wir laden KI-Enthusiasten, Entwickler und Forscher ein, die Zukunft von Multi-Agent-Gesprächen beizutragen und zu formen. Ihr Fachwissen kann dazu beitragen, Miniautogen zu entwickeln und robustere und vielfältigere Anwendungen zu schaffen.
Siehe More: Beitrag
Miniautogen: Pionierarbeit in der Zukunft intelligenter, interaktiver Gespräche.