
O Miniautogen é uma biblioteca inovadora e de código aberto, projetado para a próxima geração de aplicações em grandes modelos de idiomas (LLMS). Focado em permitir conversas multi-agentes, o miniautogênio é comemorado por sua estrutura leve e flexível. É ideal para desenvolvedores e pesquisadores que pretendem explorar e expandir as fronteiras da IA conversacional.
Inspirando -se no Autogen, o Miniautogen oferece um conjunto abrangente de ferramentas:
chat ): facilita a criação e o gerenciamento de conversas multi-agentes.chatadmin ): garante sincronização e gerenciamento eficiente de agentes.agent ): fornece a flexibilidade para adaptar os agentes de acordo com as necessidades específicas.pipeline ): automatiza e simplifica as operações do agente, aprimorando a escalabilidade e a manutenção.Incorporando Litellm, o miniautógeno já se integra a mais de 100 LLMs. Use Bedrock, Azure, OpenAi, Cohere, Antrópico, Ollama, Sagemaker, Huggingface, REPLICE.
agent .Explore nossa variedade de componentes pré-criados, disponíveis aqui.
Instale pip install miniautogen
Iniciar um bate -papo com um LLM
#Initializing LLM Clients
import os
os.environ["OPENAI_API_KEY"] = "your-openai-key"
from miniautogen.llms.llm_client import LiteLLMClient
openai_client = LiteLLMClient(model='gpt-3.5-turbo-16k')
# Building the Chat Environment
from miniautogen.chat.chat import Chat
from miniautogen.agent.agent import Agent
from miniautogen.chat.chatadmin import ChatAdmin
from miniautogen.pipeline.pipeline import Pipeline
from miniautogen.pipeline.components.components import (
UserResponseComponent, AgentReplyComponent, TerminateChatComponent,
Jinja2SingleTemplateComponent, LLMResponseComponent, NextAgentSelectorComponent
)
# Define a Jinja2 template for formatting messages
template_str = """
[{"role": "system", "content": "{{ agent.role }}"}{% for message in messages %},
{% if message.sender_id == agent.agent_id %}
{"role": "assistant", "content": {{ message.message | tojson | safe }}}
{% else %}
{"role": "user", "content": {{ message.message | tojson | safe }}}
{% endif %}
{% endfor %}]
"""
# Initialize Jinja2 component with the template
jinja_component = Jinja2SingleTemplateComponent()
jinja_component.set_template_str(template_str)
# Set up pipelines for different components
pipeline_user = Pipeline([UserResponseComponent()])
pipeline_jinja = Pipeline([jinja_component, LLMResponseComponent(litellm_client)])
pipeline_admin = Pipeline([NextAgentSelectorComponent(), AgentReplyComponent(), TerminateChatComponent()])
# Create the chat environment
chat = Chat()
# Define agents with JSON data
json_data = {'agent_id': 'Bruno', 'name': 'Bruno', 'role': 'user'}
agent1 = Agent.from_json(json_data)
agent1.pipeline = pipeline_user # Assign the user pipeline to agent1
agent2 = Agent("dev", "Carlos", "Python Senior Developer")
agent2.pipeline = pipeline_jinja # Assign the LLM pipeline to agent2
# Add agents to the chat
chat.add_agent(agent1)
chat.add_agent(agent2)
# Add test messages to the chat
json_messages = [{'sender_id': 'Bruno', 'message': 'It’s a test, don’t worry'}]
chat.add_messages(json_messages)
# Initialize and configure ChatAdmin
chat_admin = ChatAdmin("admin", "Admin", "admin_role", pipeline_admin, chat, 10)
#running the chat
chat_admin.run()
Conversas multi-agentes representam interações envolvendo vários agentes, autônomos ou humanos, cada um dotado de autonomia e habilidades especializadas. Eles trabalham juntos para resolver problemas complexos, compartilhar informações ou executar tarefas específicas.
Neste exemplo, criaremos uma conversa entre dois agentes: um desempenhando o papel de proprietário de um produto e o outro como especialista no desenvolvimento de componentes de miniautógeno no Python.
O principal objetivo deste teste é demonstrar a flexibilidade, facilidade e eficiência do miniautógeno na criação e coordenação de conversas multi-agentes, bem como a simplicidade no desenvolvimento de novos componentes, graças ao design flexível da biblioteca.
O histórico completo de conversas: chat_history.md
Veja o caderno aqui
Para obter informações e inspiração adicionais, visite nossa pasta Exemplos. Aqui, você encontrará uma variedade de cenários demonstrando a versatilidade e as capacidades do miniautogênio em diferentes contextos.
Convidamos entusiastas, desenvolvedores e pesquisadores da IA a contribuir e moldar o futuro das conversas multi-agentes. Sua experiência pode ajudar a evoluir miniautogênio, criando aplicações mais robustas e diversas.
Veja mais: Contribua
Miniautógeno: Pioneiro o futuro de conversas inteligentes e interativas.