
Miniautogen-это инновационная библиотека с открытым исходным кодом, предназначенную для приложений следующего поколения в моделях крупных языков (LLMS). Миниавтоген отмечает, что сфокусирована на включении многоагентных разговоров за его легкую и гибкую структуру. Он идеально подходит для разработчиков и исследователей, которые стремятся исследовать и расширить границы разговорного ИИ.
Чертев вдохновения от Autogen, Miniautogen предлагает комплексный набор инструментов:
chat ): облегчает создание и управление многоагентными разговорами.chatadmin ): обеспечивает эффективную синхронизацию и управление агентами.agent ): обеспечивает гибкость для адаптирования агентов в соответствии с конкретными потребностями.pipeline ): автоматизирует и оптимизирует операции агента, повышая масштабируемость и обслуживание.Включая Litellm, Miniautogen уже интегрируется с более чем 100 LLMS. Используйте коренную породу, лазурную, Openai, Cohere, Anpropic, Ollama, SageMaker, HuggingFace, Replicate.
agent .Исследуйте наш ассортимент предварительно построенных компонентов, доступных здесь.
Установите pip install miniautogen
Внедрить в чат с LLM
#Initializing LLM Clients
import os
os.environ["OPENAI_API_KEY"] = "your-openai-key"
from miniautogen.llms.llm_client import LiteLLMClient
openai_client = LiteLLMClient(model='gpt-3.5-turbo-16k')
# Building the Chat Environment
from miniautogen.chat.chat import Chat
from miniautogen.agent.agent import Agent
from miniautogen.chat.chatadmin import ChatAdmin
from miniautogen.pipeline.pipeline import Pipeline
from miniautogen.pipeline.components.components import (
UserResponseComponent, AgentReplyComponent, TerminateChatComponent,
Jinja2SingleTemplateComponent, LLMResponseComponent, NextAgentSelectorComponent
)
# Define a Jinja2 template for formatting messages
template_str = """
[{"role": "system", "content": "{{ agent.role }}"}{% for message in messages %},
{% if message.sender_id == agent.agent_id %}
{"role": "assistant", "content": {{ message.message | tojson | safe }}}
{% else %}
{"role": "user", "content": {{ message.message | tojson | safe }}}
{% endif %}
{% endfor %}]
"""
# Initialize Jinja2 component with the template
jinja_component = Jinja2SingleTemplateComponent()
jinja_component.set_template_str(template_str)
# Set up pipelines for different components
pipeline_user = Pipeline([UserResponseComponent()])
pipeline_jinja = Pipeline([jinja_component, LLMResponseComponent(litellm_client)])
pipeline_admin = Pipeline([NextAgentSelectorComponent(), AgentReplyComponent(), TerminateChatComponent()])
# Create the chat environment
chat = Chat()
# Define agents with JSON data
json_data = {'agent_id': 'Bruno', 'name': 'Bruno', 'role': 'user'}
agent1 = Agent.from_json(json_data)
agent1.pipeline = pipeline_user # Assign the user pipeline to agent1
agent2 = Agent("dev", "Carlos", "Python Senior Developer")
agent2.pipeline = pipeline_jinja # Assign the LLM pipeline to agent2
# Add agents to the chat
chat.add_agent(agent1)
chat.add_agent(agent2)
# Add test messages to the chat
json_messages = [{'sender_id': 'Bruno', 'message': 'It’s a test, don’t worry'}]
chat.add_messages(json_messages)
# Initialize and configure ChatAdmin
chat_admin = ChatAdmin("admin", "Admin", "admin_role", pipeline_admin, chat, 10)
#running the chat
chat_admin.run()
Многоагентные разговоры представляют собой взаимодействия с участием нескольких агентов, будь то автономные или человеческие, каждая из которых наделена автономией и специализированными способностями. Они работают вместе, чтобы решить сложные проблемы, обмениваться информацией или выполнять конкретные задачи.
В этом примере мы организуем разговор между двумя агентами: один играет роль владельца продукта, а другой выступает в качестве эксперта в разработке компонентов миниавтогена в Python.
Основная цель этого теста-продемонстрировать гибкость, легкость и эффективность миниатогена в создании и координации многоагентных разговоров, а также простоты в разработке новых компонентов, благодаря гибкому дизайну библиотеки.
Полная история разговора: чат_history.md
Просмотреть записную книжку здесь
Для получения дополнительной информации и вдохновения посетите нашу папку примеров. Здесь вы найдете множество сценариев, демонстрирующих универсальность и возможности миниатогена в разных контекстах.
Мы приглашаем энтузиастов искусственного интеллекта, разработчиков и исследователей внести свой вклад и сформировать будущее многоагентных разговоров. Ваш опыт может помочь развивать миниавтоген, создавая более надежные и разнообразные приложения.
Смотрите больше: внести свой вклад
Miniautogen: новаторство будущего интеллектуальных, интерактивных разговоров.