
Rootflo는 Langgraph 와 Crewai 의 대안입니다. 간단한 구성 요소를 사용하여 모든 크기까지 Composable 에이전트 워크 플로우를 쉽게 구축하여 LLM의 잠재력을 최대한 활용할 수 있습니다.
문서 체크 아웃»
Github • 웹 사이트 • 로드맵
최소한의 코드로 생산 준비 AI 에이전트 및 팀을 구축하십시오
Flo Ai는 Python 프레임 워크로, 제작 준비가 된 AI 에이전트 및 팀을 Yaml을 작성하는 것만 큼 쉽게 만들 수 있습니다. "AI 에이전트를위한 kubernetes" - 사전 제작 된 구성 요소를 사용하여 복잡한 AI 아키텍처를 구성하면서 직접 만들 수있는 유연성을 유지하십시오.
Floai는 에이전트 팀 아키텍처를 따르며, 여기서 에이전트는 기본 빌딩 블록이며 팀은 여러 에이전트를 가질 수 있으며 팀 자체는 더 큰 팀의 일원이 될 수 있습니다.
실무 에이전트 또는 팀을 구성하면 3 단계가 필요합니다.
FloSession 사용하여 세션을 만들고 도구 및 모델 등록Flo 사용하여 빌드하고 실행하십시오pip install flo-ai
# or using poetry
poetry add flo-ai from flo_ai import Flo , FloSession
from langchain_openai import ChatOpenAI
from langchain_community . tools . tavily_search . tool import TavilySearchResults
# init your LLM
llm = ChatOpenAI ( temperature = 0 )
# create a session and register your tools
session = FloSession ( llm ). register_tool ( name = "TavilySearchResults" , tool = TavilySearchResults ())
# define your agent yaml
simple_weather_checking_agent = """
apiVersion: flo/alpha-v1
kind: FloAgent
name: weather-assistant
agent:
name: WeatherAssistant
job: >
Given the city name you are capable of answering the latest whether this time of the year by searching the internet
tools:
- name: InternetSearchTool
"""
flo = Flo . build ( session , yaml = simple_weather_checking_agent )
# Start streaming results
for response in flo . stream ( "Write about recent AI developments" ):
print ( response ) from flo_ai import FloAgent
session = FloSession ( llm )
weather_agent = FloAgent . create (
session = session ,
name = "WeatherAssistant" ,
job = "Given the city name you are capable of answering the latest whether this time of the year by searching the internet" ,
tools = [ TavilySearchResults ()]
)
agent_flo : Flo = Flo . create ( session , weather_agent )
result = agent_flo . invoke ( "Whats the whether in New Delhi, India ?" ) from flo_ai import Flo , FloSession
from langchain_openai import ChatOpenAI
from langchain_community . tools . tavily_search . tool import TavilySearchResults
# Define your team in YAML
yaml_config = """
apiVersion: flo/alpha-v1
kind: FloRoutedTeam
name: research-team
team:
name: ResearchTeam
router:
name: TeamLead
kind: supervisor
agents:
- name: Researcher
role: Research Specialist
job: Research latest information on given topics
tools:
- name: TavilySearchResults
- name: Writer
role: Content Creator
job: Create engaging content from research
"""
# Set up and run
llm = ChatOpenAI ( temperature = 0 )
session = FloSession ( llm ). register_tool ( name = "TavilySearchResults" , tool = TavilySearchResults ())
flo = Flo . build ( session , yaml = yaml_config )
# Start streaming results
for response in flo . stream ( "Write about recent AI developments" ):
print ( response )참고 : 라우터를 포함한 위의 에이전트를 서로 다른 모델을 사용하여 다른 LLM의 힘을 결합 할 수있는 유연성을 제공 할 수 있습니다. 자세한 내용은 자세한 문서에서 멀티 모델 통합을 확인하십시오
from flo_ai import FloSupervisor , FloAgent , FloSession , FloTeam , FloLinear
from langchain_openai import ChatOpenAI
from langchain_community . tools . tavily_search . tool import TavilySearchResults
llm = ChatOpenAI ( temperature = 0 , model_name = 'gpt-4o' )
session = FloSession ( llm ). register_tool (
name = "TavilySearchResults" ,
tool = TavilySearchResults ()
)
researcher = FloAgent . create (
session ,
name = "Researcher" ,
role = "Internet Researcher" , # optional
job = "Do a research on the internet and find articles of relevent to the topic asked by the user" ,
tools = [ TavilySearchResults ()]
)
blogger = FloAgent . create (
session ,
name = "BlogWriter" ,
role = "Thought Leader" , # optional
job = "Able to write a blog using information provided" ,
tools = [ TavilySearchResults ()]
)
marketing_team = FloTeam . create ( session , "Marketing" , [ researcher , blogger ])
head_of_marketing = FloSupervisor . create ( session , "Head-of-Marketing" , marketing_team )
marketing_flo = Flo . create ( session , routed_team = head_of_marketing ) Floai는 langchain_community 패키지로 구축되고 사용할 수있는 모든 도구를 지원합니다. 이 도구를 더 알고 있으려면 여기로 이동하십시오.
그 Floai와 함께 Decorator @flotool 이있어 도구에 기능을 제공합니다.
@flotool 사용하여 간단한 도구 만들기 :
from flo_ai . tools import flotool
from pydantic import BaseModel , Field
# define argument schema
class AdditionToolInput ( BaseModel ):
numbers : List [ int ] = Field (..., description = 'List of numbers to add' )
@ flotool ( name = 'AdditionTool' , description = 'Tool to add numbers' )
async def addition_tool ( numbers : List [ int ]) -> str :
result = sum ( numbers )
await asyncio . sleep ( 1 )
return f'The sum is { result } '
# async tools can also be defined
# when using async tool, while running the flo use async invoke
@ flotool (
name = 'MultiplicationTool' ,
description = 'Tool to multiply numbers to get product of numbers' ,
)
async def mul_tool ( numbers : List [ int ]) -> str :
result = sum ( numbers )
await asyncio . sleep ( 1 )
return f'The product is { result } '
# register your tool or use directly in code impl
session . register_tool ( name = 'Adder' , tool = addition_tool ) 참고 : @flotool 에는 예외가 발생하면 재 시도 할 수있는 고유 오류 처리 기능이 있습니다. unsafe=True 사용하여 오류 처리를 비활성화하십시오
다음에 대한 포괄적 인 문서를 방문하십시오.
우리는 당신의 의견을 사랑합니다! 기고 가이드를 확인하여 시작하십시오. 기여하는 방법 :
Flo Ai는 MIT 라이센스가 부여되었습니다.
사용을 사용하여 다음 :

FLO : Composable AI 에이전트를 만드는 간단한 방법
Floai의 직관적이고 유연한 에이전트 프레임 워크로 사용자 정의 가능한 AI 워크 플로의 힘을 잠금 해제하십시오.

Floai를 사용하여 에이전트 AI 고객 지원 봇을 구축하십시오
우리는 Floai라는 오픈 소스 에이전트 AI 워크 플로 빌더를 구축하여이를 사용하여 에이전트 고객 지원 에이전트를 만들었습니다.

Floai를 사용하여 몇 분 안에 에이전트 래그를 만듭니다
Floai는 방금 구현 에이전트 래그를 간단하고 관리하기 쉽게 만들었습니다.