AIPE (AI 파이프 라인 엔진)는 복잡한 AI 워크 플로를 생성하고 실행하기위한 유연하고 강력한 도구입니다. 웹 검색, 텍스트 생성, 음성 처리 및 이미지 생성과 같은 다양한 AI 작업을 간단한 YAML 파일을 통해 구성 할 수있는 응집력있는 파이프 라인으로 함께 체인 할 수 있습니다.
AIPE (AI 파이프 라인 엔진)는 다양한 도메인 및 작업에 적용 할 수있는 다양한 도구입니다. 잠재적 인 사용 사례는 다음과 같습니다.
자동화 된 연구 보조원 : 웹에 특정 주제를 검색하고 결과를 요약하고 인용 된 포괄적 인 보고서를 생성하는 파이프 라인을 만듭니다.
콘텐츠 제작 워크 플로 : 디자인 파이프 라인 디자인 기사 아이디어를 생성하고, 초안 컨텐츠를 작성하고, 이미지를 동반하며, 홍보를 위해 소셜 미디어 게시물을 준비합니다.
감정 분석 및 브랜드 모니터링 : 브랜드 언급을 위해 소셜 미디어 및 뉴스 사이트를 긁어 내고 감정 분석을 수행하며 통찰력으로 일일 보고서를 생성하는 파이프 라인을 설정합니다.
자동화 된 고객 지원 : 고객 문의를 처리하고 관련 정보에 대한 지식 기반을 검색하며 개인화 된 응답을 생성하는 파이프 라인을 개발합니다.
데이터 분석 및 시각화 : 다양한 소스에서 데이터를 수집하고 통계 분석을 수행하며 통찰력을 생성하며 데이터 시각화를 생성하는 파이프 라인을 만듭니다.
언어 번역 서비스 : 한 언어로 텍스트를 가져오고 여러 대상 언어로 번역 한 파이프 라인을 구축하며 각 번역에 대한 오디오 발음을 생성합니다.
자동화 코드 검토 : 코드 리포지토리를 분석하고 잠재적 인 문제 또는 개선을 식별하며 자세한 코드 검토 보고서를 생성하는 파이프 라인 설계.
시장 동향 분석 : 재무 뉴스를 모니터링하고 시장 데이터를 분석하며 잠재적 인 시장 동향에 대한 예측 보고서를 생성하는 파이프 라인을 설정합니다.
교육 콘텐츠 생성 : 주제 영역을 차지하고 온라인 과정을위한 교육용 내용, 퀴즈 및 보충 자료를 생성하는 파이프 라인을 만듭니다.
맞춤형 뉴스 어그리케이터 : 사용자 선호도를 기반으로 다양한 소스에서 뉴스를 수집하고 기사를 요약하며 개인화 된 일일 뉴스 브리핑을 생성하는 파이프 라인을 개발합니다.
이러한 사용 사례는 다양한 산업 및 응용 분야에서 복잡한 워크 플로우를 자동화 할 때 AIPE의 유연성과 힘을 보여줍니다. 파이프 라인의 모듈 식 특성은 특정 요구에 맞게 쉽게 사용자 정의하고 확장 할 수 있습니다.
AI 에이전트 파이프 라인 엔진은 다음 단계를 지원합니다.
WebSearch : Duckduckgo 또는 Serper API를 사용하여 웹 검색WebScrape : 지정된 URL에서 컨텐츠를 스크랩합니다RunInference : LLM 모델을 사용하여 텍스트 생성 (Ollama, OpenAi)TextToSpeech : 텍스트를 음성으로 변환하십시오SpeechToText : 텍스트에 연설을 전사하십시오LoadImageModel : 텍스트-이미지 모델을로드하십시오GenerateImage : 텍스트 프롬프트에서 이미지를 생성합니다CallWebhook : 외부 API 호출을합니다 저장소 복제 :
git clone https://github.com/yourusername/AIPE.git
cd AIPE
필요한 종속성 설치 :
pip install -r app/requirements.txt
API 키의 환경 변수 설정 (필요한 경우) :
export OPENAI_API_KEY=your_openai_api_key
export SERPER_API_KEY=your_serper_api_key
파이프 라인 용 yaml 구성 파일을 만듭니다. 예:
pipeline :
context :
topic : " artificial intelligence with crypto "
num_results : 5
model_name : " llama2 "
steps :
- name : " web_search "
type : " WebSearch "
query : " latest developments in {context.topic} "
search_type : " serper "
num_results : " {context.num_results} "
- name : " summarize_findings "
type : " RunInference "
source : " ollama "
model_name : " llama2 "
prompt : " Summarize the latest developments in {context.topic} based on the following information: {steps.web_search} "
- name : " text_to_speech "
type : " TextToSpeech "
text : " {steps.summarize_findings} "
result_path : " /app/output/summary_audio.wav "
- name : " generate_image "
type : " GenerateImage "
prompt : " A futuristic representation of {context.topic} "
result_path : " /app/output/ai_developments.png "
image_params :
num_inference_steps : 50
guidance_scale : 7.5
- name : " final_report "
type : " RunInference "
source : " ollama "
model_name : " llama2 "
prompt : " Create a final report on {context.topic} incorporating the following elements: n 1. Web search results: {steps.web_search} n 2. Summarized findings: {steps.summarize_findings} n 4. Generated image description: A futuristic representation of {context.topic} n 5. Transcription accuracy check: Compare the original summary with the transcribed text and comment on any discrepancies. "
result_path : " /app/output/final_report.txt "파이프 라인 실행 :
python app/main.py config/config.yaml
출력 확인 : 파이프 라인은 output 폴더에 출력을 저장합니다. 여기에는 구성에 지정된 오디오, 이미지 및 텍스트 보고서와 같은 생성 된 파일이 포함됩니다.
이 프로젝트에는 용이 한 컨테이너화를위한 Dockerfile이 포함되어 있습니다. Docker를 사용하여 빌드하고 실행하려면 :
docker build -t AIPE .
docker run -it --gpus all --env-file .env AIPE
파이프 라인은 Docker 컨테이너 내부의 output 폴더에 출력을 저장합니다. 여기에는 구성에 지정된 오디오, 이미지 및 텍스트 보고서와 같은 생성 된 파일이 포함됩니다.
Spheron에 AIPE 프로젝트를 배포하려면 :
이미지 세부 사항으로 프로젝트 루트에서 spheron.yaml 업데이트하십시오.
spheronctl CLI : 설치 가이드를 설치하십시오
배포 생성 :
sphnctl deployment create spheron.yaml 배포 상태를 확인하십시오 ( <LID> 배포 ID로 교체) :
sphnctl deployment get --lid < LID >배포 로그보기 :
sphnctl deployment logs --lid < LID >액세스 배포 쉘 :
sphnctl deployment shell aipet /bin/sh --lid < LID > --stdin --tty자세한 내용은 구형 문서를 참조하십시오.
기부금을 환영합니다! 풀 요청을 제출하십시오.
이 프로젝트는 MIT 라이센스에 따라 라이센스가 부여됩니다. 자세한 내용은 라이센스 파일을 참조하십시오.
궁금한 점이 있으시면 Mitra에 문의하십시오.