버전 1 파일 : shallow_langchain_report.py (유용성 사례를 위해 REPO에 보관)
버전 2 파일 : shallow_langchain_report_with_audio.py (최신 및 가장 좋은!)
Shallow_langchain_report_with_audio는 첫 번째 버전을 오디오 파일을 지원하기 위해 코드 구현과 결합합니다. 따라서 이제 버전 2를 실행하여 오디오 파일 (M4A 등)을 제출할 수 있으며 동일한 디렉토리에서 "Audio_generated_text.txt"라는 제목의 .txt 파일을 만듭니다. 거기에서 .txt 파일을 읽고 내용에 대한 요약 된 보고서를 작성합니다! 이것이 가장 멋진 것이 아닌가?
백엔드가 아직 구현되지 않았기 때문에 여전히 "얕은"이라는 이름이 있습니다. 결과물이 종종 절단되는 경우가 종종 있습니다 (컨텍스트 창은 AI 출력에 비해 너무 큽니다). 이것은 더 긴 세션을 제공하는 데 도움이되는 Pinecone 백엔드와 함께 버전 2에서 해결됩니다. 버전 3을 계속 지켜봐주십시오!
Repo를 클로닝하여 .py 파일을 다운로드하거나 원하는 경우를 원할 수도 있습니다.
그런 다음 llm_initialization 함수를 찾아 (함수 호출이 메인의 첫 번째 줄) "Sk -...."라는 텍스트 필드에 OpenAI API 키를 붙여 넣습니다.
다른 사용 요구 사항은 사용자 입력으로 오디오 파일을 제공하는 것입니다. iPhone의 "Voice Memos"응용 프로그램의 파일 인 .m4a 파일에서 테스트했습니다. 나중에 나중에 나오는 추가 파일 타입 테스트 및 지원.
이 도구는 Blueprint의 AI 도구 개발 이니셔티브의 일부입니다. 그들에게 연락하십시오 : LinkedIn
프로젝트 타임 라인 : 2023 년 6 월 15 일 -2023 년 7 월 27 일