A inteligência artificial generativa (Genai) está transformando rapidamente vários domínios, introduzindo níveis sem precedentes de novidade, criatividade e produtividade ", criando a maior mudança tecnológica em nossas vidas". Com sua capacidade de responder às instruções de linguagem natural do tipo humano, a Genai adiciona uma nova dimensão interativa aos aplicativos de IA. Ele gera novo conteúdo - texto, áudio, imagens e vídeo - dos dados existentes, alcançando feitos anteriormente inimagináveis. Além disso, Genai se destaca em produtividade, superando os seres humanos em algumas tarefas em velocidade e eficiência.

Bem-vindo ao livro de receitas da Genai, uma mistura de receitas e guias de instruções para o uso do LLMS. Esta coleção abrange uma ampla gama de aplicativos de processamento de linguagem natural (PNL) usando modelos de idiomas:
Estratégias de solicitação de LLM : Exemplos iniciados para promover Técnicas de DSPY Framework : Explore alternativas para levar a engenharia com abordagens declarativas e programáticas para a programação LLMS Chatbots simples : Aprenda os básicos para a criação de spios de retração de spios para a fina de resposta fina para a fina de resposta fina e a fina de resposta fina para a fina. Formato e tonalidade Funcionalidade LLM : Use agentes e funções para aprimorar os recursos, interagindo com ferramentas externas e fontes de dados que empregam modelos de idiomas líderes : guias práticos para usar modelos e plataformas de inferência de OpenI, Datapricks.
Destinado a desenvolvedores iniciantes, este livro fornece código de exemplo e guias de instruções, mostrando como usar APIs e estruturas das plataformas principais. Comece sua jornada e descubra o potencial de Genai.
Para experimentar esses exemplos, você precisará de uma conta do OpenAI e uma chave de API associada, antrópica, Pinecone, Datrabricks Data Intelligent Platform ou uma conta de terminal de qualquer escala e uma chave associada. Melhor ainda, instale o Ollama no seu laptop.
Todos os exemplos e notebooks estão no Python, mas os conceitos podem ser adaptados a qualquer linguagem de programação, desde que você possa fazer chamadas de API REST no idioma de destino ou usar o SDK da linguagem de destino.
Alguns exemplos neste livro de receitas são inspirados (alguns modificados, expandidos ou copiados) desses recursos, incluindo:
| Nomes de diretórios | Descrição |
|---|---|
| genai_intro | Introdução geral a Genai, Modelos de Fundação, GPTs |
| agentes | O que são agentes, em evolução da arquitetura do agente, por que usá -los e como escrever agentes |
| assistentes | Os assistentes do OpenAI estendem a funcionalidade LLM para trabalhar e interagir com ferramentas externas, permitindo acesso a serviços externos, como serviços da Web e DataStors. Como trabalhar com os assistentes do OpenAi para implementar agentes |
| chatbots | Aplicativo comum no atendimento ao cliente, como escrever chatbots simples e conversacionais com LLMS, usando técnicas de promoção |
| dspy | Visão geral rápida de uma estrutura declarativa para o programa LLMS: o que e por quê e como usar o DSPY |
| incorporação e vectordbs | Introdução às incorporações do vetor e seu papel nas pesquisas semânticas de aplicativos LLM Gen. As incorporações de vetor são centrais para a geração de aumento da recuperação. Explore as lojas vetoriais comuns como retornantes para documentos indexados |
| avaliação | A avaliação do LLM não é fácil e confusa; pode parecer uma arte escura. Mas algumas ferramentas, como o MLFlow, fornecem experimentação, log, rastreamento e rastreamento para avaliar o LLMS |
| afinação | O uso comum do LLM para lidar com tarefas específicas do domínio é via ajuste fino. Por que e quando ajustar sua tarefa específica de domínio para respostas, tom e formato personalizados |
| chamada de função | Como usar o OpenAi e o Open-Source LLM Funciton Calling para estender a funcionalidade LLM |
| LLM-PROMPTS | Uma introdução às inúmeras técnicas de engenharia imediata usando modelos de código aberto e de código aberto LLM |
| trapos | A geração de aumento de recuperação (RAG) é a Taylor Swift of LLM Applications; Todo mundo os quer; Todo mundo escreve sobre eles; Todo mundo os constrói. Uma introdução a diferentes tipos de trapos, quando usá-los sobre tunign fino e como implementá-los para seus dados, aumentando a precisão e diminuindo as halucinações em suas respostas |
Como eu uso o OpenAi, Anthropic, Google Gemmini ou AnyScale terminal, forneço os respectivos arquivos de modelo de ambiente: Env_ANYSCALE_TEMPLAT , Env_antrópica_template , Env_google_template e Env_openai_template .
Adicione suas teclas e o nome do modelo a qualquer um dos arquivos e copie o arquivo para .env para o diretório de nível superior. Para migrar qualquer código OpenAI para os pontos de extremidade de qualquer escala, use este guia simples. Na maioria das vezes, a migração é perfeita.
Além disso, você precisará de algumas bibliotecas Python. Use pip install -r requirements.txt para instalá -los.
Nota : Não compartilhe seus arquivos de ambiente com as teclas da API publicamente.
Congratulo -me com contribuições. Vamos fazer deste um recurso generativo de desenvolvedor de IA. Suas contribuições podem incluir adições ou expansões desses guias de instruções.
Verifique os problemas existentes e puxe solicitações antes de contribuir para evitar a duplicação. Se você tiver sugestões para exemplos ou guias, compartilhe -os na página de questões.
Divirta -se de Genai! ? ️
Jules