A engenharia rápida é uma disciplina relativamente nova, projetada para desenvolver e otimizar as instruções para usar efetivamente os modelos de linguagem (LMS) para uma variedade de aplicações e tópicos de pesquisa. As habilidades de engenharia dicas ajudam a entender melhor as funções e limitações de grandes modelos de linguagem (LLMS).
A engenharia rápida pode ser usada para melhorar os recursos da LLMS em uma variedade de tarefas comuns e complexas, como perguntas e respostas e raciocínio aritmético, projetar técnicas de impulsionamento robusto e eficaz que interagem com o LLMS e outras ferramentas.
Impulsionado pelo alto interesse em desenvolver LLM, foi criada esta coleção de materiais de guia de engenharia de pontas, que contém todos os artigos mais recentes, guias de estudo, palestras, referências e ferramentas relacionadas à engenharia de pontas. (Vou atualizar a cada três dias por enquanto)
A maior parte do conteúdo atualmente se traduz em Dair-AI (https://github.com/dair-ai/prompt-engineering-guide)
Os notebooks e as apresentações de slides de laticínios e os slides estão incluídos.
Discord de Dair-AI e Twitter de Dair-AI
Plataforma (recomendada)
A seguir, é apresentado um guia de engenharia da TIP para o desenvolvimento do Dair-AI. O guia Dair-AI está em desenvolvimento. (Vou atualizar a cada três dias por enquanto)
Aqui estão os artigos mais recentes sobre engenharia rápida (classificada por data de lançamento). Atualizamos esses trabalhos todos os dias e adicionamos novos papéis. Adicionamos resumos desses trabalhos ao guia acima toda semana:
Pesquisas/Visão geral:
Técnicas/Métodos Abordagens/Técnicas:
Modelo de linguagem escalável Geração de dicas de aprendizado semi-supervisionado (fevereiro de 2023)
Defina o escopo das capacidades de grandes modelos de linguagem na geração de texto aberto por restrições rápidas (fevereiro de 2023)
A Tuning de prompt (APT): combinando diferentes dados por meio de dicas composíveis (fevereiro de 2023)
GraphPrompt: Unificação de pré-treinamento para redes neurais gráficas e tarefas a jusante (fevereiro de 2023)
A capacidade de grandes modelos de idiomas em auto-rememédia moral (fevereiro de 2023)
SwitchPrompt: Dicas suaves para área fechada específica para aprendizado classificado em domínios de baixo recurso (fevereiro de 2023)
Avalie a robustez de pistas discretas (fevereiro de 2023)
Exemplos de combinação de aprendizado de contexto (fevereiro de 2023)
Dicas difíceis se tornam fáceis: otimização baseada em gradiente discreto para ajuste e descoberta de dicas (fevereiro de 2023)
Raciocínio de pensamento em cadeia multimodal no modelo de idioma (fevereiro de 2023)
Modelos de linguagem grandes são facilmente distraídos por contextos não relacionados (fevereiro de 2023)
Dicas de síntese: gerar demonstrações de pensamento para grandes modelos de idiomas (fevereiro de 2023)
Dicas progressivas: aprendizado contínuo de modelos de idiomas (janeiro de 2023)
Dicas de processamento em lote: raciocínio eficiente da API LLM (janeiro de 2023)
Pense novamente, não pensemos passo a passo! Preconceito e toxicidade no raciocínio de ponto zero (dezembro de 2022)
Ai constitucional: inofensidade do feedback da IA (dezembro de 2022)
Dicas contínuas: resolver problemas complexos (dezembro de 2022)
Descubra o comportamento do modelo de linguagem através da avaliação escrita por modelo (dezembro de 2022)
Dicas estruturais: estender o aprendizado de contexto a 1.000 exemplos (dezembro de 2022)
PAL: Modelo de linguagem assistida por programa (novembro de 2022)
Modelos de idiomas grandes são engenheiros de prompt de nível humano (novembro de 2022)
Ignore a dica anterior: Tecnologia de ataque do modelo de idioma (novembro de 2022)
Texto gerado pela máquina: um estudo abrangente de modelos de ameaças e métodos de detecção (novembro de 2022)
Ensinar o raciocínio algorítmico através da aprendizagem de contexto (novembro de 2022)
Aprimore a autoconsistência e o desempenho dos modelos de linguagem pré-treinados por meio de inferência de linguagem natural (novembro de 2022)
Pergunte casualmente: estratégias simples para provar modelos de idiomas (outubro de 2022)
REACTER: Raciocínio e ação coordenados em modelos de idiomas (outubro de 2022)
TIP GPT-3 é confiável (outubro de 2022)
Dicas de decomposição: métodos modulares para resolver tarefas complexas (outubro de 2022)
Modelos de idiomas são raciocínio ganancioso: análise sistemática de links de pensamento (outubro de 2022)
Avaliação da suscetibilidade de modelos de linguagem pré-treinados por meio de exemplos adversários projetados à mão (setembro de 2022)
PromptGator: Obtenha uma pequena quantidade de pesquisas intensivas de 8 exemplos (setembro de 2022)
Raciocínio que dirige modelos de idiomas para se tornar melhor (junho de 2022)
Modelo de linguagem grande é o Raciocinador de ponto zero (maio de 2022)
Sistema MRKL: Uma arquitetura modular de símbolos neurais que combina grandes modelos de idiomas, fontes de conhecimento externas e raciocínio discreto (maio de 2022)
Detecção de toxicidade gerando prompts (maio de 2022)
Dicas de transferência de aprendizado para geração de texto (maio de 2022)
Não confiabilidade das instruções de raciocínio textual com um pequeno número de dicas (maio de 2022)
Classificação do modificador de dicas para geração de texto para imagem (abril de 2022)
PromptChainer: vinculando grandes dicas de modelo de linguagem através da programação visual (março de 2022)
Raciocínio ideológico da ligação para melhorar os modelos de linguagem com autoconsistência (março de 2022)
Treine o modelo de idioma usando feedback humano para executar instruções
Reexaminar o papel da demonstração: o que torna o aprendizado de contexto bem -sucedido? (Fevereiro de 2022)
As dicas de link de ideias aumentam a inferência para grandes modelos de idiomas (janeiro de 2022)
Mostre seu trabalho: um registro temporário para computação intermediária com o Modelo de Idioma (novembro de 2021)
Raciocínio do senso comum com base na geração de dicas de conhecimento (outubro de 2021)
O treinamento rápido com várias tarefas pode alcançar a generalização de tarefas de tiro zero (outubro de 2021)
Refatorando instruções de instrução para se adaptar à linguagem do GPTK (setembro de 2021)
Diretrizes de design para modelos de geração de texto para texto (setembro de 2021)
Faça modelos de idiomas pré-terem um aluno melhor sem amostra (agosto de 2021)
Prompts mágicos e ordenados e sua localização: supere um pequeno número de sensibilidade à sequência imediata (abril de 2021)
Bertese: Aprenda a conversar com Bert (abril de 2021)
O poder do ajuste da escala com parâmetros válidos (abril de 2021)
Programação de dicas para modelos de linguagem grande: indo além de um pequeno número de paradigmas de dicas (fevereiro de 2021)
Calibração pré-uso: melhore o desempenho da amostra pequena dos modelos de idiomas (fevereiro de 2021)
Ajuste do prefixo: otimize os avisos contínuos para a geração (janeiro de 2021)
Autoprompt: Proprietário de conhecimento de modelos de idiomas até prompts gerados automaticamente (outubro de 2020)
Modelos de idiomas são pequenos alunos (maio de 2020)
Como sabemos quais modelos de idiomas sabem? (Julho de 2020)
Aplicações:
Coleções:
Se você acha que algo está faltando, envie um pr. Feedback e sugestões também são bem -vindos.