Família Promptkg: uma galeria de trabalhos de pesquisa rápida e relacionada à KG, kits de ferramentas e lista de papel.
| Diretório | Descrição |
|---|
| pesquisar | • Uma coleção de implementações imediatas do modelo de pesquisa relacionadas à aprendizagem |
| Lambdakg | • Uma biblioteca para incorporações e aplicativos baseados em PLM |
| Deltakg | • Uma biblioteca para editar dinamicamente as incorporações de kg baseadas em PLM |
| Tutorial-Notebooks | • Cadernos tutoriais para iniciantes |
Índice
- Tutoriais
- Pesquisas
- Papéis
- Conhecimento como rápido
- 1. Entendimento de idiomas
- 2. Multimodal
- 3. Tarefas avançadas
- Prompt (PLMS) para conhecimento
- 1. Sondagem de conhecimento
- 2. Incorporação do gráfico de conhecimento
- 3. Análise
- Informações de contato
Tutoriais
- NLP zero e de poucos tiros com modelos de idiomas pré-criados. Tutorial AACL 2022 [ppt]
- Construção de gráficos de conhecimento com eficiência de dados. Tutorial do CCKS2022 [PPT]
- Construção de gráficos de conhecimento eficiente e robuts. Aacl-ijcnlp Tutorial [ppt]
- Conhecimento informou o aprendizado imediato. MLNLP 2022 Tutorial (chinês) [ppt]
Pesquisas
- Ajuste Delta: Um estudo abrangente de métodos eficientes em parâmetro para modelos de idiomas pré-treinados (no ARXIV 2021) [Paper]
- Pré-trem, prompt e previsão: uma pesquisa sistemática de métodos de solicitação no processamento de linguagem natural (Pesquisas de computação da ACM 2021) [Paper]
- Pré-treinamento reestruturado (no ARXIV 2022) [papel]
- Uma pesquisa com PNL intensiva em conhecimento com modelos de idiomas pré-treinados (no ARXIV 2022) [papel]
- Uma pesquisa sobre modelos de idiomas pré-treinados com conhecimento de conhecimento (no ARXIV 2022) [papel]
- Uma revisão sobre modelos de idiomas como bases de conhecimento (no ARXIV 2022) [papel]
- Construção de gráficos de conhecimento generativo: uma revisão (EMNLP, 2022) [Paper]
- Raciocínio com o Modelo de Idioma Promoting: Uma Pesquisa (no Arxiv 2022) [Paper]
- Raciocínio sobre diferentes tipos de gráficos de conhecimento: estático, temporal e multimodal (no ARXIV 2022) [papel]
- O ciclo de vida do conhecimento em grandes modelos de idiomas: uma pesquisa (no ARXIV 2022) [papel]
- Unificar grandes modelos de idiomas e gráficos de conhecimento: um roteiro (no ARXIV 2023) [papel]
Papéis
Conhecimento como rápido
Entendimento da linguagem
- Geração de recuperação useada para tarefas de PNL com uso intensivo de conhecimento, em Neurips 2020. [PDF]
- Reino: Modelo de idioma de recuperação de recuperação pré-treinamento, no ICML 2020. [PDF]
- Tornando modelos de linguagem pré-treinados melhores alunos de poucos anos, na ACL 2022. [PDF]
- PTR: Ajuste rápido com regras para classificação de texto, no Openai 2022. [PDF]
- Rotule a verbalização e oraques para extração efetiva de relações zero e poucas fotos, no EMNLP 2021. [PDF]
- Relacionamento: Alavancando os avisos para gerar dados sintéticos para a extração de tripletos de relação com tiro zero, no EMNLP 2022 (achados). [PDF]
- Tuneamento rápido com conhecimento: incorporando o conhecimento no Prompt VERBALIZER para classificação de texto, na ACL 2022. [PDF]
- PPT: Ajuste rápido pré-treinado para aprendizado de poucos anos, na ACL 2022. [PDF]
- Ajuste de demonstração contrastante para modelos de idiomas pré-treinados, no EMNLP 2022 (achados). [PDF]
- ADAPROMPT: Treinamento de modelo adaptativo para PNL baseado em PROMPED, em ARXIV 2022. [PDF]
- KnowPrompt: Tuneamento imediato com reconhecimento de conhecimento com otimização sinérgica para extração de relação, em www 2022. [PDF]
- A referência com reconhecimento de esquema como prompt melhora a construção de gráficos de conhecimento com eficiência de dados, no Sigir 2023. [PDF]
- Decuitar o conhecimento da memorização: aprendizado imediato de recuperação com agitação, em Neurips 2022. [PDF]
- Extração de relação como exame de livro aberto: Ajuste imediato com recuperação, em Sigir 2022. [PDF]
- Lightner: Um paradigma de ajuste leve para o nerd de baixo recurso por meio de impulsionamento flugable, em Coling 2022. [PDF]
- Geração de estrutura unificada para extração universal de informações, na ACL 2022. [PDF]
- LASUIE: Unificar a extração de informações com o modelo de linguagem generativa da estrutura adaptativa latente, em Neurips 2022. [PDF]
- ATLAS: Aprendizagem com poucos tiros com modelos de idiomas aumentados de recuperação, no ARXIV 2022. [PDF]
- Não solicite, pesquise! Aprendizagem zero baseada em mineração com modelos de idiomas, na ACL 2022. [PDF]
- Conhecimento solicitando o modelo de idioma pré-treinado para o entendimento da linguagem natural, no EMNLP 2022. [PDF]
- Conhecimento Unificado Prompt pré-treinamento para diálogos de atendimento ao cliente, no CIKM 2022. [PDF]
- Conhecimento solicitando o modelo de idioma pré-treinado para o entendimento da linguagem natural, no EMNLP 2022. [PDF]
- Auto-instrução: alinhando o modelo de linguagem com instruções auto-geradas, no ARXIV 2022. [PDF]
- Um incorporador, qualquer tarefa: incorporação de texto de instrução-finetuned, em Arxiv 2022. [PDF]
- Aprendendo a recuperar os prompts para o aprendizado no contexto, na NAACL 2022. [PDF]
- Os dados de treinamento são mais valiosos do que você pensa: um método simples e eficaz recuperando os dados de treinamento, na ACL 2022. [PDF]
- Um modelo para todos os domínios: ajuste colaborativo de prefixo de domínio para o NER de domínio cruzado, no ARXIV 2023. [PDF]
- REPUGUG: Modelos de linguagem de caixa preta de recuperação de recuperação, no ARXIV 2023. [PDF]
- Modelo de linguagem agente com conhecimento solicitando a resposta do gráfico de conhecimento zero, em Arxiv 2023. [PDF]
Multimodal
- Boa orientação visual torna um extrator melhor: prefixo visual hierárquico para entidade multimodal e extração de relação, em Naacl 2022 (descobertas). [PDF]
- Ajuste rápido visual, no ECCV 2022. [PDF]
- CPT: Ajuste rápido colorido para modelos de linguagem de visão pré-treinados, no EMNLP 2022. [PDF]
- Aprendendo a solicitar modelos de linguagem de visão, no IJCV 2022. [PDF]
- Ajuste rápido do tempo de teste para generalização zero em modelos de linguagem de visão, em Neurips 2022. [PDF]
Tarefas avançadas
- Recomendação como Processamento de Linguagem (RLP): um pré -atreto unificado, prompt personalizado e prever o paradigma (p5), no ACM Recsys 2022. [PDF]
- Para sistemas de recomendação de conversação unificada por meio de aprendizado imediato aprimorado pelo conhecimento, no KDD 2022. [PDF]
- PROMPTEM: Tuneamento de pronta para a correspondência de entidades generalizadas de baixo recurso, no VLDB 2023. [PDF]
- VIMA: Manipulação do robô geral com instruções multimodais, em Arxiv 2022. [PDF]
- Modelos de idiomas de retrossíntese imparciais com instruções de desconexão, no ARXIV 2022. [PDF]
- Progprompt: gerando planos de tarefas robôs situados usando grandes modelos de idiomas, no ARXIV 2022. [PDF]
- Colaborando com modelos de idiomas para o raciocínio incorporado, na oficina Neurips 2022 Larel. [PDF]
Prompt (PLMS) para conhecimento
Investigação do conhecimento
- Quanto conhecimento você pode incluir nos parâmetros de um modelo de idioma? Em EMNLP 2020. [PDF]
- Modelos de idiomas como bases de conhecimento? no EMNLP 2019. [PDF]
- Bases de conhecimento materializado de transformadores de senso comum, no CSRR 2022. [PDF]
- Modelos de idiomas com reconhecimento de tempo como bases de conhecimento temporal, em TACL2022. [PDF]
- Os modelos generativos de idiomas pré-treinados podem servir como bases de conhecimento para o controle de qualidade de livro fechado? em ACL2021. [PDF]
- Modelos de idiomas como bases de conhecimento: sobre representações de entidades, capacidade de armazenamento e consultas parafraseadas, no EACL2021. [PDF]
- Modelos de idiomas científicos para conclusão da base de conhecimento biomédico: um estudo empírico, no AKBC 2021. [PDF]
- LAMA multilíngue: investigando o conhecimento em modelos de idiomas pré -treinados multilíngues, no EACL2021. [PDF]
- Como podemos saber quais modelos de idiomas sabem? em TACL 2020. [PDF]
- Como o contexto afeta as previsões factuais dos modelos de linguagem, no AKBC 2020. [PDF]
- Copen: investigação de conhecimento conceitual em modelos de linguagem pré-treinados, no EMNLP 2022. [PDF]
- Sondagem de conhecimento símile de modelos de idiomas pré-treinados, na ACL 2022. [PDF]
Incorporação do gráfico de conhecimento (fornecemos uma biblioteca e referência Lambdakg)
- KG-Bert: Bert para Conclusão do Gráfico de Conhecimento, em Arxiv 2020. [PDF]
- Conclusão de gráficos de aprendizagem de várias tarefas com modelos de idiomas pré-treinados , no Coling 2020. [PDF]
- Representação de texto com estrutura de estrutura Aprendizagem para conclusão eficiente do gráfico de conhecimento, em www 2021. [PDF]
- Kepler: Um modelo unificado para incorporação de conhecimento e representação de idiomas pré-treinada, TACL 2021 [PDF]
- Statik: Estrutura e texto para o gráfico de conhecimento indutivo, na NAACL 2022. [PDF]
- Incorporação semântica e de estrutura da linguagem conjunta para a conclusão do gráfico de conhecimento, em Coling. [PDF]
- O conhecimento é plano: uma estrutura generativa seq2seq para várias conclusão de gráficos de conhecimento, em Coling. [PDF]
- Os modelos pré-treinados beneficiam a conclusão do gráfico de conhecimento? Uma avaliação confiável e uma abordagem razoável, na ACL 2022. [PDF]
- Modelos de idiomas como incorporações de conhecimento, em IJCAI 2022. [PDF]
- Da discriminação à geração: Conclusão do gráfico de conhecimento com transformador generativo, em www 2022. [PDF]
- Raciocínio através da memorização: INCLIMENTOS DE GRAPE DE CONHECIMENTO DO CONHECIMENTO DA VIBLEIRO PRÓXIMO, NO ARXIV 2022. [PDF]
- SIMKGC: Conclusão simples de gráfico de conhecimento contrastivo com modelos de idiomas pré-treinados, na ACL 2022. [PDF]
- Sequência a sequência Concluir o gráfico de conhecimento e resposta a perguntas, na ACL 2022. [PDF]
- LP-Bert: Gráfico de conhecimento pré-treinamento com várias tarefas Bert para previsão de links, no ARXIV 2022. [PDF]
- Máscara e razão: Transformadores de gráfico de conhecimento pré-treinamento para consultas lógicas complexas, em KDD 2022. [PDF]
- O conhecimento é plano: uma estrutura generativa SEQ2SEQ para várias conclusão de gráficos de conhecimento, na Coling 2022. [PDF]
Análise
- Pensamento experiente ou educado? Revisitando modelos de linguagem como bases de conhecimento, na ACL 2021. [PDF]
- Pode provocar modelos de linguagem pré -traida? Compreendendo os riscos invisíveis de uma visão causal, na ACL 2022. [PDF]
- Como os modelos de linguagem pré-treinados capturam conhecimento factual? Uma análise de inspiração causal, na ACL 2022. [PDF]
- Habilidades emergentes de grandes modelos de linguagem, em Arxiv 2022. [PDF]
- Neurônios do conhecimento em transformadores pré -criados, na ACL 2022. [PDF]
- Encontrar neurônios de habilidade em modelos de linguagem baseados em transformadores pré-treinados, no EMNLP 2022. [PDF]
- Os avisos resolvem tarefas de PNL usando idiomas naturais? Em Arxiv 2022. [PDF]
- Repensando o papel das demonstrações: o que faz o aprendizado no contexto funcionar? no EMNLP 2022. [PDF]
- Os modelos rápidos baseados realmente entendem o significado de seus avisos? em Naacl 2022. [PDF]
- Quando não confiar em modelos de linguagem: investigando eficácia e limitações de memórias paramétricas e não paramétricas, no ARXIV 2022. [PDF]
- Por que o GPT pode aprender no contexto? Modelos de idiomas executam secretamente a ascendência de gradiente como meta-otimizadores , em Arxiv 2022. [PDF]
- Prompts de ordens fantástica e onde encontrá-las: superando a sensibilidade à ordem pronta de poucas fotos, na ACL 2022. [PDF]
- Editando grandes modelos de idiomas: problemas, métodos e oportunidades, no ARXIV 2023. [PDF]
Informações de contato
Para obter ajuda ou problemas usando os Tookits, envie um problema do GitHub.