Awesome-Huggingface
Esta é uma lista de alguns maravilhosos projetos e aplicativos de código aberto integrados à abraço de bibliotecas de rosto.
Como contribuir
? Bibliotecas oficiais
Coisas legais de primeira parte feitas com ❤️ por? Abraçando o rosto.
- Transformadores-Processamento de linguagem natural de última geração para Jax, Pytorch e Tensorflow.
- conjuntos de dados-o maior hub de conjuntos de dados de NLP prontos para uso para modelos ML com ferramentas de manipulação de dados rápidas, fáceis de usar e eficientes.
- Tokenizers-Tokenizadores rápidos de última geração otimizados para pesquisa e produção.
- Knockknock - seja notificado quando seu treinamento terminar com apenas duas linhas de código adicionais.
- Acelerar-Uma maneira simples de treinar e usar modelos Pytorch com precisão multi-GPU, TPU, mista.
- AutonLP-Treine modelos de processamento de linguagem natural de ponta e implantam-os em um ambiente escalável automaticamente.
- NN_PRUNING - Atenda um modelo durante o Finetuning ou o treinamento.
- Huggingface_hub - Biblioteca de clientes para baixar e publicar modelos e outros arquivos no hub huggingface.co.
- TUNE - Uma referência para comparar modelos baseados em transformadores.
? ? Tutoriais
Aprenda a usar kits de ferramentas para abraçar, passo a passo.
- Curso Oficial (de Abraçar o rosto) - A série oficial de cursos fornecida? Abraçando o rosto.
- Transformers-Tutoriais (de @nielsrogge)-Tutoriais para aplicar vários modelos em conjuntos de dados do mundo real.
? Kits de ferramentas do NLP
Kits de ferramentas do NLP construídos sobre transformadores. Exército suíço!
- ALLENNLP (da AI2) - Uma biblioteca de pesquisa de PNL de código aberto.
- GRAPH4NLP - Ativando o uso fácil de redes neurais gráficas para PNL.
- Transformadores Lightning - Transformadores com interface Pytorch Lightning.
- Transformadores do adaptador-Extensão à biblioteca Transformers, integrando adaptadores em modelos de idiomas de última geração.
- OBSEI - Uma ferramenta de automação de fluxo de trabalho AI de baixo código e executa várias tarefas de PNL no pipeline do fluxo de trabalho.
- TRAPPER (da OBSS)-NLP de ponta através de modelos de transformadores em um design modular e APIs consistentes.
- Flair-Uma estrutura muito simples para a NLP de última geração.
? Representação de texto
Convertendo uma frase em um vetor.
- Transformadores de sentenças (da UKPLAB) - Codificadores amplamente utilizados computando representações vetoriais densas para frases, parágrafos e imagens.
- Whiteningbert (da Microsoft) - Uma abordagem fácil de incorporação de sentença não supervisionada com clareamento.
- SIMCSE (de Princeton)-Sentença de última geração incorporada com aprendizado contrastante.
- Densefrases (de Princeton) - Aprendendo densas representações de frases em escala.
Motores de inferência
Motores de inferência altamente otimizados que implementam APIs compatíveis com transformadores.
- Turbotransformers (da Tencent) - Um mecanismo de inferência para transformadores com API Fast C ++.
- Fastertransformer (da NVIDIA) - Um script e receita para executar o componente de codificador e decodificador altamente otimizado baseado em transformadores nas GPUs NVIDIA.
- LightSeq (de Bytedance) - Uma biblioteca de inferência de alto desempenho para processamento e geração de sequência implementada no CUDA.
- Fastseq (da Microsoft) - Implementação eficiente de modelos de sequência populares (por exemplo, Bart, Profetnet) para geração de texto, resumo, tarefas de tradução etc.
? Modelo de escalabilidade
Modelos de paralelização em várias GPUs.
- ParallefLormers (de Tunib) - uma biblioteca para implantação paralela do modelo.
- OSLO (da Tunib) - Uma biblioteca que suporta vários recursos para ajudá -lo a treinar modelos em larga escala.
- DeepSpeed (da Microsoft) - DeepSpeed -zero - escala qualquer tamanho do modelo com zero para nenhuma alteração no modelo. Integrado ao treinador HF.
- FairScale (do Facebook) - também implementa o protocolo zero. Integrado ao treinador HF.
- COLOSSALAI (de HPCaitech) - Um sistema de aprendizado profundo unificado para treinamento paralelo em larga escala (1D, 2D, 2.5D, 3D e paralelismo de sequência e protocolo zero).
? Sustce de compactação/aceleração do modelo
Comprimir ou acelerar modelos para melhorar a velocidade de inferência.
- TORCHDISTILL-Estrutura modular baseada em Pytorch, baseada em configuração para destilação de conhecimento.
- TextBrewer (da HFL)-Métodos de destilação de última geração para comprimir modelos de linguagem.
- Bert-de-teseu (da Microsoft)-Compressa Bert substituindo progressivamente os componentes do Bert original.
? Aste ataque adversário
Conduzindo ataque adversário para testar o modelo de robustez.
- TEXTATTACK (da UVA) - Uma estrutura Python para ataques adversários, aumento de dados e treinamento de modelos na PNL.
- Textflint (do Fudan) - Um kit de ferramentas de avaliação de robustez multilíngue unificado para PNL.
- OpenAttack (de quinta) - Um kit de ferramentas de ataque adversário textual de código aberto.
? Transferência de estilo
Transfira o estilo de texto! Agora você sabe por que se chama Transformer?
- StyleFormer - Uma estrutura de transferência de estilo de linguagem neural para transferir o texto sem problemas entre os estilos.
- Consert - Uma estrutura contrastiva para a transferência de representação de sentenças auto -supervisionadas.
? Análise de sentimentos
Analisando o sentimento e as emoções dos seres humanos.
- Conv -emtion - Implementação de diferentes arquiteturas para reconhecimento de emoções nas conversas.
? Correção de erro gramatical
Você fez um erro de digitação! Deixe -me corrigir isso.
- Gramformer - Uma estrutura para detectar, destacar e corretizar erros gramaticais no texto da linguagem natural.
? Tradução
Traduzindo entre diferentes idiomas.
- DL Translate-Uma biblioteca de tradução baseada em aprendizado profundo baseado em transformadores de HF.
- Easynmt (da UKPLAB)-Biblioteca de tradução fácil de usar e de última geração e imagens de docker com base em transformadores de HF.
Conhecimento e entidade
Conhecimento de aprendizado, entidades de mineração, conectando o mundo.
- Puro (de Princeton) - entidade e extração de relação do texto.
? Discurso
Processamento de fala alimentado pelas bibliotecas HF. Precisa de fala!
- S3PRL-Um kit de ferramentas de aprendizado de pré-treinamento e representação auto-supervisionado.
- Speechbrain - Um kit de ferramentas de fala baseado em Pytorch.
? Multi-modalidade
Compreendendo o mundo de diferentes modalidades.
- VILT (de Kakao)-Um transformador de visão e linguagem sem convolução ou supervisão da região.
? Aprendizagem de reforço
Combinando RL Magic com PNL!
- TRL - Transformadores de ajuste fino usando otimização de políticas proximais (PPO) para se alinhar com as preferências humanas.
❓ Resposta de perguntas
Procurando respostas? Transformadores para o resgate!
- Haystack (de DeepSet)-Estrutura de ponta a ponta para desenvolver e implantar sistemas de resposta a perguntas em estado selvagem.
? Sistemas de recomendação
Eu acho que isso é certo para você!
- Transformers4Rec (da NVIDIA) - Uma biblioteca flexível e eficiente alimentada por transformadores para recomendações seqüenciais e baseadas em sessões.
⚖️ Avaliação
Avaliando saídas do modelo e qualidade de dados alimentada pelos conjuntos de dados HF!
- Júri (da OBSS)-Faça uma ferramenta fácil de usar para avaliar as saídas do modelo de PNL, especificamente para NLG (geração de linguagem natural), oferecendo várias métricas automatizadas de texto para texto.
- Spotlight - Explore interativamente seu conjunto de dados HF com uma linha de código. Use os resultados do modelo (por exemplo, incorporações, previsões) para entender os segmentos críticos de dados e os modos de falha do modelo.
? Pesquisa neural
Pesquise, mas com o poder das redes neurais!
- Integração de Jina - Jina Integração de abraçar a API acelerada do rosto.
- Integração de tecelagem (text2vec) (QA) - Integração tece de abraçar transformadores de rosto.
- COLBERT (de Stanford) - Um modelo de recuperação rápido e preciso, permitindo uma pesquisa escalável baseada em Bert sobre grandes coleções de texto em dezenas de milissegundos.
☁ Cloud
Cloud facilita sua vida!
- Amazon Sagemaker - tornando mais fácil do que nunca treinar modelos de transformadores de rosto abraçados no Amazon Sagemaker.
Hardware
A infraestrutura que permite que a magia aconteça.
- Qualcomm - Colaboração em ativar transformadores em Snapdragon.
- Intel - Colaboração com as opções de configuração Intel para configuração.