
Ce document vise à suivre les progrès dans le traitement du langage naturel vietnamien et à donner un aperçu de l' état de l'art (SOTA) dans les tâches NLP les plus courantes et leurs ensembles de données correspondants.
Il vise à couvrir les tâches NLP traditionnelles et principales telles que l'analyse de dépendance et le marquage d'une partie du discours ainsi que des analyses plus récentes telles que la compréhension de la lecture et l'inférence du langage naturel. L'objectif principal est de fournir au lecteur un aperçu rapide des benchmark datasets et de la state-of-the-art pour sa tâche d'intérêt, qui sert de tremplin pour de nouvelles recherches. À cette fin, s'il y a un endroit où les résultats pour une tâche sont déjà publiés et régulièrement entretenus, comme un public leaderboard , le lecteur y sera pointé.
Désambigation des limites de phrase / Détection du langage / normalisation du texte / correction d'orthographe
Segmentation des mots / étiquetage / section / analyse des mots
Classification du texte / analyse des sentiments / incorporations de mots
Reconnaissance d'entité / extraction relationnelle / extraction d'événements / Extraction d'informations / extraction de mots-clés
Résolution de coreférence / remplissage de machines à sous / lien d'entité
Sémantique / étiquetage des rôles sémantiques / identification paraphrase / inférence du langage naturel
Traduction machine / résumé automatique
Représentation et raisonnement des connaissances
Systèmes de dialogue et chatbots / génération de langue / réponse aux questions
Reconnaissance automatique de la parole / texte à la classification de la parole / de la parole / de la parole
Reconnaissance optique de texte / sous-titrage d'image
RessourcesSi vous souhaitez ajouter un nouveau résultat, vous pouvez le faire avec une demande de traction (PR). Afin de minimiser le bruit et de rendre la maintenance quelque peu gérable, les résultats rapportés dans les articles publiés seront préférés (indiquer le lieu de publication dans votre RP); Une exception peut être faite pour des préparations influentes. Le résultat doit inclure le nom de la méthode, la citation, le score et un lien vers le papier et doivent être ajoutés afin que le tableau soit trié (avec le meilleur résultat en haut).
Si votre demande de traction contient un nouveau résultat, veuillez vous assurer que le "nouveau résultat" apparaît quelque part dans le titre du PR. De cette façon, nous pouvons suivre les tâches les plus actives et recevoir le plus d'attention.
Afin de faciliter la reproduction, nous vous recommandons d'ajouter un lien à une implémentation à chaque méthode si disponible. Vous pouvez ajouter une colonne Code (voir ci-dessous) à la table si elle n'existe pas. Dans la colonne Code , indiquez une implémentation officielle avec officiel. Si une implémentation non officielle est disponible, utilisez le lien (voir ci-dessous). Si aucune implémentation n'est disponible, vous pouvez laisser la cellule vide.
| Modèle | Score | Papier / source | Code |
|---|---|---|---|
| Officiel | |||
| Lien |
Pour ajouter un nouvel ensemble de données ou une nouvelle tâche, suivez les étapes ci-dessous. Tous les nouveaux ensembles de données auraient dû être utilisés pour l'évaluation dans au moins un article publié en plus de celui qui a introduit l'ensemble de données.
| Modèle | Score | Papier / source | Code |
|---|---|---|---|