Le traitement du langage naturel (PNL) utilise des algorithmes pour comprendre et manipuler le langage humain. Cette technologie est l'un des domaines les plus largement appliqués de l'apprentissage automatique. Alors que l'IA continue de se développer, la demande de professionnels est également qualifiée pour créer des modèles qui analysent la parole et le langage, découvrent des modèles contextuels et produiront des informations à partir de texte et d'audio. Cette spécialisation vous permettra des techniques d'apprentissage en profondeur de pointe nécessaires pour construire des systèmes NLP de pointe. À la fin de cette spécialisation, vous serez prêt à concevoir des applications NLP qui effectuent une analyse de réponses et des sentiments, créent des outils pour traduire les langues et résumer du texte, et même créer des chatbots.
Cette spécialisation s'adresse aux étudiants en apprentissage automatique ou en intelligence artificielle ainsi qu'aux ingénieurs logiciels à la recherche d'une compréhension plus approfondie du fonctionnement des modèles PNL et de la façon de les appliquer. Les apprenants doivent avoir une connaissance pratique de l'apprentissage automatique, du python intermédiaire, y compris une expérience avec un cadre d'apprentissage en profondeur (par exemple, Tensorflow, Keras), ainsi que la maîtrise du calcul, de l'algèbre linéaire et des statistiques. Si vous souhaitez réprimer ces compétences, nous recommandons la spécialisation en profondeur, offerte par Deeplearning.ai et enseigné par Andrew Ng.
Cette spécialisation est conçue et enseignée par deux experts de la PNL, de l'apprentissage automatique et de l'apprentissage en profondeur. Younes Bensouda Mourri est un instructeur de l'IA à l'Université de Stanford qui a également aidé à construire la spécialisation en profondeur. Łukasz Kaiser est chercheur du personnel chez Google Brain et co-auteur de Tensorflow, des bibliothèques Tensor2tensor et Trax, et le papier transformateur.
Il s'agit du premier cours de la spécialisation du traitement du langage naturel.
Semaine 1: régression logistique pour l'analyse des sentiments des tweets
Semaine 2: Bayes naïfs pour l'analyse des sentiments des tweets
Semaine 3: modèles d'espace vectoriel
Semaine 4: Word Embeddings and Locality Sensitive Haching pour la traduction automatique
Ceci est le deuxième cours de la spécialisation du traitement du langage naturel.
Semaine 1: Correct automatique en utilisant une distance minimale d'édition
Semaine 2: étiquetage d'une partie du discours (POS)
Semaine 3: Modèles de langue N-gram
Semaine 4: Word2Vec et descente de gradient stochastique
Il s'agit du troisième cours de la spécialisation du traitement du langage naturel.
Semaine 1: Sentiment avec des filets neuronaux
Semaine 2: Modèles de génération de langue
Semaine 3: Reconnaissance des entités nommées (NER)
Semaine 4: réseaux siamois
Il s'agit du quatrième cours de la spécialisation du traitement du langage naturel.
Semaine 1: Traduction de machine neurale avec attention
Semaine 2: Résumé avec les modèles de transformateur
Semaine 3: répondage aux questions avec les modèles de transformateur
Semaine 4: chatbots avec un modèle de réformateur