Introduction
Les cadres d'apprentissage en profondeur actuellement utilisés par les chercheurs sont différents, notamment TensorFlow, Pytorch, Keras, etc. Ces cadres d'apprentissage en profondeur sont appliqués dans des domaines tels que la vision informatique, la reconnaissance vocale, le traitement du langage naturel et la bioinformatique, et ont obtenu d'excellents résultats. Parmi eux, Pytorch est un cadre simple, élégant, efficace et rapide. Parmi les cadres open source actuels, aucun cadre ne peut dépasser Pytorch en même temps en termes de flexibilité, de facilité d'utilisation et de vitesse.
Ce document est positionné comme un tutoriel débutant pour Pytorch, principalement destiné aux étudiants ou aux amateurs d'apprentissage en profondeur qui veulent apprendre Pytorch. Grâce à l'étude des tutoriels, vous pouvez réaliser un apprentissage en profondeur avec des fondations zéro, réduire la difficulté de l'auto-étude et apprendre rapidement le pytorch.
Le tutoriel officiel comprend l'introduction à Pytorch et les didacticiels d'installation; un tutoriel rapide de 60 minutes, qui peut rapidement compléter un modèle de classificateur à partir de la scène novice; Un modèle couramment utilisé pour la vision par ordinateur, qui est pratique pour l'ajustement en fonction de vos propres données, et ne nécessite plus d'écriture à partir de zéro; Modèles de traitement du langage naturel, chatbots, génération de texte et autres projets vivants et intéressants.
en tout:
- Si vous souhaitez en savoir plus sur Pytorch, vous pouvez voir la section Introduction.
- Si vous voulez commencer rapidement avec Pytorch, vous pouvez regarder 60 minutes pour commencer.
- Si vous souhaitez résoudre des problèmes de vision de l'ordinateur, vous pouvez consulter la section Vision par ordinateur.
- Si vous souhaitez résoudre des problèmes de traitement du langage naturel, vous pouvez voir la section PNL.
- Il existe également un contenu d'apprentissage par renforcement et de réseaux adversaires génératifs.
La version vidéo officielle du document officiel de Pytorch est disponible en ligne sur la station B
https://www.bilibili.com/video/bv1gs4y1f71q/
Collection https://github.com/fendouai/pytorchvideo
Auteur: Pytorchchina Pytorch Traduction Team: News & Panchuang
Texte d'origine: https://pytorch.org/tutorials/
Table des matières
Chapitre 1: Introduction et téléchargement de Pytorch
1. Introduction à Pytorch
2.Pytorch Construction de l'environnement
Chapitre 2: Début avec Pytorch: 60min
1. Début avec Pytorch
2.Pytorch Différenciation automatique
3.Pytorch Networal Network
4.Pytorch Image Classifier
5.Pytorch Data Traitement parallèle
Chapitre 3: Introduction à Pytorch
1. Chargement et traitement des données
2.Pytorch Test
3. Transfert d'apprentissage
4. Déploiement du modèle SEQ2SEQ pour la frontale hybride
5. Enregistrer et charger le modèle
Chapitre 4: Images de Pytorch
1. Affinez le modèle de détection d'objet basé sur TorchVision 0.3
2. Affinez le modèle TorchVision
3. Réseau de convertisseur d'espace
4. Utiliser Pytorch pour le transfert neural
5. Générer des exemples de confrontation
6. Utilisez ONNX pour transférer le modèle vers CAF2 et Mobile
Chapitre 5: texte de Pytorch
1. Tutoriel Chatbot
2. Utilisez un RNN au niveau des caractères pour générer des noms
3. Utilisez un RNN au niveau des caractères pour la classification du nom
4. Utilisez Pytorch en Deep Learning et NLP
5. Utiliser le réseau Sequence2-Sequence et l'attention pour la traduction
Chapitre 6: Réseau de génération et d'adversariat de Pytorch
1. Réseaux adversaires génératifs
Chapitre 7: Apprentissage du renforcement de Pytorch
1. Apprentissage par renforcement (DQN)
Recommandations de tutoriel
- Tutoriel d'introduction de Pytorch
http://pytorchchina.com
- Panchuang AI Chatbot, service client intelligent:
http://www.panchangai.com/
- Site de tutoriel Panchuang, Tensorflow, Pytorch, Keras:
http://panchang.net/
- Magic Picture Internet Knowledge Graph Recommandation Système:
http://motuhulian.com
En raison du niveau limité du traducteur, s'il y a des omissions, veuillez soumettre un PR.