Matériel d'apprentissage en profondeur par l'assistant d'apprentissage en profondeur
Commencez à apprendre maintenant
Veuillez vous rendre sur www.deeplearningwizard.com pour commencer à apprendre! Il est mobile / tablette et open-source.
Détails du référentiel
Ce référentiel contient tous les ordinateurs portables et les fichiers Markdown MKDOCS des tutoriels couvrant l'apprentissage automatique, l'apprentissage en profondeur, l'apprentissage en renforcement profond, l'ingénierie des données, la programmation générale et les visualisations alimentant le site Web.
Prenez note qu'il s'agit d'un travail précoce en cours, soyez patient alors que nous téléchargeons progressivement nos guides.
Sections et sous-sections
Tutoriels d'apprentissage en profondeur et de renforcement profond (bibliothèques: python, pytorch, gym, numpy, matplotlib et plus)
- Introduction
- Progression du cours
- Apprentissage en profondeur pratique avec pytorch
- Matrices
- Gradients
- Régression linéaire
- Régression logistique
- Réseau neuronal à action directe (FNN)
- Réseau neuronal convolutionnel (CNN)
- Réseau neuronal récurrent (RNN)
- Réseau de mémoire à court terme (LSTM)
- Autoencoders (AE)
- Autoencoders Overcompete entièrement connectés
- Améliorer l'apprentissage en profondeur avec Pytorch
- Dérivé, gradient et jacobien
- Propagation avant et arrière et descente de gradient (à partir de la régression de Scratch FNN)
- Planification des taux d'apprentissage
- Algorithmes d'optimisation
- Fonctions d'initialisation et d'activation du poids
- Apprentissage en renforcement profond avec pytorch
- Supervisé à l'apprentissage du renforcement
- Processus de décision de Markov et équations de Bellman
- Programmation dynamique
- À partir de zéro en profondeur avec pytorch / python
- À partir de la classification de régression logistique à zéro
- Calculer l'optimisation
- Basiques d'optimisation de la vitesse Numba
Modèles linguistiques (bibliothèques: Python, Pytorch, Olllama, Llamaindex, Cuda, Huggingface, Apptainer)
- Introduction
- Conteneurs
- Conteneurs HPC avec application
- Modèles de langue
- LLM Introduction et réglage hyperparamètre
- Modèles de langue multimodale
- Génération augmentée (RAG) de la récupération (RAG)
- Introduction des intégres
Tutoriels d'apprentissage automatique (bibliothèques: Python, CUDF Rapids, Cuml Rapids, Pandas, Numpy, Scikit-Learn et plus)
- Rapids CUDF
- Introduction
- GPU DataFrames
- CPU / GPU Différencing fractionnaire
Tutoriels de programmation (bibliothèques: C ++, Python, bash et plus)
- Introduction
- C ++
- Frapper
- Python
- Javascrip
- Électron
Tutoriels d'ingénierie des données (bibliothèques: bash, databricks, tables en direct delta, parquet, python, casandra et plus)
- Cassandra (nosql)
- Introduction
- Configuration du cluster Apache Cassandra
À propos de l'assistant d'apprentissage en profondeur
Nous déployons une approche descendante qui vous permet de saisir facilement et rapidement les théories d'apprentissage en profondeur. Nous avons open source tous nos documents par le biais de notre sorcier en profondeur Wikipedia. Pour les apprenants visuels, n'hésitez pas à vous inscrire à notre cours vidéo et à rejoindre des milliers de sorciers d'apprentissage en profondeur.
À cette date, nous avons enseigné des milliers d'étudiants dans plus de plus de 120 pays.
Contribution
Nous appelons ouvertement les gens à contribuer à ce référentiel pour les erreurs. N'hésitez pas à créer une demande de traction.
Contributeur principal
Richie ng
Éditeurs et supporters
- Jie Fu, éditeur (Postdoc au Montréal Institute for Learning Algorithms (Mila))
- Alfredo Canziani, partisan (professeur adjoint à NYU sous Yann LeCun)
- Marek Bardonski, partisan (partenaire directeur, AIREV)
Bogues et améliorations
N'hésitez pas à signaler les bogues et les améliorations via les problèmes. Ou essayez simplement de tirer pour apporter des améliorations / corrections.
Réseaux sociaux
- Youtube
- Gazouillement
- Facebook
- Liendin
Citation
Si vous trouvez les matériaux utiles, comme les diagrammes ou le contenu, n'hésitez pas à citer ce référentiel.