ML YouTube -Kurse
Bei Dair.ai eröffnen wir die KI -Ausbildung. In diesem Repo indexieren und organisieren wir einige der besten und neuesten Kurse für maschinelles Lernen auf YouTube.
Maschinelles Lernen
- Caltech CS156: Lernen aus Daten lernen
- Stanford CS229: maschinelles Lernen
- Freunde mit maschinellem Lernen anfreunden
- Angewandtes maschinelles Lernen
- Einführung in maschinelles Lernen (Tübingen)
- Vorlesung des maschinellen Lernens (Stefan Harmeling)
- Statistisches maschinelles Lernen (Tülenden)
- Probabilistisches maschinelles Lernen
- MIT 6.S897: maschinelles Lernen für das Gesundheitswesen (2019)
Tiefes Lernen
- Neuronale Netze: Null zu Helden
- MIT: Tiefes Lernen für Kunst, Ästhetik und Kreativität
- Stanford CS230: Deep Learning (2018)
- Einführung in Deep Learning (MIT)
- CMU Einführung in Deep Learning (11-785)
- Deep Learning: CS 182
- Tiefes unbeaufsichtigtes Lernen
- NYU Deep Learning SP21
- Fundamentmodelle
- Tiefes Lernen (Tübingen)
Wissenschaftliches maschinelles Lernen
- Parallele Computing und wissenschaftliches maschinelles Lernen
Praktisches maschinelles Lernen
- LLMOPS: Aufbau realer Anwendungen mit großsprachigen Modellen
- Bewertung und Debugging generative KI
- Chatgpt prompt Engineering für Entwickler
- Langchain für die LLM -Anwendungsentwicklung
- Langchain: Chatten Sie mit Ihren Daten
- Aufbau von Systemen mit der Chatgpt -API
- Langchain & Vector -Datenbanken in der Produktion
- Bauen von LLM-Antriebs-Apps
- Voller Stack LLM Bootcamp
- Voller Stack Deep Learning
- Praktisches tiefes Lernen für Codierer
- Stanford MLSYS -Seminare
- Maschinenlerntechnik für die Produktion (MLOPS)
- MIT Einführung in die datenzentrierte KI
Verarbeitung natürlicher Sprache
- XCS224U: Verständnis für natürliche Sprache (2023)
- Stanford CS25 - Transformers United
- NLP -Kurs (umarmtes Gesicht)
- CS224N: Verarbeitung natürlicher Sprache mit tiefem Lernen
- CMU Neural Networks für NLP
- CS224U: Verständnis für natürliche Sprache
- CMU Advanced NLP 2021/2022/2024
- Mehrsprachiger NLP
- Fortgeschrittener NLP
Computer Vision
- CS231N: Faltungsnetzwerke für visuelle Erkennung
- Tiefes Lernen für Computer Vision
- Tiefes Lernen für Computer Vision (DL4CV)
- Tiefes Lernen für Computer Vision (Neuralearn.ai)
Verstärkungslernen
- Tiefes Verstärkungslernen
- Vorlesungsreihe für Verstärkung (DeepMind)
- Verstärkungslernen (Polytechnique Montreal, Herbst 2021)
- Fundamente der tiefen RL
- Stanford CS234: Verstärkungslernen
Graph maschinelles Lernen
- Maschinelles Lernen mit Grafiken (Stanford)
- Ammi Geometrischer Deep -Learning -Kurs
Multi-Task-Lernen
- Multi-Task und Meta-Learning (Stanford)
Andere
- MIT Deep Learning in Biowissenschaften
- Selbstfahrende Autos (Tübingen)
- Advanced Robotics (Berkeley)
Caltech CS156: Lernen aus Daten lernen
Ein Einführungskurs im maschinellen Lernen, der die grundlegende Theorie, Algorithmen und Anwendungen abdeckt.
- Vortrag 1: Das Lernproblem
- Vortrag 2: Ist das Lernen machbar?
- Vortrag 3: das lineare Modell I.
- Vorlesung 4: Fehler und Rauschen
- Vortrag 5: Training versus Tests
- Vortrag 6: Theorie der Verallgemeinerung
- Vortrag 7: Die VC -Dimension
- Vortrag 8: Vorurteile des Varianz-Kompromisses
- Vortrag 9: Das lineare Modell II II
- Vortrag 10: Neuronale Netze
- Vortrag 11: Überanpassung
- Vortrag 12: Regularisierung
- Vortrag 13: Validierung
- Vortrag 14: Vektorautomaten unterstützen
- Vortrag 15: Kernel -Methoden
- Vortrag 16: radiale Basisfunktionen
- Vortrag 17: Drei Lernprinzipien
- Vortrag 18: Epilog
? Link zum Kurs
Stanford CS229: maschinelles Lernen
Um einige der Grundlagen von ML zu lernen:
- Lineare Regression und Gradientenabstieg
- Logistische Regression
- Naive Bayes
- SVMs
- Kerne
- Entscheidungsbäume
- Einführung in neuronale Netze
- ML -Modelle debuggen ...
? Link zum Kurs
Freunde mit maschinellem Lernen anfreunden
Eine Reihe von Mini -Vorträgen, die verschiedene Einführungsthemen in ML abdecken:
- Erklärung in AI
- Klassifizierung vs. Regression
- Präzession gegen Rückruf
- Statistische Signifikanz
- Clustering und K-Means
- Ensemble -Modelle ...
? Link zum Kurs
Neuronale Netzwerke: Null zu Helden (von Andrej Karpathy)
Kurs bietet einen ausführlichen Überblick über neuronale Netze.
- Backpropagation
- Intro in die Sprachmodellierung geschrieben
- Aktivierung und Gradienten
- Backprop Ninja werden
? Link zum Kurs
MIT: Tiefes Lernen für Kunst, Ästhetik und Kreativität
Deckt die Anwendung des tiefen Lernens für Kunst, Ästhetik und Kreativität ab.
- Nostalgie -> Kunst -> Kreativität -> Evolution als Daten + Richtung
- Effiziente Gans
- Erkundungen in der KI für Kreativität
- Neuronale Abstraktionen
- Einfache 3D -Inhaltserstellung mit konsistenten neuronalen Feldern ...
? Link zum Kurs
Stanford CS230: Deep Learning (2018)
Deckt die Grundlagen des Deep -Lernens ab, wie man unterschiedliche neuronale Netzwerke (CNNs, RNNs, LSTMs usw.) aufbaut, wie man maschinelles Lernprojekte leitet, und berufliche Ratschläge für Deep -Learning -Praktiker.
- Deep Learning Intuition
- Gegnere Beispiele - Gans
- Vollzyklus eines Deep Learning Project
- KI und Gesundheitswesen
- Deep Learning Strategie
- Interpretierbarkeit neuronaler Netze
- Karriereberatung und Lesen von Forschungsarbeiten
- Tiefes Verstärkungslernen
? Link zum Kurs? Link zu Materialien
Angewandtes maschinelles Lernen
Um einige der am häufigsten verwendeten Techniken in ML zu lernen:
- Optimierung und Kalkül
- Überanpassung und Unteranpassung
- Regularisierung
- Monte Carlo -Schätzung
- Maximale Wahrscheinlichkeitslernen
- Nächste Nachbarn
- ...
? Link zum Kurs
Einführung in maschinelles Lernen (Tübingen)
Der Kurs dient als grundlegende Einführung in das maschinelle Lernen und deckt Schlüsselkonzepte in Bezug auf Regression, Klassifizierung, Optimierung, Regularisierung, Clusterbildung und Dimensionalitätsreduzierung ab.
- Lineare Regression
- Logistische Regression
- Regularisierung
- Steigern
- Neuronale Netze
- PCA
- Clustering
- ...
? Link zum Kurs
Vorlesung des maschinellen Lernens (Stefan Harmeling)
Deckt viele grundlegende ML -Konzepte ab:
- Bayes -Herrschaft
- Von der Logik bis zur Wahrscheinlichkeiten
- Verteilungen
- Matrixdifferentialkalkül
- PCA
- K-means und em
- Kausalität
- Gaußsche Prozesse
- ...
? Link zum Kurs
Statistisches maschinelles Lernen (Tülenden)
Der Kurs deckt die Standardparadigmen und Algorithmen im statistischen maschinellen Lernen ab.
- Knn
- Bayesianische Entscheidungstheorie
- Konvexe Optimierung
- Lineare und Ridge -Regression
- Logistische Regression
- SVM
- Zufällige Wälder
- Steigern
- PCA
- Clustering
- ...
? Link zum Kurs
Praktisches tiefes Lernen für Codierer
Dieser Kurs behandelt Themen wie wie man:
- Erstellen und trainieren Sie tiefe Lernmodelle für Computer Vision, Verarbeitung natürlicher Sprache, tabellarische Analyse und kollaborative Filterprobleme
- Erstellen Sie zufällige Wälder und Regressionsmodelle
- Modelle einsetzen
- Verwenden Sie Pytorch, die am schnellsten wachsende Deep -Learning -Software der Welt sowie beliebte Bibliotheken wie Fastai und Hugging Face
- Fundamente und tiefe Tauchgang mit Diffusionsmodellen
- ...
? Link zum Kurs - Teil 1
? Link zum Kurs - Teil 2
Stanford MLSYS -Seminare
Eine Seminarserie zu allen möglichen Themen im Zusammenhang mit dem Aufbau von maschinellen Lernsystemen.
? Link zu Vorträgen
Maschinenlerntechnik für die Produktion (MLOPS)
Spezialisierungskurs auf Mlops von Andrew Ng.
? Link zu Vorträgen
MIT Einführung in die datenzentrierte KI
Deckt die aufstrebende Wissenschaft der datenzentrierten KI (DCAI) ab, die Techniken zur Verbesserung der Datensätze untersucht, was häufig der beste Weg ist, um die Leistung in praktischen ML-Anwendungen zu verbessern. Themen umfassen:
- Datenzentrierte KI gegen modellorientierte KI
- Beschriftungsfehler
- Erstellung und Kuration der Datensätze
- Datenzentrierte Bewertung von ML-Modellen
- Klassenungleichgewicht, Ausreißer und Verteilungsverschiebung
- ...
? Kurswebsite
? Vortragsvideos
? Laborzuweisungen
Maschinelles Lernen mit Grafiken (Stanford)
Um einige der neuesten Graphentechniken im maschinellen Lernen zu lernen:
- PageRank
- Matrixfaktor
- Knotenbettdings
- Grafik neuronale Netze
- Wissensgrafiken
- Tiefe generative Modelle für Grafiken
- ...
? Link zum Kurs
Probabilistisches maschinelles Lernen
Um das probabilistische Paradigma von ML zu lernen:
- Argumentation über Unsicherheit
- Kontinuierliche Variablen
- Probenahme
- Markov -Kette Monte Carlo
- Gaußsche Verteilungen
- Grafische Modelle
- Tuning -Inferenzalgorithmen
- ...
? Link zum Kurs
MIT 6.S897: maschinelles Lernen für das Gesundheitswesen (2019)
Dieser Kurs führt die Schüler in maschinelles Lernen im Gesundheitswesen ein, einschließlich der Art der klinischen Daten und der Verwendung des maschinellen Lernens zur Risikostratifizierung, der Modellierung von Krankheiten, der Präzisionsmedizin, der Diagnose, der Erkennung von Subtypen und der Verbesserung der klinischen Arbeitsabläufe.
? Link zum Kurs
Einführung in Deep Learning
Um einige der Grundlagen des tiefen Lernens zu lernen:
- Einführung in Deep Learning
? Link zum Kurs
CMU Einführung in Deep Learning (11-785)
Der Kurs beginnt allmählich von MLPs (Multi-Layer-Perzeptrons) und entwickelt sich dann zu Konzepten wie Aufmerksamkeit und Sequenz-zu-Sequenz-Modellen.
? Link zum Kurs
? Vorträge
? Tutorials/Rezitationen
Deep Learning: CS 182
Um einige der weit verbreiteten Techniken im tiefen Lernen zu lernen:
- Grundlagen für maschinelles Lernen
- Fehleranalyse
- Optimierung
- Backpropagation
- Initialisierung
- Stapelnormalisierung
- Stilübertragung
- Nachahmung lernen
- ...
? Link zum Kurs
Tiefes unbeaufsichtigtes Lernen
Um die neuesten und am häufigsten verwendeten Techniken im tiefen unbeaufsichtigten Lernen zu lernen:
- Autoregressive Modelle
- Flussmodelle
- Latente variable Modelle
- Selbstüberprüftes Lernen
- Implizite Modelle
- Kompression
- ...
? Link zum Kurs
NYU Deep Learning SP21
Um einige der fortschrittlichen Techniken im Deep -Lernen zu lernen:
- Neuronale Netze: Rotation und Kürbis
- Modelle basierender latenter variabler Energiebasis
- Unbeaufsichtigtes Lernen
- Generative kontroverse Netzwerke
- Autoencoder
- ...
? Link zum Kurs
Fundamentmodelle
Weitere Informationen zu Fundamentmodellen wie GPT-3, Clip, Flamingo, Codex und Dino.
? Link zum Kurs
Tiefes Lernen (Tübingen)
Dieser Kurs führt die praktischen und theoretischen Prinzipien von tiefen neuronalen Netzwerken ein.
- Berechnungsdiagramme
- Aktivierungsfunktionen und Verlustfunktionen
- Schulung, Regularisierung und Datenvergrößerung
- Grundlegende und hochmoderne tiefe neuronale Netzwerkarchitekturen, einschließlich Faltungsnetzwerken und neuronalen Netzen von Grafik
- Tiefe generative Modelle wie Auto-Encoder, Variationsautomatiker und generative kontroverse Netzwerke
- ...
? Link zum Kurs
Parallele Computing und wissenschaftliches maschinelles Lernen
- Die Grundlagen wissenschaftlicher Simulatoren
- Einführung in das parallele Computing
- Kontinuierliche Dynamik
- Inverse Probleme und differenzierbare Programmierung
- Verteiltes paralleles Computing
- Physik-informierte neuronale Netzwerke und neuronale Differentialgleichungen
- Probabilistische Programmierung, auch bekannt als Bayes'sche Schätzung der Programme
- Globalisierung des Verständnisses von Modellen
? Link zum Kurs
XCS224U: Verständnis für natürliche Sprache (2023)
Dieser Kurs behandelt Themen wie:
- Kontextwort Darstellungen
- Informationsabruf
- In-Kontext-Lernen
- Verhaltensbewertung von NLU -Modellen
- NLP -Methoden und Metriken
- ...
? Link zum Kurs
Stanford CS25 - Transformers United
Dieser Kurs besteht aus Vorträgen, die sich auf Transformatoren konzentrieren und einen tiefen Tauchgang und deren Anwendungen liefern
- Einführung in Transformatoren
- Transformatoren in der Sprache: GPT-3, Codex
- Anwendungen in Vision
- Transformatoren in RL & Universal Compute -Motoren
- Skalierung von Transformatoren
- Interpretierbarkeit mit Transformatoren
- ...
? Link zum Kurs
NLP -Kurs (umarmtes Gesicht)
Erfahren Sie mehr über verschiedene NLP -Konzepte und wie Sie Sprachmodelle und Transformatoren auf NLP anwenden:
- Was ist Transferlernen?
- BPE -Tokenisierung
- Batching -Eingänge
- Feinabstimmungsmodelle
- Texteinbettungen und semantische Suche
- Modellbewertung
- ...
? Link zum Kurs
CS224N: Verarbeitung natürlicher Sprache mit tiefem Lernen
Um die neuesten Ansätze für Deep Learning Based NLP zu lernen:
- Abhängigkeits Parsen
- Sprachmodelle und RNNs
- Frage Beantwortung
- Transformatoren und Vorbereitungen
- Generation der natürlichen Sprache
- T5 und große Sprachmodelle
- Zukunft von NLP
- ...
? Link zum Kurs
CMU Neural Networks für NLP
Um die neuesten neuronalen netzwerkbasierten Techniken für NLP zu erlernen:
- Sprachmodellierung
- Effizienztricks
- Konditionierte Generation
- Strukturierte Vorhersage
- Modellinterpretation
- Erweiterte Suchalgorithmen
- ...
? Link zum Kurs
CS224U: Verständnis für natürliche Sprache
Um die neuesten Konzepte im Verständnis der natürlichen Sprache zu lernen:
- Geerdeter Sprachverständnis
- Beziehungsextraktion
- Inferenz der natürlichen Sprache (NLI)
- NLU- und neuronale Informationsextraktion
- Gegnertests
- ...
? Link zum Kurs
CMU Advanced NLP
Lernen:
- Grundlagen moderner NLP -Techniken
- Multi-Task-, Multi-Domänen-, Multi-Lingual-Lernen
- Aufforderung + Sequenz-zu-Sequenz-Vor-Training
- Interpretieren und Debuggen von NLP -Modellen
- Aus Wissensbasen lernen
- Gegentliches Lernen
- ...
? Link zu 2021 Ausgabe
? Link zu 2022 Ausgabe
? Link zu 2024 Ausgabe
Mehrsprachiger NLP
Um die neuesten Konzepte für mehrsprachige NLP zu erlernen:
- Typologie
- Wörter, Teil der Sprache und Morphologie
- Erweiterte Textklassifizierung
- Maschinelle Übersetzung
- Datenvergrößerung für MT
- Niedrige Ressource ASR
- Aktives Lernen
- ...
? Link zum 2020 Kurs
? Link zum 2022 Kurs
Fortgeschrittener NLP
Um fortgeschrittene Konzepte in NLP zu lernen:
- Aufmerksamkeitsmechanismen
- Transformatoren
- Bert
- Frage Beantwortung
- Modelldestillation
- Vision + Sprache
- Ethik in NLP
- Commonsense -Argumentation
- ...
? Link zum Kurs
CS231N: Faltungsnetzwerke für visuelle Erkennung
Stanfords berühmter CS231N -Kurs. Die Videos sind nur für das Frühjahrssemester 2017 erhältlich. Der Kurs wird derzeit als Deep Learning for Computer Vision bezeichnet, aber die Version des Frühjahrs 2017 trägt den Titel "Faltungsstaat Neuronal Networks" für die visuelle Erkennung.
- Bildklassifizierung
- Verlustfunktionen und Optimierung
- Einführung in neuronale Netze
- Faltungsnetzwerke
- Ausbildung neuronaler Netzwerke
- Deep Learning Software
- CNN -Architekturen
- Wiederkehrende neuronale Netzwerke
- Erkennung und Segmentierung
- Visualisierung und Verständnis
- Generative Modelle
- Tiefes Verstärkungslernen
? Link zum Kurs? Link zu Materialien
Tiefes Lernen für Computer Vision
Einige der grundlegenden Konzepte in Lebenslauf lernen:
- Einführung in Deep Learning für Lebenslauf
- Bildklassifizierung
- Faltungsnetzwerke
- Aufmerksamkeitsnetzwerke
- Erkennung und Segmentierung
- Generative Modelle
? Link zum Kurs
Tiefes Lernen für Computer Vision (DL4CV)
Moderne Methoden für Computer Vision lernen:
- CNNs
- Fortgeschrittener Pytorch
- Neuronale Netze verstehen
- RNN, Aufmerksamkeit und Vits
- Generative Modelle
- GPU -Grundlagen
- Selbst-Supervision
- Neuronales Rendering
- Effiziente Architekturen
? Link zum Kurs
Tiefes Lernen für Computer Vision (Neuralearn.ai)
Moderne Methoden für Computer Vision lernen:
- Selbstüberprüftes Lernen
- Neuronales Rendering
- Effiziente Architekturen
- Operationen für maschinelles Lernen (MLOPS)
- Moderne nervennetzwerke resultal
- Transformatoren in Vision
- Modellbereitstellung
? Link zum Kurs
Ammi Geometrischer Deep -Learning -Kurs
Um Konzepte im geometrischen Deep -Lernen zu erfahren:
- Lernen in hohen Dimensionen
- Geometrische Priors
- Gitter
- Verteiler und Maschen
- Sequenzen und Zeitverzerrung
- ...
? Link zum Kurs
Tiefes Verstärkungslernen
Um die neuesten Konzepte in Deep RL zu lernen:
- Intro zu Rl
- RL -Algorithmen
- Reale Entscheidungsfindung in der realen Welt
- Übersichtliches Lernen von Verhaltensweisen
- Tiefes Nachahmung
- Kostenfunktionen und Belohnungsfunktionen
- ...
? Link zum Kurs
Vorlesungsreihe für Verstärkung (DeepMind)
Die Deep Learning Lecture Series ist eine Zusammenarbeit zwischen DeepMind und dem UCL -Zentrum für künstliche Intelligenz.
- Einführung in RL
- Dynamische Programmierung
- Modellfreie Algorithmen
- Tiefes Verstärkungslernen
- ...
? Link zum Kurs
LLMOPS: Aufbau realer Anwendungen mit großsprachigen Modellen
Lernen Sie, moderne Software mit LLMs mit den neuesten Tools und Techniken im Bereich zu erstellen.
? Link zum Kurs
Bewertung und Debugging generative KI
Sie werden lernen:
- Instrument ein Jupyter -Notizbuch
- Verwalten Sie die Hyperparameter -Konfiguration
- Metriken ausführen
- Sammeln Sie Artefakte für Datensatz- und Modellversioning
- Log -Experimentergebnisse
- Trace -Eingabeaufforderungen und Antworten für LLMs
- ...
? Link zum Kurs
Chatgpt prompt Engineering für Entwickler
Erfahren Sie, wie Sie ein großes Sprachmodell (LLM) verwenden, um schnell neue und leistungsstarke Anwendungen zu erstellen.
? Link zum Kurs
Langchain für die LLM -Anwendungsentwicklung
Sie werden lernen:
- Modelle, schnelle und Parser
- Erinnerungen für LLMs
- Ketten
- Fragen zur Beantwortung von Dokumenten
- Agenten
? Link zum Kurs
Langchain: Chatten Sie mit Ihren Daten
Sie werden erfahren:
- Dokumentladung
- Dokumentspaltung
- Vektorspeicher und Einbettungen
- Abruf
- Frage Beantwortung
- Chat
? Link zum Kurs
Aufbau von Systemen mit der Chatgpt -API
Erfahren Sie, wie Sie komplexe Workflows mithilfe von Kettenaufrufen zu einem großen Sprachmodell automatisieren.
? Link zum Kurs
Langchain & Vector -Datenbanken in der Produktion
Erfahren Sie, wie Sie Langchain und Vector DBS in der Produktion verwenden:
- LLMs und Langchain
- Lernen, wie man fordert
- Kenntnisse mit Indizes organisieren
- Komponenten mit Ketten kombinieren
- ...
? Link zum Kurs
Bauen von LLM-Antriebs-Apps
Erfahren Sie, wie Sie LLM-Anträge mit LLM-APIs erstellen können
- LLM -APIs auspacken
- Erstellen einer Basis -LLM -Anwendung
- Verbesserung und Optimierung von LLM -Anwendungen
- ...
? Link zum Kurs
Voller Stack LLM Bootcamp
Um zu erfahren, wie Sie LLM-Anbieter-Anwendungen erstellen und bereitstellen:
- Lernen Sie zu buchstabieren: schnelle Engineering
- Llmops
- UX für Sprach Benutzeroberflächen
- Erweiterte Sprachmodelle
- Starten Sie eine LLM -App in einer Stunde
- LLM -Fundamente
- Projektwechsel: Askfsdl
- ...
? Link zum Kurs
Voller Stack Deep Learning
Um das Full-Stack-Produktion zu lernen, tiefes Lernen zu lernen:
- ML -Projekte
- Infrastruktur und Werkzeug
- Experiment -Management
- Fehlerbehebung bei DNNs
- Datenverwaltung
- Datenkennzeichnung
- Überwachung von ML -Modellen
- Webbereitstellung
- ...
? Link zum Kurs
Einführung in tiefe Lernen und tiefe generative Modelle
Deckt die grundlegenden Konzepte des tiefen Lernens ab
- Einschichtige neuronale Netzwerke und Gradientenabstieg
- Mehrschichtige neuronale Netzwerke und Backpropagation
- Faltungsnetzwerke für Bilder mit Faltungsnetzwerken
- Wiederkehrende neuronale Netzwerke für Text
- Autoencodierer, variative Autoencoder und generative kontroverse Netzwerke
- Encoder-Decoder rezidivierende neuronale Netzwerke und Transformatoren
- Beispiele für Pytorch -Code
? Link zum Kurs? Link zu Materialien
Selbstfahrende Autos (Tübingen)
Deckt die dominantesten Paradigmen selbstfahrender Autos ab: modulare Pipeline-basierte Ansätze sowie tief lernbasierte End-to-End-Fahrtechniken.
- Kamera, Lidar und Radarbasis Wahrnehmung
- Lokalisierung, Navigation, Pfadplanung
- Fahrzeugmodellierung/Kontrolle
- Tiefes Lernen
- Nachahmung lernen
- Verstärkungslernen
? Link zum Kurs
Verstärkungslernen (Polytechnique Montreal, Herbst 2021)
Das Entwerfen autonomer Entscheidungssysteme ist eines der langjährigen Ziele der künstlichen Intelligenz. Solche Entscheidungssysteme können, falls er sich verwirklicht, einen großen Einfluss auf das maschinelle Lernen für Robotik, Spielspiel, Kontrolle und Gesundheitsversorgung haben, um nur einige zu nennen. In diesem Kurs wird Verstärkungslernen als allgemeiner Rahmen für die Gestaltung solcher autonomen Entscheidungssysteme eingeführt.
- Einführung in RL
- Mehr bewaffnete Banditen
- Richtliniengradientenmethoden
- Kontextbanditen
- Finite Markov -Entscheidungsprozess
- Dynamische Programmierung
- Richtlinien -Iteration, Wert -Iteration
- Monte Carlo -Methoden
- ...
? Link zum Kurs? Link zu Materialien
Fundamente der tiefen RL
Eine Mini-6-Vorsitzende von Pieter Abbeel.
- MDPs, exakte Lösungsmethoden, max-Ens-RL
- Tiefes Q-Learning
- Politikgradienten und Vorteilsschätzung
- TRPO und PPO
- DDPG und SAC
- Modellbasierte RL
? Link zum Kurs
Stanford CS234: Verstärkungslernen
Behandelt Themen von grundlegenden Konzepten des Verstärkungslernens bis hin zu fortgeschritteneren:
- Markov -Entscheidungsprozesse und Planung
- Modellfreie Richtlinienbewertung
- Modellfreie Kontrolle
- Verstärkungslernen mit Funktionsnäherung und tiefe RL
- Richtliniensuche
- Erforschung
- ...
? Link zum Kurs? Link zu Materialien
Stanford CS330: Deep Multi-Task und Meta Learning
Dies ist ein Kurs auf Graduiertenebene, der verschiedene Aspekte des tiefen Multi-Tasks- und Meta-Lernens abdeckt.
- Multi-Task-Lernen, Grundlagen für Transferlernen
- Meta-Learning-Algorithmen
- Erweiterte Meta-Learning-Themen
- Multi-Task-RL, zielgerichtete RL
- Meta-Einstärkungs-Lernen
- Hierarchische Rl
- Lebenslanges Lernen
- Offene Probleme
? Link zum Kurs? Link zu Materialien
MIT Deep Learning in Biowissenschaften
Ein Kurs, in dem Fundamente von ML für Anwendungen in Genomik und Biowissenschaften weiter eingeführt werden.
- ML -Modelle interpretieren
- DNA -Zugänglichkeit, Promotoren und Enhancer
- Chromatin- und Genregulation
- Genexpression, Spleißen
- RNA-seq, Spleißen
- Einzelzell-RNA-Sequenzierung
- Dimensionalitätsreduzierung, Genetik und Variation
- Drogenentdeckung
- Proteinstrukturvorhersage
- Proteinfaltung
- Bildgebung und Krebs
- Neurowissenschaften
? Link zum Kurs
? Link zu Materialien
Fortgeschrittene Robotik: UC Berkeley
Dieser Kurs ist von Peter Abbeel und deckt einen Überblick über das Verstärkungslernen ab und setzt sich für Anwendungen in Robotik fort.
- MDPs: exakte Methoden
- Diskretisierung des kontinuierlichen Zustandsraums MDPs
- Funktionsnäherungen / featurenbasierte Darstellungen
- LQR, iterative LQR / Differential -Dynamikprogrammierung
- ...
? Link zum Kurs? Link zu Materialien
Geben Sie auf Twitter, wenn Sie Fragen haben.
Wenn Sie daran interessiert sind, einen Beitrag zu leisten, können Sie einen PR mit einem Link zum Kurs eröffnen. Es wird ein bisschen Zeit dauern, aber ich habe Pläne, viele Dinge mit diesen individuellen Vorträgen zu tun. Wir können die Vorträge zusammenfassen, Notizen einbeziehen, zusätzliches Lesematerial bereitstellen, Schwierigkeiten des Inhalts usw. enthalten.
Hier finden Sie jetzt ML -Kursnotizen.