Deep Learning Experiments
1.0.0
Revisado e expandido
| Tópico | Observação | Vídeo | Código |
|---|---|---|---|
| Visão geral | - | - | |
| Aprendizado supervisionado | - | - | |
| Perceptron multicamada (MLP) | - | Caderno | |
| Rede Neural Convolucional (CNN) | - | Caderno | |
| Rede Neural Recorrente (RNN) | - | Caderno | |
| Transformador | - | Caderno | |
| Mamba | - | SimpleMamba Mamba2 | |
| Otimização | - | - | |
| Regularização | - | - | |
| Detecção | - | - | |
| Segmentação | - | Sam2 | |
| AutoEncoder (AE) | - | AE e Denoising Ae Colorização AE | |
| AutoEncoder variacional (VAE) | - | VAE e CVAE | |
| Rede Adversária Gerativa (GAN) | - | DCGAN e CGAN | |
| Introdução a grandes modelos de linguagem (LLMS) | - | GPT2-TS-TRAIN, GPT2-TS-VAL | |
| Dados e modelo de LLM | - | GPT2-TS-FT, GPT2-TS-FT-VAL |
| Tópico | Observação | Vídeo | Código |
|---|---|---|---|
| Ambiente de Desenvolvimento | - | - | |
| Python | - | - | |
| Numpy | - | - | |
| Einsum | - | Caderno | |
| Einops | - | Caderno | |
| Pytorch | - | - | |
| Gradio | - | Caderno Chat de lhama | |
| Eficiência | - | Código | |
| Pytorch Lightning | - | Caderno | |
| Modelo de embalagem e porção | - | Exportação onnx Onnx Runtime TorchScript & Tensorrt Cliente pytriton yolo Servidor pytriton YOLO | |
| Docker | = | - | |
| Huggingfcae | - | - |
Supondo que você já tenha anaconda ou venv , instale os pacotes Python necessários para executar os experimentos nesta versão.
pip install -r requirements.txt --upgrade
| Ai, ml e aprendizado profundo | Observação | Vídeo | Código |
|---|---|---|---|
| Visão geral | YouTube | - | |
| Kit de ferramentas | |||
| Ambiente de Desenvolvimento e editor de código | YouTube | - | |
| Python | YouTube | - | |
| Numpy | YouTube | Jupyter | |
| Einsum | YouTube | Jupyter | |
| Einops | YouTube | Jupyter & Jupyter (áudio) | |
| Pytorch e Timm | YouTube | Pytorch/timm & Entrada Jupyter | |
| Gradio & Hugging Face | YouTube | Jupyter | |
| Pesos e preconceitos | YouTube | Jupyter | |
| Abraçando o acelerador do rosto | O mesmo que W&B | O mesmo que W&B | Jupyter & Python |
| Conjuntos de dados e dataloaders | YouTube | Jupyter | |
| Aprendizado supervisionado | YouTube | ||
| Pytorch Lightning | YouTube | Mnist & KWS | |
| App Spotting de palavras -chave | cd versions/2022/supervised/python &&python3 kws-infer.py --gui | ||
| Bloco de construção: MLPs, CNNs, RNNs, Transformers | |||
| MLP | YouTube | MLP no CIFAR10 | |
| CNN | YouTube | CNN no CIFAR10 | |
| Transformador | YouTube | Transformador no CIFAR10 | |
| Backpropagation | |||
| Otimização | |||
| Regularização | |||
| Aprendizado não supervisionado | Breve | ||
| AutoEncoders | YouTube | Ae mnist Colorização Cifar10 |
Se você achar esse trabalho útil, dê uma estrela, garfo ou citar:
@misc{atienza2020dl,
title={Deep Learning Lecture Notes},
author={Atienza, Rowel},
year={2020},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/roatienza/Deep-Learning-Experiments}},
}