Aprendizaje de refuerzo básico (RL)
Este repositorio tiene como objetivo proporcionar una serie de introducción al aprendizaje de refuerzo (RL) entregando una caminata sobre cómo codificar diferentes técnicas RL.
Revisión de antecedentes
Una revisión rápida de antecedentes de RL está disponible aquí.
Tutoriales:
Referencias:
- Chris Watkins, Aprendiendo de las recompensas retrasadas, Cambridge, 1989 (tesis)
- Impresionante repositorio de aprendizaje de refuerzo, https://github.com/aikorea/awesome-rl
- Reforzing Learning CS9417ML, Escuela de Informática e Ingeniería, UNSW Sydney, http://www.cse.unsw.edu.au/~cs9417ml/rl1/index.html
- Publicaciones de blog de aprendizaje de refuerzo, https://studywolf.wordpress.com/2012/11/25/reinforcement-letarning-q-letarning-and-exploration/
- Docios de Gimnasia Operai, https://gym.openai.com/docs
- Implementaciones de Vincent Bons, https://gist.github.com/wingedsheep
- La charla de aprendizaje de refuerzo profundo de David Silver, http://videolectures.net/rldm2015_silver_reefortrement_learning/
- Brockman, G., Cheung, V., Pettersson, L., Schneider, J., Schulman, J., Tang, J. y Zaremba, W. (2016). Gimnasio Operai. Preimpresión ARXIV ARXIV: 1606.01540.
- https://sites.google.com/view/deep-rl-bootcamp/lectures
- https://github.com/vmayoral/gym-cryptocurrencys