La recomendación integrada tiene como objetivo recomendar conjuntamente elementos heterogéneos en la alimentación principal de diferentes fuentes a través de múltiples canales, que necesita capturar las preferencias de los usuarios en los niveles de elementos y canales. Ha sido ampliamente utilizado en sistemas prácticos por miles de millones de usuarios, mientras que pocos trabajos se concentran en la recomendación integrada sistemáticamente.
En este trabajo, proponemos un nuevo marco de aprendizaje de refuerzo jerárquico para la recomendación integrada (HRL-REC), que divide la recomendación integrada en dos tareas para recomendar canales y elementos secuencialmente.
El agente de bajo nivel es un selector de canales, que genera una lista de canales personalizada. El agente de alto nivel es un recomendador de elementos, que recomienda elementos específicos de canales heterogéneos bajo las restricciones del canal.
HRL-REC también se ha implementado en las principales historias de WeChat, que afectan a millones de usuarios.
En el sistema en línea real, HRL-REC es un marco de reanimiento complejo implementado en C ++. Todos los modelos están entrenados en función de una versión profundamente personalizada de TensorFlow distribuido que admite características escasas a gran escala.
Sin datos masivos y recursos de la máquina, la capacitación de HRL-REC no es realista.
Por lo tanto, el código de código abierto aquí solo implementa una versión simplificada de sus ideas principales para la referencia de los investigadores interesados. Si hay algún error, contácteme. ¡Gracias!
"Aprendizaje de refuerzo jerárquico para recomendación integrada" (AAAI 2020)