La recommandation intégrée vise à recommander conjointement des éléments hétérogènes dans le flux principal à partir de différentes sources via plusieurs canaux, qui doivent capturer les préférences des utilisateurs aux niveaux de l'élément et des canaux. Il a été largement utilisé dans les systèmes pratiques par des milliards d'utilisateurs, tandis que peu de travaux se concentrent systématiquement sur la recommandation intégrée.
Dans ce travail, nous proposons un nouveau cadre d'apprentissage de renforcement hiérarchique pour la recommandation intégrée (HRL-REC), qui divise la recommandation intégrée en deux tâches pour recommander séquentiellement les canaux et les éléments.
L'agent de bas niveau est un sélecteur de canaux, qui génère une liste de canaux personnalisée. L'agent de haut niveau est un recommandateur d'élément, qui recommande des éléments spécifiques à partir de canaux hétérogènes sous les contraintes de canal.
HRL-REC a également été déployé sur WeChat Top Stories, affectant des millions d'utilisateurs.
Dans le système en ligne réel, HRL-REC est un cadre de reconstitution complexe implémenté en C ++. Tous les modèles sont formés sur la base d'une version profondément personnalisée de TensorFlow distribuée prenant en charge les fonctionnalités clairsemé à grande échelle.
Sans données massives et ressources machine, la formation HRL-REC n'est pas réaliste.
Par conséquent, le code open source n'implémente ici qu'une version simplifiée de ses idées de base pour la référence des chercheurs intéressés. S'il y a des erreurs, veuillez me contacter. Merci!
"Apprentissage du renforcement hiérarchique pour la recommandation intégrée" (AAAI 2020)