MMF est un cadre modulaire pour la vision et la recherche multimodale linguistique de Facebook AI Research. MMF contient des implémentations de référence de modèles de vision et de langage de pointe et a alimenté plusieurs projets de recherche chez Facebook IA Research. Voir la liste complète du projet à l'intérieur ou construit sur MMF ici.
Le MMF est alimenté par Pytorch, permet une formation distribuée et n'est pas opinée, évolutive et rapide. Utilisez MMF pour bootstrap pour votre prochain projet de recherche multimodale Vision and Language en suivant les instructions d'installation. Jetez un œil à la liste des fonctionnalités MMF ici.
MMF agit également comme une base de code Starter pour les défis concernant les ensembles de données de vision et de langue (les défis des mèmes, textvqa, textcaps et VQA). MMF était autrefois connu sous le nom de Pythie. La vidéo suivante montre un aperçu de la façon dont les ensembles de données et les modèles fonctionnent à l'intérieur de MMF. Vérifiez l'aperçu de la vidéo de MMF.
Suivez les instructions d'installation dans la documentation.
En savoir plus sur MMF ici.
Si vous utilisez MMF dans votre travail ou utilisez des modèles publiés dans MMF, veuillez citer:
@misc { singh2020mmf ,
author = { Singh, Amanpreet and Goswami, Vedanuj and Natarajan, Vivek and Jiang, Yu and Chen, Xinlei and Shah, Meet and
Rohrbach, Marcus and Batra, Dhruv and Parikh, Devi } ,
title = { MMF: A multimodal framework for vision and language research } ,
howpublished = { url{https://github.com/facebookresearch/mmf} } ,
year = { 2020 }
}MMF est sous licence sous licence BSD disponible dans le fichier de licence