MMF ist ein modularer Rahmen für die multimodale Forschung von Visionen und Sprachforschung aus der Facebook -AI -Forschung. MMF enthält Referenzimplementierungen hochmoderner Visions- und Sprachmodelle und hat bei Facebook AI-Forschung mehrere Forschungsprojekte betrieben. Die vollständige Liste des Projekts in MMF finden Sie hier.
MMF wird von Pytorch angetrieben, ermöglicht ein verteiltes Training und ist nicht optimiert, skalierbar und schnell. Verwenden Sie MMF, um für Ihr nächstes Vision und Ihr multimodales Forschungsprojekt für Vision und Sprache zu starten , indem Sie den Installationsanweisungen befolgen. Schauen Sie sich hier eine Liste der MMF -Funktionen an.
MMF fungiert auch als Starter -Codebasis für Herausforderungen in Bezug auf Vision- und Sprachdatensätze (die hasserfüllten Memes, TextVQA, TextCaps und VQA -Herausforderungen). MMF war früher als Pythien bekannt. Das nächste Video zeigt einen Überblick darüber, wie Datensätze und Modelle innerhalb von MMF funktionieren. VUSEOUT MMF -Videoübersicht.
Befolgen Sie die Installationsanweisungen in der Dokumentation.
Erfahren Sie hier mehr über MMF.
Wenn Sie MMF in Ihrer Arbeit verwenden oder Modelle verwenden, die in MMF veröffentlicht wurden, geben Sie bitte an:
@misc { singh2020mmf ,
author = { Singh, Amanpreet and Goswami, Vedanuj and Natarajan, Vivek and Jiang, Yu and Chen, Xinlei and Shah, Meet and
Rohrbach, Marcus and Batra, Dhruv and Parikh, Devi } ,
title = { MMF: A multimodal framework for vision and language research } ,
howpublished = { url{https://github.com/facebookresearch/mmf} } ,
year = { 2020 }
}MMF ist unter der BSD -Lizenz lizenziert, die in der Lizenzdatei verfügbar ist