Le Laboratoire d'intelligence artificielle de Shanghai a récemment annoncé que son modèle scientifique auto-développé avait reçu une mise à niveau majeure et avait lancé une nouvelle version de Scholar Puyu 3.0 (InternLM3). Cette version a réalisé des avancées significatives en termes d'efficacité d'utilisation des données et de performances du modèle, atteignant des performances plus élevées à moindre coût, et intégrant pour la première fois un dialogue régulier et des capacités de réflexion approfondies, améliorant considérablement les performances du modèle dans des scénarios d'application réels. Cette mise à niveau constitue non seulement une avancée technologique, mais reflète également la détermination et la force de la Chine à continuer d’innover dans le domaine de l’intelligence artificielle.
Le laboratoire d'intelligence artificielle de Shanghai a annoncé que son modèle scientifique avait reçu une mise à niveau importante et a lancé Scholar Puyu 3.0 (InternLM3). Selon le laboratoire, la nouvelle version a considérablement amélioré l'efficacité de l'utilisation des données grâce à un cadre de données affiné, permettant ainsi d'augmenter la densité de réflexion.

Le modèle InternLM3-8B-Instruct mis à niveau n'utilise que 4T de données pour la formation. Les responsables affirment que ses performances globales dépassent celles des modèles open source de même taille et que les coûts de formation sont réduits de plus de 75 %. Il convient de noter que cette version parvient pour la première fois à intégrer un dialogue régulier et des capacités de réflexion approfondies dans un modèle général, et peut mieux faire face à divers scénarios d'utilisation réels.
En termes d'évaluation du modèle, l'équipe de recherche a adopté une méthode d'évaluation unifiée et reproductible basée sur le cadre d'évaluation open source Sinan OpenCompass. Le contenu de l'évaluation implique plus de dix ensembles d'évaluation faisant autorité tels que CMMLU et GPQA, couvrant plusieurs dimensions telles que le raisonnement, les mathématiques, la programmation, le suivi des instructions, la génération de textes longs, le dialogue et la performance globale. Les résultats de l'évaluation montrent que Shusheng Puyu 3.0 est en tête dans la plupart des ensembles d'évaluation et que ses performances globales sont très proches de GPT-4o-mini.
Le Shanghai AI Laboratory a également déclaré que cette nouvelle version du modèle est devenue le premier modèle de dialogue universel dans la communauté open source à prendre en charge l'utilisation du navigateur et peut prendre en charge les sauts de page Web de plus de 20 étapes, permettant ainsi l'exploration de données en profondeur. information.
Page d'expérience : https://internlm-chat.intern-ai.org.cn.
Souligner:
Le modèle Shusheng Puyu 3.0 est formé avec des données 4T et ses performances globales dépassent celles des modèles open source de même échelle, permettant d'économiser plus de 75 % des coûts de formation.
Le modèle obtient des scores supérieurs dans plusieurs ensembles d'évaluations faisant autorité, et l'intégration des capacités de réflexion et de dialogue a été considérablement améliorée.
Le nouveau modèle prend en charge l'utilisation du navigateur et peut effectuer une exploration approfondie des informations, devenant ainsi l'un des points forts de la communauté open source.
Dans l'ensemble, la mise à niveau de Shusheng Puyu 3.0 démontre les progrès significatifs de la Chine dans le domaine des modèles linguistiques à grande échelle. Ses méthodes de formation efficaces et ses performances puissantes devraient promouvoir l'application de la technologie de l'intelligence artificielle dans davantage de domaines, et cela vaut la peine d'être examiné. avec impatience son développement futur.