Il y a eu de nombreuses bonnes nouvelles dans le domaine de l'IA cette semaine. Google et Meta ont respectivement publié des mises à jour majeures. Les performances du modèle Google Gemini ont été considérablement améliorées et le coût a été réduit. Meta Llama 3.2 a ajouté des fonctionnalités visuelles. accrocheur. Dans le même temps, le projet AlphaChip de Google DeepMind a également réalisé des progrès révolutionnaires, accéléré l'efficacité de la conception des puces et créé des modèles associés open source, donnant ainsi une forte impulsion au développement de l'industrie. L'éditeur de Downcodes expliquera en détail ces développements passionnants de l'IA.
L'industrie de l'IA a été très occupée la semaine dernière. Google et Meta lancent de nouvelles versions de modèles d'IA, attirant beaucoup d'attention. Tout d'abord, Google a annoncé mardi une nouvelle mise à jour de sa série Gemini, en lançant deux nouveaux modèles prêts pour la production - Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002.

Cette mise à jour a grandement amélioré la qualité globale du modèle, notamment en mathématiques, en traitement de contexte long et en tâches de vision. Google affirme que lors du test de référence MMLU-Pro, les performances se sont améliorées de 7 % et les performances sur les tâches liées aux mathématiques se sont améliorées de 20 %. Si vous vous souciez de l’IA, sachez que les benchmarks ont une importance limitée, mais ces données restent très intéressantes.
En plus de l'amélioration des performances du modèle, Google a également considérablement réduit le coût d'utilisation de Gemini1.5Pro, les frais de jetons d'entrée et de sortie diminuant respectivement de 64 % et 52 %. Cette décision rend l’utilisation de Gemini plus rentable pour les développeurs.
De plus, après la mise à jour, la vitesse de traitement des requêtes de Gemini-1.5Flash et Pro a également été améliorée. Le premier peut prendre en charge 2 000 requêtes par minute et le second peut prendre en charge 1 000 requêtes par minute. De telles améliorations aideront sans aucun doute les développeurs à créer des applications plus facilement.

Mercredi, Meta n'est pas resté inactif en lançant Llama3.2, une mise à jour majeure de son modèle d'IA à poids ouvert. Cette mise à jour comprend de grands modèles de langage dotés de capacités visuelles, dont la taille de paramètres varie de 1,1 milliard à 9 milliards, et lance également des modèles de texte légers avec 100 millions et 300 millions de paramètres conçus pour les appareils mobiles.
Meta affirme que ces modèles visuels sont comparables aux modèles à source fermée leaders du marché en matière de reconnaissance d'images et de compréhension visuelle. De plus, certains chercheurs en IA ont testé de nouveaux modèles et les résultats montrent que ces petits modèles fonctionnent bien sur de nombreuses tâches de texte.

Ensuite, jeudi, Google DeepMind a officiellement annoncé un projet majeur, AlphaChip. Le projet est basé sur des recherches de 2020 et vise à concevoir des configurations de puces grâce à l'apprentissage par renforcement. Google affirme qu'AlphaChip a atteint des vitesses de « configuration de puces surhumaines » en générant des configurations de puces de haute qualité dans ses trois dernières générations d'unités de traitement tenseur (TPU). être réduit de quelques semaines, voire mois chez l'homme, à quelques heures.
Ce qui mérite d'être mentionné, c'est que Google a également partagé le modèle pré-entraîné d'AlphaChip avec le public sur GitHub afin que d'autres sociétés de conception de puces puissent également utiliser cette technologie, et même des sociétés telles que MediaTek ont commencé à l'adopter.
Souligner:
** Google lance une nouvelle version du modèle Gemini, améliorant les performances globales et réduisant considérablement le prix. **
**Meta lance Llama3.2, un petit modèle de langage qui prend en charge les fonctions visuelles et fonctionne bien. **
** AlphaChip de Google accélère la conception des puces, améliore considérablement l'efficacité de la conception et partage la technologie. **
Dans l’ensemble, les innovations de cette semaine dans le domaine de l’IA sont passionnantes. Ces avancées technologiques favoriseront l’application de l’intelligence artificielle dans davantage de domaines et méritent une attention continue. L'éditeur de Downcodes continuera de vous apporter davantage d'informations technologiques de pointe.