Google lance une nouvelle version améliorée de la série de modèles Gemini 1.5, Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002 font des débuts choquants ! L'éditeur de Downcodes a appris que cette mise à jour apporte non seulement une amélioration significative des performances, mais également une réduction de prix significative, ce qui peut être décrit comme une bonne nouvelle majeure dans le domaine du développement de l'IA. L'amélioration des performances est étonnante et le coût est réduit de plus de moitié, ce qui est sans aucun doute très attractif pour les développeurs et les utilisateurs d'entreprise. Jetons un coup d'œil aux améliorations intéressantes apportées par cette mise à jour.
Google a annoncé aujourd'hui le lancement d'une nouvelle série de modèles Gemini améliorés, comprenant Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002. Cette mise à jour améliore non seulement considérablement les performances, mais apporte également des réductions de prix surprenantes, qui déclencheront sans aucun doute un boom dans le cercle du développement de l'IA.
Tout d’abord, ce qui frappe le plus, c’est la réduction significative des prix. Le coût d'utilisation de la nouvelle version du modèle a été réduit de moitié, de plus de 50 %. Dans le même temps, les performances ont été considérablement améliorées. La vitesse de traitement de Gemini1.5Flash est doublée, tandis que celle de Gemini1.5Pro est presque triplée. Cela signifie que les développeurs peuvent obtenir des résultats plus rapides et une latence plus courte à moindre coût, améliorant ainsi considérablement l'efficacité du développement.

En termes de performances, le nouveau modèle Gemini présente des améliorations globales. Les progrès sont particulièrement évidents en mathématiques, en traitement de textes longs et en tâches visuelles. Par exemple, les modèles peuvent désormais traiter facilement des documents PDF de plus de 1 000 pages, répondre à des questions contenant des dizaines de milliers de lignes de code et même extraire des informations utiles d'une vidéo d'une heure. Lors du test de référence exigeant MMLU-Pro, le nouveau modèle atteint une amélioration des performances d'environ 7 %. Ce qui est encore plus impressionnant, c'est que dans les benchmarks MATH et HiddenMath, l'amélioration atteint 20 %.

Google a également optimisé la qualité de réponse du modèle. La nouvelle version fournit des réponses plus utiles et concises tout en préservant la sécurité du contenu. Dans des tâches telles que la synthèse, les questions et réponses et l'extraction d'informations, la longueur de sortie est raccourcie de 5 à 20 % par rapport à avant, ce qui non seulement améliore l'efficacité mais réduit également davantage les coûts d'utilisation.
Pour les utilisateurs professionnels, les capacités de traitement de texte long (jusqu'à 2 millions de mots) et les capacités multimodales de Gemini1.5Pro ouvrent de nouveaux scénarios d'application. À partir du 1er octobre 2024, les prix des jetons d'entrée, des jetons de sortie et des jetons de cache incrémentiels seront réduits respectivement de 64 %, 52 % et 64 %, ce qui réduira sans aucun doute considérablement le coût d'utilisation de l'IA pour les entreprises.

Google a également apporté des ajustements importants en matière de restrictions d'utilisation. La limite de débit du service payant de Gemini1.5Flash est augmentée à 2 000 requêtes par minute, et celle de 1.5Pro est augmentée à 1 000 requêtes, ce qui offre aux développeurs une plus grande flexibilité.
La sécurité a toujours été un domaine clé pour Google. La nouvelle version du modèle améliore encore la sécurité tout en suivant les instructions de l'utilisateur. Google a également modifié les paramètres par défaut des filtres pour donner plus d'autonomie aux développeurs.
En outre, Google a également lancé une version améliorée du modèle expérimental Gemini1.5Flash-8B, qui fonctionne bien dans les scénarios d'application texte et multimodaux. Cette version a été publiée sur Google AI Studio et l'API Gemini, offrant aux développeurs plus de choix.
Pour les utilisateurs de Gemini Advanced, ils pourront bientôt découvrir la version Gemini1.5Pro-002 optimisée pour le chat.
Référence : https://developers.googleblog.com/en/updated-production-ready-gemini-models-reduced-15-pro-pricing-increasing-rate-limits-and-more/
Dans l'ensemble, la mise à niveau de la série de modèles Gemini 1.5 a apporté d'énormes avantages aux développeurs d'IA et aux entreprises. Des coûts réduits, des vitesses plus rapides, des performances plus puissantes et une expérience d'utilisation plus pratique indiquent l'avenir des applications d'IA. L'éditeur de Downcodes a hâte de voir les merveilleuses applications de la série Gemini 1.5 dans divers domaines !