Google bringt eine neue, verbesserte Version der Modellreihe Gemini 1.5 auf den Markt: Gemini-1.5-Pro-002 und Gemini-1.5-Flash-002 geben ein schockierendes Debüt! Der Herausgeber von Downcodes erfuhr, dass dieses Update nicht nur eine deutliche Leistungssteigerung, sondern auch eine deutliche Preissenkung mit sich bringt, was als große gute Nachricht im Bereich der KI-Entwicklung bezeichnet werden kann. Die Leistungssteigerung ist erstaunlich und die Kosten werden um mehr als die Hälfte reduziert, was zweifellos für Entwickler und Unternehmensanwender sehr attraktiv ist. Werfen wir einen Blick auf die aufregenden Verbesserungen, die dieses Update mit sich bringt.
Google hat heute die Einführung einer neuen, verbesserten Gemini-Modellreihe angekündigt, darunter Gemini-1.5-Pro-002 und Gemini-1.5-Flash-002. Dieses Update verbessert nicht nur die Leistung erheblich, sondern bringt auch überraschende Preisnachlässe mit sich, die zweifellos einen Boom im KI-Entwicklungskreis auslösen werden.
Das Auffälligste ist zunächst einmal die deutliche Preissenkung. Die Kosten für die Nutzung der neuen Version des Modells wurden um mehr als 50 % halbiert. Gleichzeitig wurde die Leistung deutlich verbessert. Die Verarbeitungsgeschwindigkeit von Gemini1.5Flash wird verdoppelt, während die von Gemini1.5Pro fast verdreifacht wird. Dies bedeutet, dass Entwickler eine schnellere Ausgabe und kürzere Latenzzeiten zu geringeren Kosten erzielen können, was die Entwicklungseffizienz erheblich verbessert.

Leistungstechnisch zeigt das neue Gemini-Modell umfassende Verbesserungen. Gerade in den Bereichen Mathematik, Langtextverarbeitung und visuelle Aufgaben sind die Fortschritte besonders deutlich. Beispielsweise können Modelle jetzt problemlos PDF-Dokumente mit mehr als 1.000 Seiten verarbeiten, Fragen mit Zehntausenden Codezeilen beantworten und sogar nützliche Informationen aus einem einstündigen Video extrahieren. Beim anspruchsvollen Benchmark-Test MMLU-Pro erreicht das neue Modell eine Leistungssteigerung von ca. 7 %. Noch beeindruckender ist, dass bei den MATH- und HiddenMath-Benchmarks die Verbesserung bis zu 20 % beträgt.

Google hat außerdem die Antwortqualität des Modells optimiert. Die neue Version bietet hilfreichere und prägnantere Antworten und schützt gleichzeitig den Inhalt. Bei Aufgaben wie Zusammenfassung, Frage und Antwort sowie Informationsextraktion wird die Ausgabelänge im Vergleich zu früher um 5 bis 20 % verkürzt, was nicht nur die Effizienz verbessert, sondern auch die Nutzungskosten weiter senkt.
Für Unternehmensanwender eröffnen die Langtextverarbeitungsfunktionen (bis zu 2 Millionen Wörter) und multimodalen Funktionen von Gemini1.5Pro neue Anwendungsszenarien. Ab dem 1. Oktober 2024 werden die Preise für Eingabe-Token, Ausgabe-Token und inkrementelle Cache-Token um 64 %, 52 % bzw. 64 % gesenkt, was zweifellos die Kosten für den Einsatz von KI für Unternehmen erheblich senken wird.

Auch bei den Nutzungsbeschränkungen hat Google deutliche Anpassungen vorgenommen. Das Ratenlimit für kostenpflichtige Dienste von Gemini1.5Flash wird auf 2.000 Anfragen pro Minute erhöht, und 1.5Pro wird auf 1.000 Anfragen erhöht, was Entwicklern mehr Flexibilität bietet.
Sicherheit war schon immer ein zentraler Schwerpunkt von Google. Die neue Version des Modells erhöht die Sicherheit bei der Befolgung der Benutzeranweisungen weiter. Google hat außerdem die Standardeinstellungen für Filter angepasst, um Entwicklern mehr Autonomie zu geben.
Darüber hinaus hat Google auch eine verbesserte Version des experimentellen Modells Gemini1.5Flash-8B auf den Markt gebracht, das in Text- und multimodalen Anwendungsszenarien eine gute Leistung erbringt. Diese Version wurde auf Google AI Studio und Gemini API veröffentlicht und bietet Entwicklern mehr Auswahlmöglichkeiten.
Gemini Advanced-Benutzer können bald die für den Chat optimierte Version Gemini1.5Pro-002 erleben.
Referenz: https://developers.googleblog.com/en/updated-produktion-ready-gemini-models-reduced-15-pro-pricing-increased-rate-limits-and-more/
Alles in allem hat das Upgrade der Gemini 1.5-Modellreihe enorme Vorteile für KI-Entwickler und Unternehmen gebracht. Niedrigere Kosten, höhere Geschwindigkeiten, eine höhere Leistung und ein komfortableres Nutzungserlebnis weisen auf die Zukunft von KI-Anwendungen hin. Der Herausgeber von Downcodes freut sich darauf, die wunderbaren Anwendungen der Gemini 1.5-Serie in verschiedenen Bereichen zu sehen!