Google hat kürzlich einen neuen Endpunkt für die Gemini -API veröffentlicht, um den Migrationsprozess von OpenAI -Lösungen bis nach Gemini zu vereinfachen. Dieser Schritt soll Entwicklern eine bequemere Möglichkeit bieten, die Kraft von Gemini zu nutzen. Der neue Endpunkt befindet sich derzeit in der Beta und unterstützt nur einige Funktionen der OpenAI -API, wie z. B. Chat -Abschluss und APIs, und bietet Beispielcode für die Verwendung des Gemini -Modells über REST -Anrufe oder das offizielle OpenAI -SDK. Dies bietet Entwicklern neue Optionen, um zwischen verschiedenen großsprachigen Modellen zu wechseln und Branchendiskussionen über die zukünftige API -Standardisierung auszulösen.
Google kündigte kürzlich die Einführung seines neuen Endpunkts für seine Gemini -API an, um Entwicklern zu helfen, die bereits leichter zu Gemini zu einem OpenAI -Lösungen wechseln. Dieser neue Endpunkt befindet sich noch in der Beta und bietet nur einige OpenAI -Funktionen.

Laut Google kann dieser neue Endpunkt den Endpunkt von OpenAI durch einen direkten Rastanruf oder ein OpenAI -offizielles SDK ersetzen. Wenn Sie beispielsweise ein Programm mit dem OpenAI SDK (z. B. Python) geschrieben haben, können Sie die Initialisierung mithilfe des Google -Modells durch den folgenden Code ändern:
von Openai Import Openai
client = openai (
api_key = "gemini_api_key",
Base_url = "https://generatelanguage.googleapis.com/v1beta/openai/"
)
Im Code muss der Entwickler einen Gemini -API -Schlüssel bereitstellen, der direkt in den Code geschrieben oder die Umgebungsvariable openai_api_key weitergegeben werden kann. Um Text zu generieren, können Sie die unten gezeigte Chat -API -API verwenden und den Namen des Gemini -Modells angeben, das Sie verwenden möchten:
response = client.chat.completions.create (
Modell = "Gemini-1.5-Flash",
n = 1,
Nachrichten = [
{"Rolle": "System", "Inhalt": "Sie sind ein hilfreicher Assistent."},
{
"Rolle": "Benutzer",
"Inhalt": "Erklären Sie mir, wie KI funktioniert"
}
]
)
print (Antwort.Choices [0] .Message)
Darüber hinaus unterstützt der neue Gemini -Endpunkt die eingebettete API von OpenAI, um Korrelationen zwischen Textzeichenfolgen zu messen. Kurz gesagt, der Einbett -API -Text bildet Text in Vektoren von schwimmenden Punktnummern, mit denen Entwickler nach spezifischen Werten, Clustertext suchen, Ausnahmen erkennen und Empfehlungen liefern können. Das folgende Code -Snippet zeigt, wie diese Funktion in Gemini verwendet wird:
response = client.embeddings.create (
input = "Ihre Textzeichenfolge ist hier",
model = "text-embedding-004"
)
print (Antwort.Data [0] .embeding)
Derzeit sind die API und die API der Chat Completion -API die einzigen OpenAI -Funktionen, die über den neuen OpenAI -Endpunkt für das Gemini -Modell verwendet werden können. Darüber hinaus ist die Unterstützung für das Bild -Upload und die strukturierte Ausgabe auf begrenzte Funktionen begrenzt. Google sagte, es plant, mehr OpenAI -Funktionen hinzuzufügen, damit Entwickler Gemini als Alternative zu OpenAI verwenden können, aber der spezifische Zeitrahmen ist noch nicht klar.
In Reddit -Diskussion lobten die Kommentatoren den Umzug von Google und waren der Ansicht, dass er OpenAI -API -Benutzer eine Lösung für die Fluchtverriegelung bietet, obwohl Entfernungen eine Standard -API implementieren, um die einfache Umstellung zwischen verschiedenen Modellanbietern zu erleichtern.
Als allgemeinerer Ansatz soll das VLLM-Projekt eine Vielzahl von Generationen- und Einbettungsmodellen unterstützen und einen OpenAI-kompatiblen Server bereitstellen. Mit VLLM können Entwickler Mistral, Lama, Llava und viele andere wichtige Modelle verwenden, die derzeit verfügbar sind.
Offizielle Einführung
Schlüsselpunkte:
Google startet neue Endpunkte für die Gemini -API, damit Entwickler leichter zu Gemini wechseln können.
Der neue Endpunkt unterstützt OpenAs Chat -Abschluss und Einbettung von API, aber seine Funktionalität ist noch nicht vollständig.
Das VLLM -Projekt unterstützt mehrere Modelle zur Verbesserung der API -Flexibilität.
Kurz gesagt, der Start der neuen Endpunkte von Google bietet Entwicklern flexiblere Optionen, aber seine Funktionen befinden sich immer noch in der Phase der Verbesserung, und die zukünftige Entwicklung ist es wert, sich darauf zu freuen. Projekte wie VLLM bieten Entwicklern, die eine umfassendere Modellunterstützung suchen, eine weitere Möglichkeit, die nachhaltige Entwicklung des großen Sprachmodell -Ökosystems zu fördern.