O Google lançou recentemente um novo endpoint para a API Gemini, com o objetivo de simplificar o processo de migração da OpenAI Solutions para Gemini. Esta mudança foi projetada para fornecer aos desenvolvedores uma maneira mais conveniente de aproveitar o poder de Gêmeos. O novo endpoint está atualmente no beta e suporta apenas alguns recursos da API do OpenAI, como conclusão de bate -papo e APIs de incorporação, e fornece código de amostra para usar o modelo Gemini através de chamadas de repouso ou o SDK oficial do OpenAI. Isso fornece novas opções para os desenvolvedores alternarem entre diferentes modelos de idiomas grandes e desencadeia discussões do setor sobre a padronização futura da API.
O Google anunciou recentemente o lançamento de seu novo endpoint para sua API de Gemini, com o objetivo de ajudar os desenvolvedores que já adotam o OpenAI Solutions a mudar para Gemini com mais facilidade. Este novo endpoint ainda está no beta e fornece suporte apenas a alguns recursos do OpenAI.

Segundo o Google, este novo endpoint pode substituir o terminal do OpenAI por uma chamada de descanso direta ou SDK oficial do OpenAI. Por exemplo, se você tiver um programa escrito usando o SDK OpenAI (como Python), poderá alterar a inicialização através do código a seguir, usando o modelo do Google:
do OpenAi importar openai
Cliente = OpenAI (
api_key = "gemini_api_key",
base_url = "https://generatrinedanguage.googleapis.com/v1beta/openai/"
)
No código, o desenvolvedor precisa fornecer uma chave de API Gemini, que pode ser gravada diretamente no código ou passada pela variável de ambiente OpenAI_API_KEY. Para gerar texto, você pode usar a API de conclusão de bate -papo, como mostrado abaixo, especificando o nome do modelo Gemini que deseja usar:
resposta = client.chat.completions.create (
Model = "Gemini-1.5-Flash",
n = 1,
mensagens = [
{"Role": "System", "Content": "Você é um assistente útil."},
{
"função": "usuário",
"Conteúdo": "Me explique como a IA funciona"
}
]
)
Imprimir (Response.Choices [0] .Message)
Além disso, o novo terminal Gemini suporta a API incorporada do OpenAI para medir as correlações entre as seqüências de texto. Em resumo, a API incorporada mapeia o texto em vetores de números de pontos flutuantes, que os desenvolvedores podem usar para pesquisar valores específicos, texto de cluster, detectar exceções e fornecer recomendações. O snippet de código a seguir mostra como usar esse recurso em Gemini:
resposta = client.embeddings.create (
input = "sua sequência de texto está aqui",
Model = "Text-Embedding-004"
)
impressão (Response.data [0] .embedding)
Atualmente, a API de conclusão do bate -papo e a API incorporada são os únicos recursos do OpenAI que podem ser usados no modelo Gemini através do novo terminal do OpenAI. Além disso, o suporte para upload de imagem e saída estruturada é limitado a funcionalidade limitada. O Google disse que planeja adicionar mais recursos do OpenAI para que os desenvolvedores possam usar Gemini como uma alternativa ao OpenAI, mas o período específico ainda não está claro.
Na discussão do Reddit, os comentaristas elogiaram o movimento do Google, acreditando que ele fornece aos usuários da API o OpenAI uma solução para escapar do bloqueio, embora as distâncias implementem uma API padrão para facilitar a alternância fácil entre diferentes provedores de modelos, ainda há um longo caminho a percorrer.
Como uma abordagem mais geral, o projeto VLLM foi projetado para suportar uma variedade de modelos de geração e incorporação e fornecer um servidor compatível com o OpenAI. Com a VLLM, os desenvolvedores podem usar Mistral, Llama, Llava e muitos outros modelos principais atualmente disponíveis.
Introdução oficial: https://developers.googleblog.com/en/gemini-is-now-acessible-from-the-openai-library/
Pontos -chave:
O Google lança novos pontos de extremidade para a API Gemini para ajudar os desenvolvedores a mudar para Gemini com mais facilidade.
O novo endpoint suporta a conclusão e incorporação da API de bate -papo do OpenAI, mas sua funcionalidade ainda não está completa.
O projeto VLLM fornece suporte para vários modelos para melhorar a flexibilidade da API.
Em suma, o lançamento dos novos terminais do Google fornece aos desenvolvedores opções mais flexíveis, mas suas funções ainda estão no estágio de melhoria, e vale a pena esperar um desenvolvimento futuro. Projetos como a VLLM fornecem outra maneira para os desenvolvedores que buscam suporte mais amplo de modelo, promovendo o desenvolvimento sustentável do ecossistema de grandes modelos de idiomas.