
MLX Omni Server ist ein lokaler Inferenzserver, der vom MLX-Framework von Apple betrieben wird, das speziell für Apple Silicon (M-Serie) Chips entwickelt wurde. Es implementiert OpenAI-kompatible API-Endpunkte und ermöglicht eine nahtlose Integration in vorhandene OpenAI-SDK-Clients und nutzt gleichzeitig die Leistung der lokalen ML-Inferenz.
Der Server implementiert OpenAI-kompatible Endpunkte:
/v1/chat/completions/v1/audio/speech -text-zu speze/v1/audio/transcriptions -Sprache-zu-Text/v1/models - Listenmodelle/v1/models/{model} - Modell abrufen oder löschen/v1/images/generations - Bilderzeugung # Install using pip
pip install mlx-omni-server # If installed via pip as a package
mlx-omni-server Sie können verwenden --port , um einen anderen Port anzugeben, wie z mlx-omni-server --port 10240
Sie können weitere Startparameter ansehen, indem Sie mlx-omni-server --help verwenden.
from openai import OpenAI
# Configure client to use local server
client = OpenAI (
base_url = "http://localhost:10240/v1" , # Point to local server
api_key = "not-needed" # API key is not required for local server
)
# Text-to-Speech Example
response = client . audio . speech . create (
model = "lucasnewman/f5-tts-mlx" ,
input = "Hello, welcome to MLX Omni Server!"
)
# Speech-to-Text Example
audio_file = open ( "speech.mp3" , "rb" )
transcript = client . audio . transcriptions . create (
model = "mlx-community/whisper-large-v3-turbo" ,
file = audio_file
)
# Chat Completion Example
chat_completion = client . chat . completions . create (
model = "meta-llama/Llama-3.2-3B-Instruct" ,
messages = [
{ "role" : "user" , "content" : "What can you do?" }
]
)
# Image Generation Example
image_response = client . images . generate (
model = "argmaxinc/mlx-FLUX.1-schnell" ,
prompt = "A serene landscape with mountains and a lake" ,
n = 1 ,
size = "512x512"
)Sie können weitere Beispiele in Beispielen anzeigen.
Wir begrüßen Beiträge! Wenn Sie an MLX Omni Server beitragen möchten, finden Sie in unserem Entwicklungshandbuch für detaillierte Informationen:
Für wichtige Änderungen öffnen Sie zuerst ein Problem, um zu besprechen, was Sie ändern möchten.
Dieses Projekt ist unter der MIT -Lizenz lizenziert - Einzelheiten finden Sie in der Lizenzdatei.
Dieses Projekt ist nicht mit OpenAI oder Apple verbunden oder unterstützt. Es handelt sich um eine unabhängige Implementierung, die OpenAI-kompatible APIs mit dem MLX-Framework von Apple liefert.