
MLX OMNI Server est un serveur d'inférence local alimenté par le framework MLX d'Apple, spécialement conçu pour les puces Apple Silicon (M-Series). Il met en œuvre des points de terminaison API compatibles OpenAI, permettant une intégration transparente avec les clients SDK OpenAI existants tout en tirant parti de la puissance de l'inférence ML locale.
Le serveur implémente les points de terminaison compatibles OpenAI:
/v1/chat/completions/v1/audio/speech - Text-to-Speech/v1/audio/transcriptions - Speech-to-Text/v1/models - Modèles de liste/v1/models/{model} - Récupérer ou supprimer le modèle/v1/images/generations - génération d'images # Install using pip
pip install mlx-omni-server # If installed via pip as a package
mlx-omni-server Vous pouvez utiliser --port pour spécifier un port différent, tel que: mlx-omni-server --port 10240 , le port par défaut est 10240.
Vous pouvez afficher plus de paramètres de démarrage en utilisant mlx-omni-server --help .
from openai import OpenAI
# Configure client to use local server
client = OpenAI (
base_url = "http://localhost:10240/v1" , # Point to local server
api_key = "not-needed" # API key is not required for local server
)
# Text-to-Speech Example
response = client . audio . speech . create (
model = "lucasnewman/f5-tts-mlx" ,
input = "Hello, welcome to MLX Omni Server!"
)
# Speech-to-Text Example
audio_file = open ( "speech.mp3" , "rb" )
transcript = client . audio . transcriptions . create (
model = "mlx-community/whisper-large-v3-turbo" ,
file = audio_file
)
# Chat Completion Example
chat_completion = client . chat . completions . create (
model = "meta-llama/Llama-3.2-3B-Instruct" ,
messages = [
{ "role" : "user" , "content" : "What can you do?" }
]
)
# Image Generation Example
image_response = client . images . generate (
model = "argmaxinc/mlx-FLUX.1-schnell" ,
prompt = "A serene landscape with mountains and a lake" ,
n = 1 ,
size = "512x512"
)Vous pouvez voir plus d'exemples dans des exemples.
Nous accueillons les contributions! Si vous souhaitez contribuer au serveur MLX Omni, veuillez consulter notre guide de développement pour des informations détaillées sur:
Pour les changements majeurs, veuillez d'abord ouvrir un problème pour discuter de ce que vous souhaitez changer.
Ce projet est autorisé en vertu de la licence MIT - voir le fichier de licence pour plus de détails.
Ce projet n'est pas affilié ou approuvé par Openai ou Apple. Il s'agit d'une implémentation indépendante qui fournit des API compatibles OpenAI à l'aide du cadre MLX d'Apple.