mlx omni server
v0.2.1

MLX OMNIサーバーは、AppleのMLXフレームワークを搭載したローカル推論サーバーで、Appleシリコン(Mシリーズ)チップ向けに特別に設計されています。 OpenAI互換のAPIエンドポイントを実装し、ローカルML推論のパワーを活用しながら、既存のOpenAI SDKクライアントとのシームレスな統合を可能にします。
サーバーは、OpenAI互換のエンドポイントを実装しています。
/v1/chat/completions/v1/audio/speechテキストからスピーチ/v1/audio/transcriptions音声からテキスト/v1/models - モデルをリストします/v1/models/{model} - モデルを取得または削除します/v1/images/generations - 画像生成 # Install using pip
pip install mlx-omni-server # If installed via pip as a package
mlx-omni-server --portを使用して、次のような異なるポートを指定できます。MLX mlx-omni-server --port 10240 、デフォルトポートは10240です。
mlx-omni-server --helpを使用して、より多くのスタートアップパラメーターを表示できます。
from openai import OpenAI
# Configure client to use local server
client = OpenAI (
base_url = "http://localhost:10240/v1" , # Point to local server
api_key = "not-needed" # API key is not required for local server
)
# Text-to-Speech Example
response = client . audio . speech . create (
model = "lucasnewman/f5-tts-mlx" ,
input = "Hello, welcome to MLX Omni Server!"
)
# Speech-to-Text Example
audio_file = open ( "speech.mp3" , "rb" )
transcript = client . audio . transcriptions . create (
model = "mlx-community/whisper-large-v3-turbo" ,
file = audio_file
)
# Chat Completion Example
chat_completion = client . chat . completions . create (
model = "meta-llama/Llama-3.2-3B-Instruct" ,
messages = [
{ "role" : "user" , "content" : "What can you do?" }
]
)
# Image Generation Example
image_response = client . images . generate (
model = "argmaxinc/mlx-FLUX.1-schnell" ,
prompt = "A serene landscape with mountains and a lake" ,
n = 1 ,
size = "512x512"
)より多くの例を例で見ることができます。
貢献を歓迎します! MLX Omni Serverに貢献することに興味がある場合は、以下の詳細については、開発ガイドをご覧ください。
大きな変更については、最初に問題を開いて、何を変えたいかを議論してください。
このプロジェクトは、MITライセンスに基づいてライセンスされています。詳細については、ライセンスファイルを参照してください。
このプロジェクトは、OpenaiまたはAppleと提携していない、または承認されていません。これは、AppleのMLXフレームワークを使用してOpenAI互換APIを提供する独立した実装です。