mlx omni server
v0.2.1

MLX OMNI服务器是由Apple的MLX Framework提供动力的本地推理服务器,该框架专为Apple Silicon(M系列)芯片而设计。它实现了与OpenAI兼容的API端点,从而使现有的OpenAI SDK客户端无缝集成,同时利用本地ML推理的功能。
该服务器实现OpenAI兼容的端点:
/v1/chat/completions/v1/audio/speech - 文本到语音/v1/audio/transcriptions - 语音到文本/v1/models - 列表模型/v1/models/{model} - 检索或删除模型/v1/images/generations图像生成 # Install using pip
pip install mlx-omni-server # If installed via pip as a package
mlx-omni-server您可以使用--port指定其他端口,例如: mlx-omni-server --port 10240 ,默认端口为10240。
您可以使用mlx-omni-server --help查看更多启动参数。
from openai import OpenAI
# Configure client to use local server
client = OpenAI (
base_url = "http://localhost:10240/v1" , # Point to local server
api_key = "not-needed" # API key is not required for local server
)
# Text-to-Speech Example
response = client . audio . speech . create (
model = "lucasnewman/f5-tts-mlx" ,
input = "Hello, welcome to MLX Omni Server!"
)
# Speech-to-Text Example
audio_file = open ( "speech.mp3" , "rb" )
transcript = client . audio . transcriptions . create (
model = "mlx-community/whisper-large-v3-turbo" ,
file = audio_file
)
# Chat Completion Example
chat_completion = client . chat . completions . create (
model = "meta-llama/Llama-3.2-3B-Instruct" ,
messages = [
{ "role" : "user" , "content" : "What can you do?" }
]
)
# Image Generation Example
image_response = client . images . generate (
model = "argmaxinc/mlx-FLUX.1-schnell" ,
prompt = "A serene landscape with mountains and a lake" ,
n = 1 ,
size = "512x512"
)您可以在示例中查看更多示例。
我们欢迎捐款!如果您有兴趣为MLX OMNI服务器做出贡献,请查看我们的开发指南以获取有关以下信息的详细信息。
对于重大更改,请先开设一个问题,以讨论您想更改的内容。
该项目是根据MIT许可证获得许可的 - 有关详细信息,请参见许可证文件。
该项目不隶属于Openai或Apple。这是一个独立的实现,可使用Apple的MLX框架提供与OpenAI兼容的API。