mlx omni server
v0.2.1

MLX OMNI 서버는 Apple의 MLX 프레임 워크로 구동되는 로컬 추론 서버로, Apple Silicon (M-Series) 칩을 위해 특별히 설계되었습니다. OpenAI 호환 API 엔드 포인트를 구현하여 기존 OpenAI SDK 클라이언트와의 원활한 통합을 가능하게하면서 로컬 ML 추론의 전력을 활용합니다.
서버는 OpenAi 호환 엔드 포인트를 구현합니다.
/v1/chat/completions/v1/audio/speech -텍스트 음성/v1/audio/transcriptions -음성-텍스트/v1/models - 목록 모델/v1/models/{model} - 검색 또는 삭제 모델/v1/images/generations - 이미지 생성 # Install using pip
pip install mlx-omni-server # If installed via pip as a package
mlx-omni-server mlx-omni-server --port 10240 , 기본 포트는 10240과 같은 다른 --port 를 지정하는 데 사용할 수 있습니다.
mlx-omni-server --help 사용하여 더 많은 시작 매개 변수를 볼 수 있습니다.
from openai import OpenAI
# Configure client to use local server
client = OpenAI (
base_url = "http://localhost:10240/v1" , # Point to local server
api_key = "not-needed" # API key is not required for local server
)
# Text-to-Speech Example
response = client . audio . speech . create (
model = "lucasnewman/f5-tts-mlx" ,
input = "Hello, welcome to MLX Omni Server!"
)
# Speech-to-Text Example
audio_file = open ( "speech.mp3" , "rb" )
transcript = client . audio . transcriptions . create (
model = "mlx-community/whisper-large-v3-turbo" ,
file = audio_file
)
# Chat Completion Example
chat_completion = client . chat . completions . create (
model = "meta-llama/Llama-3.2-3B-Instruct" ,
messages = [
{ "role" : "user" , "content" : "What can you do?" }
]
)
# Image Generation Example
image_response = client . images . generate (
model = "argmaxinc/mlx-FLUX.1-schnell" ,
prompt = "A serene landscape with mountains and a lake" ,
n = 1 ,
size = "512x512"
)예제에서 더 많은 예를 볼 수 있습니다.
우리는 기여를 환영합니다! MLX OMNI 서버에 기여하는 데 관심이 있으시면 다음에 대한 자세한 정보는 개발 안내서를 확인하십시오.
주요 변경 사항을 위해 먼저 문제를 열어 변경하고 싶은 것을 논의하십시오.
이 프로젝트는 MIT 라이센스에 따라 라이센스가 부여됩니다. 자세한 내용은 라이센스 파일을 참조하십시오.
이 프로젝트는 OpenAI 또는 Apple과 제휴하거나 승인되지 않습니다. Apple의 MLX 프레임 워크를 사용하여 OpenAi 호환 API를 제공하는 독립적 인 구현입니다.