Python部署机器学习模型为API服务的核心是:封装模型为可调用接口、选用FastAPI等轻量Web框架、通过Docker容器化或直接运行;需持久化保存模型(如joblib、torch.save、saved_model)、编写带类型提示的推理接口、用uvicorn启动并测试,生产环境可结合gunicorn、Nginx和requirements.txt保障稳定。

用Python把训练好的机器学习模型部署成API服务,核心是:封装模型为可调用接口 + 选择轻量Web框架 + 容器化或直接运行。不需复杂运维,本地测试、生产上线都能快速落地。
1. 模型保存与加载(确保可复用)
训练完模型后,别只留 notebook。必须持久化为文件,方便后续加载。
- sklearn 模型推荐用 joblib(比 pickle 更高效,尤其对 numpy 数组友好):
joblib.dump(model, "model.pkl") → 加载:model = joblib.load("model.pkl") - PyTorch 模型保存结构+参数:
torch.save({"state_dict": model.state_dict(), "config": config}, "model.pth") - TensorFlow/Keras 推荐 saved_model 格式(跨平台兼容性好):
model.save("saved_model_dir")
2. 编写 Flask/FastAPI 推理接口(选一个,推荐 FastAPI)
FastAPI 性能高、自带文档、类型提示友好;Flask 更简单适合入门。以下以 FastAPI 为例:
- 安装:pip install fastapi uvicorn
- 新建 app.py,加载模型 + 定义 POST 接口:
from fastapi import FastAPI
import joblib
import numpy as np
app = FastAPI()
model = joblib.load("model.pkl") # 启动时加载一次
@app.post("/predict")
def predict(data: dict):
# 假设输入是 {"features": [1.2, 3.4, 0.8]}
X = np.array([data["features"]])
pred = model.predict(X).tolist()
return {"prediction": pred}
3. 启动服务 & 测试 API
终端运行:uvicorn app:app --reload --host 0.0.0.0:8000
标签: python js json docker nginx app curl pytorch red
还木有评论哦,快来抢沙发吧~