如何用Python部署机器学习模型_API推理部署完整步骤【指导】

admin 百科 12
Python部署机器学习模型为API服务的核心是:封装模型为可调用接口、选用FastAPI等轻量Web框架、通过Docker容器化或直接运行;需持久化保存模型(如joblib、torch.save、saved_model)、编写带类型提示的推理接口、用uvicorn启动并测试,生产环境可结合gunicorn、Nginx和requirements.txt保障稳定。

如何用Python部署机器学习模型_API推理部署完整步骤【指导】-第1张图片-佛山资讯网

用Python把训练好的机器学习模型部署成API服务,核心是:封装模型为可调用接口 + 选择轻量Web框架 + 容器化或直接运行。不需复杂运维,本地测试、生产上线都能快速落地。

1. 模型保存与加载(确保可复用)

训练完模型后,别只留 notebook。必须持久化为文件,方便后续加载。

  • sklearn 模型推荐用 joblib(比 pickle 更高效,尤其对 numpy 数组友好):
    joblib.dump(model, "model.pkl") → 加载:model = joblib.load("model.pkl")
  • PyTorch 模型保存结构+参数:
    torch.save({"state_dict": model.state_dict(), "config": config}, "model.pth")
  • TensorFlow/Keras 推荐 saved_model 格式(跨平台兼容性好):
    model.save("saved_model_dir")

2. 编写 Flask/FastAPI 推理接口(选一个,推荐 FastAPI)

FastAPI 性能高、自带文档、类型提示友好;Flask 更简单适合入门。以下以 FastAPI 为例:

  • 安装:pip install fastapi uvicorn
  • 新建 app.py,加载模型 + 定义 POST 接口:

from fastapi import FastAPI
import joblib
import numpy as np

app = FastAPI()
model = joblib.load("model.pkl") # 启动时加载一次

@app.post("/predict")
def predict(data: dict):
    # 假设输入是 {"features": [1.2, 3.4, 0.8]}
    X = np.array([data["features"]])
    pred = model.predict(X).tolist()
    return {"prediction": pred}

3. 启动服务 & 测试 API

终端运行:uvicorn app:app --reload --host 0.0.0.0:8000

标签: python js json docker nginx app curl pytorch red

发布评论 0条评论)

还木有评论哦,快来抢沙发吧~