# VLLM项目
## 项目启动
bash run_model_predict.sh
bash run_api.sh
## 调用示例
"http://192.168.31.74:12000/predict"
{
"texts": "你好"
}
## 返回示例
## 请求参数