# VLLM项目 ## 项目启动 bash run_model_predict.sh bash run_api.sh ## 调用示例 "http://192.168.31.74:12000/predict" { "texts": "你好" } ## 返回示例 ## 请求参数