使用vllm部署
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 
majiahui@haimaqingfan.com e39975bcf8 chatgpt服务使用vllm方式预测 2 years ago
.idea 第一次提交 2 years ago
README.md chatgpt服务使用vllm方式预测 2 years ago
articles_directory_predict.py 增加目录请求 2 years ago
config_llama_api.py 第一次提交 2 years ago
flask_batch.py 增加目录请求 2 years ago
flask_predict.py chatgpt服务使用vllm方式预测 2 years ago
flask_test.py 增加目录请求 2 years ago
gen_paper.py 第一次提交 2 years ago
gunicorn_config.py chatgpt服务使用vllm方式预测 2 years ago
img.png 补充readme 2 years ago
img_1.png 补充readme 2 years ago
mistral_model_predict_vllm.py chatgpt服务使用vllm方式预测 2 years ago
predict.py 增加目录请求 2 years ago
run_api.sh chatgpt服务使用vllm方式预测 2 years ago
run_model_predict.sh chatgpt服务使用vllm方式预测 2 years ago
tokenizer.py 第一次提交 2 years ago
vllm_predict_batch.py 增加目录请求 2 years ago
yace.py chatgpt服务使用vllm方式预测 2 years ago
yace2.py chatgpt服务使用vllm方式预测 2 years ago
yuce3.py chatgpt服务使用vllm方式预测 2 years ago

README.md

VLLM项目

项目启动

bash run_model_predict.sh bash run_api.sh

调用示例

"http://192.168.31.74:12000/predict"

{ "texts": "你好" }

返回示例

请求参数