未验证 提交 c296a276 编写于 作者: D Dong Daxiang 提交者: GitHub

Update DESIGN_DOC.md

上级 d8f49b51
...@@ -48,7 +48,7 @@ serving_io.save_model("serving_model", "client_conf", ...@@ -48,7 +48,7 @@ serving_io.save_model("serving_model", "client_conf",
#### 2.1.2 服务端模型加载 #### 2.1.2 服务端模型加载
服务端的预测逻辑可以通过Paddle Serving Server端的API进行人工定义,一个例子: 服务端的预测逻辑可以通过Paddle Serving Server端的API进行人工定义,一个例子:
``` python ``` python
``` python ``` python
import paddle_serving_server as serving import paddle_serving_server as serving
...@@ -78,7 +78,6 @@ op_seq_maker.add_op(general_response_op) ...@@ -78,7 +78,6 @@ op_seq_maker.add_op(general_response_op)
</center> </center>
当前Paddle Serving中的预估引擎支持在CPU/GPU上进行预测,对应的预测服务安装包以及镜像也有两个。但无论是CPU上进行模型预估还是GPU上进行模型预估,普通模型的预测都可用一行命令进行启动。 当前Paddle Serving中的预估引擎支持在CPU/GPU上进行预测,对应的预测服务安装包以及镜像也有两个。但无论是CPU上进行模型预估还是GPU上进行模型预估,普通模型的预测都可用一行命令进行启动。
``` shell ``` shell
python -m paddle_serving_server.serve --model your_servable_model --thread 10 --port 9292 python -m paddle_serving_server.serve --model your_servable_model --thread 10 --port 9292
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册