[转]简单高效的Bert中文文本分类模型开发和部署
1.项目目录路径


- src/export.sh、src/export.py导出TF serving的模型

src/client.sh、src/client.py、src/file_base_client.py 处理输入数据并向部署的TF serving的模型发出请求,打印输出结果
部署指令:
1
simple_tensorflow_serving --model_base_path="./api"
正常启动终端界面:
浏览器访问界面:
本地请求代码
分为两种,一种是读取文件的,就是要预测的文本是tsv文件的,叫做file_base_client.py,另一个直接输入文本的是client.py。首先更改input_fn_builder,返回dataset,然后从dataset中取数据,转换为list格式,传入模型,返回结果。
正常情况下的运行结果: