利用java加载bert模型进行加速推理
作者:互联网
这里利用java加载onnx模型,并进行推理。
项目地址:https://github.com/jiangnanboy/onnx-java
步骤
1.利用java加载onnx模型,并进行推理预测。这里采用roberta模型的onnx版。
2.pytorch模型从这里 下载。
3.pytorch模型转为onnx见这里 。
使用
1.sy/BertMask
String text = "中国的首都是[MASK]京。";
Triple<BertTokenizer, Map<String, OnnxTensor>, Integer> triple = null;
try {
triple = parseInputText(text);
} catch (Exception e) {
e.printStackTrace();
}
var maskPredictions = predMask(triple);
System.out.println(maskPredictions);
2.result
String text = "中国的首都是[MASK]京。";
tokens -> [[CLS], 中, 国, 的, 首, 都, 是, [MASK], 京, 。, [SEP]]
[MASK] predictions -> [北, 南, 东, 燕, 望]
String text = "我家后面有一[MASK]大树。";
tokens -> [[CLS], 我, 家, 后, 面, 有, 一, [MASK], 大, 树, 。, [SEP]]
[MASK] predictions -> [棵, 个, 株, 只, 颗]
标签:bert,java,text,模型,MASK,triple,onnx,加载 来源: https://www.cnblogs.com/little-horse/p/16289801.html