编程语言
首页 > 编程语言> > 利用java加载bert模型进行加速推理

利用java加载bert模型进行加速推理

作者:互联网

这里利用java加载onnx模型,并进行推理。

项目地址:https://github.com/jiangnanboy/onnx-java

步骤

1.利用java加载onnx模型,并进行推理预测。这里采用roberta模型的onnx版。

2.pytorch模型从这里 下载。

3.pytorch模型转为onnx见这里 。

使用

1.sy/BertMask

String text = "中国的首都是[MASK]京。";
Triple<BertTokenizer, Map<String, OnnxTensor>, Integer> triple = null;
try {
    triple = parseInputText(text);
} catch (Exception e) {
    e.printStackTrace();
}
var maskPredictions = predMask(triple);
System.out.println(maskPredictions);

2.result

String text = "中国的首都是[MASK]京。";

tokens -> [[CLS], 中, 国, 的, 首, 都, 是, [MASK], 京, 。, [SEP]]
[MASK] predictions -> [北, 南, 东, 燕, 望]

String text = "我家后面有一[MASK]大树。";

tokens -> [[CLS], 我, 家, 后, 面, 有, 一, [MASK], 大, 树, 。, [SEP]]
[MASK] predictions -> [棵, 个, 株, 只, 颗]

标签:bert,java,text,模型,MASK,triple,onnx,加载
来源: https://www.cnblogs.com/little-horse/p/16289801.html