import onnxruntime as ort
import numpy as np
# 创建一个 ONNX 模型的会话 (Session)
# 假设我们有一个名为 'model.onnx' 的模型文件
session = ort.InferenceSession("model.onnx")
# 获取模型的输入和输出名称
input_name = session.get_inputs()[0].name
output_name = session.get_outputs()[0].name
# 准备输入数据 (假设模型需要一个形状为 [1, 3, 224, 224] 的张量)
input_data = np.random.randn(1, 3, 224, 224).astype(np.float32)
# 运行推理
result = session.run([output_name], {input_name: input_data})
# 输出结果
print(result)
# 解释说明:
# 1. 导入 onnxruntime 和 numpy 库。
# 2. 使用 InferenceSession 加载 ONNX 模型文件。
# 3. 获取模型的输入和输出名称,以便在推理时正确传递数据。
# 4. 准备输入数据。这里使用随机生成的数据作为示例。
# 5. 使用 run 方法进行推理,并将结果存储在 result 变量中。
# 6. 打印推理结果。
Laravel PHP 深圳智简公司。版权所有©2023-2043 LaravelPHP 粤ICP备2021048745号-3
Laravel 中文站