onnx_run

推論を実行 (1 input / 1 output, float32)

onnx_run h, var_in_buf, var_in_shape, in_rank, var_out_buf, var_out_shape, var_out_rank

(プラグイン / モジュール : hsponnx.dll)

解説

入力テンソル (float32 の連続メモリ) と shape を渡して推論を実行し、
出力テンソルを var_out_buf / var_out_shape に書き戻します。
var_out_buf は呼び出し前に十分な size を sdim で確保しておくこと。

複数入出力モデルは v1 では非対応です。

関連項目

onnx_load_modelONNX モデルをロード(hsponnx.dll)
iron_onnx_open

サンプル逆引き (1)

sample_onnx.hsp

情報

プラグイン / モジュールhsponnx.dll
バージョン1.0
作成日2026-04-15
著作者IronHSP / hsponnx
URLhttps://github.com/inovia/IronHSP
備考hsponnx.dll は Microsoft 公式の ONNX Runtime (onnxruntime.dll) を
動的リンクして、HSP から .onnx モデルをロード / 推論できるように
する薄いラッパプラグインです。

DirectML execution provider に対応しており、onnx_set_backend_dml
DirectX 12 互換 GPU (NVIDIA / AMD / Intel / Qualcomm) での
ハードウェア推論が可能です。

v1 の onnx_run は「1 input / 1 output, float32 tensor」という
単純なケース専用です。ResNet / MobileNet / YOLOv5 の画像分類・検出
モデルの多くはこのシグネチャで動きます。

実際に推論するには以下が必要です:
- hsponnx.dll / hsponnx_64.dll
- onnxruntime.dll
- DirectML.dll (DML backend を使う場合のみ)

いずれも plugins/win32/hsponnx/third_party/onnxruntime/README.md
の手順で NuGet or 公式 zip から入手して HSP ランタイムと同じ
ディレクトリに配置してください。

糖衣として package/win32/common/iron_onnx.hsp を include すると
iron_onnx_open / iron_onnx_input_info 等がまとめて使えます。
タイプ拡張命令
グループhsponnx ― 推論
対応環境
  • その他 : Win32 / Win64
hs ファイルhsphelp\hsponnx.hs