推論を実行 (1 input / 1 output, float32)
onnx_run h, var_in_buf, var_in_shape, in_rank, var_out_buf, var_out_shape, var_out_rank
(プラグイン / モジュール : hsponnx.dll)
入力テンソル (float32 の連続メモリ) と shape を渡して推論を実行し、 出力テンソルを var_out_buf / var_out_shape に書き戻します。 var_out_buf は呼び出し前に十分な size を sdim で確保しておくこと。 複数入出力モデルは v1 では非対応です。
| onnx_load_model | ONNX モデルをロード | (hsponnx.dll) |
| iron_onnx_open | ||
| プラグイン / モジュール | hsponnx.dll |
| バージョン | 1.0 |
| 作成日 | 2026-04-15 |
| 著作者 | IronHSP / hsponnx |
| URL | https://github.com/inovia/IronHSP |
| 備考 | hsponnx.dll は Microsoft 公式の ONNX Runtime (onnxruntime.dll) を
動的リンクして、HSP から .onnx モデルをロード / 推論できるように する薄いラッパプラグインです。 DirectML execution provider に対応しており、onnx_set_backend_dml で DirectX 12 互換 GPU (NVIDIA / AMD / Intel / Qualcomm) での ハードウェア推論が可能です。 v1 の onnx_run は「1 input / 1 output, float32 tensor」という 単純なケース専用です。ResNet / MobileNet / YOLOv5 の画像分類・検出 モデルの多くはこのシグネチャで動きます。 実際に推論するには以下が必要です: - hsponnx.dll / hsponnx_64.dll - onnxruntime.dll - DirectML.dll (DML backend を使う場合のみ) いずれも plugins/win32/hsponnx/third_party/onnxruntime/README.md の手順で NuGet or 公式 zip から入手して HSP ランタイムと同じ ディレクトリに配置してください。 糖衣として package/win32/common/iron_onnx.hsp を include すると iron_onnx_open / iron_onnx_input_info 等がまとめて使えます。 |
| タイプ | 拡張命令 |
| グループ | hsponnx ― 推論 |
| 対応環境 |
|
| hs ファイル | hsphelp\hsponnx.hs |