あらゆるバインディングの中核となる ONNX 推論 API です。
プラットフォームを選び、最初の推論を動かすまでの手順を確認してください。
ailia-models には 400 種類以上のすぐに実行できる推論スクリプトが含まれています。一度クローンして共通の依存をインストールしたあと、各モデルのフォルダへ cd して実行するだけです。-v 0 で Web カメラ入力、-i image.png で静止画、フラグを省略すると同梱のデモ入力が使われます。リポジトリ直下の python3 launcher.py を起動すると、すべてのモデルを GUI で参照できます。
git clone https://github.com/ailia-ai/ailia-models.git
cd ailia-models
pip3 install -r requirements.txt
cd object_detection/yolox
python3 yolox.py -v 0
サンプルリポジトリ (400+ models)
ailia SDK はデスクトップ、モバイル、組み込みなど幅広いプラットフォームと GPU バックエンドで動作します。
ONNX モデルを読み込み推論を実行する最小サンプル。
import ailia
import numpy as np
# stream=None lets ailia derive the graph from the .onnx file
net = ailia.Net(stream=None, weight="model.onnx")
input_tensor = np.zeros((1, 3, 224, 224), dtype=np.float32)
output = net.run(input_tensor)
print(output[0].shape)
ailia SDK を初めて使う方からよく寄せられる質問です。
評価ライセンスは Python / Unity / Flutter / JNI では実行時に自動でダウンロードされ、C++ では 1 か月有効です。開発・評価用に限ります。
商用リリース・再配布・長期利用には製品ライセンスを申し込んでください。詳細は ailia ライセンス規約 を参照してください。
ailia.Net() に env_id を渡します。利用可能な環境 (CPU / CUDA / Metal / Vulkan / MKL) は ailia.get_environment_list() で取得できます。
デフォルトでは ailia がプラットフォーム上で最速の環境を自動選択します。
CUDA を使用するには CUDA Toolkit と cuDNN のインストールが必要です。詳しい手順は CUDA Toolkit / cuDNN インストールガイド を参照してください。
Vulkan を使用するには Vulkan セットアップガイド を参照してください。
ailia-models のサンプルスクリプトは初回実行時に .onnx と .onnx.prototxt をモデルディレクトリへダウンロードし、2 回目以降はキャッシュを再利用します。
ailia Speech と ailia Voice では ./models/ にダウンロードされます。initialize_model(model_path=...) で変更できます。
はい、初回実行後はオフラインで動作します。評価ライセンスと自動ダウンロードされるモデルは初回のみインターネット接続が必要で、キャッシュされた後はオフラインで推論できます。
C++ ではバインディングリポジトリの download_license.py でライセンスを 1 度だけ取得します。
各フレームワーク標準のツール (torch.onnx.export や tf2onnx など) で ONNX に書き出し、ailia SDK 同梱のスクリプトで対応する .onnx.prototxt を生成してください。
詳しい手順は モデル変換チュートリアル を参照してください。
サンプルリポジトリのバグ報告や質問は該当の GitHub リポジトリで Issue を立ててください。SDK ライセンスや商用に関するお問い合わせは ailia Inc. までご連絡ください。