ONNX Runtimeとは? わかりやすく解説

ONNX Runtime

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/08 16:10 UTC 版)

Open Neural Network Exchange」の記事における「ONNX Runtime」の解説

ONNX Runtime (略称: ORT) は様々な環境におけるONNXモデル推論学習高速化目的としたオープンソースプロジェクトである。フレームワークOSハードウェア問わず単一Runtime APIを介してONNXモデル利用できる。またデプロイ環境合わせた最適化自動でおこなう。ONNX Runtimeは設計方針としてアクセラレータ・ランタイム抽象化パフォーマンス最適化両立掲げており、ONNXモデル自動分割最適アクセラレータによるサブモデル実行によりこれを実現している。 ONNX Runtimeがサポートする最適化には以下が挙げられるモデル量子化: 8-bit Model Quantization グラフ最適化: Basic (不要ノード除去一部op fusions), Extended (op fusions), Layout (NCHWc Optimizer) の三段対応するアクセラレータ最大10上である。x64 CPU向けには Default CPU (by MLAS)、oneDNN・OpenVINO (Intel最適化)、TVM存在する

※この「ONNX Runtime」の解説は、「Open Neural Network Exchange」の解説の一部です。
「ONNX Runtime」を含む「Open Neural Network Exchange」の記事については、「Open Neural Network Exchange」の概要を参照ください。

ウィキペディア小見出し辞書の「ONNX Runtime」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「ONNX Runtime」の関連用語

ONNX Runtimeのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



ONNX Runtimeのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、WikipediaのOpen Neural Network Exchange (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2024 GRAS Group, Inc.RSS