Traffine I/O

日本語

2023-03-05

ONNXとは

ONNXとは

Open Neural Network Exchange(ONNX)は、深層学習モデルを表現するための標準フォーマットを提供するオープンソースプロジェクトです。Microsoft、Facebook、その他の業界パートナーによって開発されたONNXは、PyTorchやtensorFlowなどといった異なる深層学習フレームワークやハードウェアプラットフォーム間でモデルを共有して展開することができるようにします。

ONNXプロジェクトの主な目標は次のとおりです。

  • 深層学習フレームワーク間の相互運用性の向上
    開発者が好みのツールを使用してモデルをトレーニングおよび展開することを容易にします。

  • ハードウェアベンダーにONNXモデルのプラットフォーム最適化を提供
    最大のパフォーマンスと効率を保証します。

  • ONNXフォーマットをサポートするツールとライブラリのエコシステムの開発を促進
    深層学習コミュニティのイノベーションと協力を促進します。

ONNXの主な機能

ONNXには、深層学習モデルを表現するための魅力的な機能がいくつかあります。

  • 標準化されたフォーマット
    ONNXは、ニューラルネットワークのアーキテクチャ、重み、メタデータを表現するための明確なスキーマを提供します。このスキーマは、人間が読みやすく、機械が解釈可能であり、ONNXモデルを扱いやすくします。

  • 拡張可能な演算子セット
    ONNXには、ほとんどの一般的なニューラルネットワークのレイヤーや関数をカバーする包括的な事前定義演算子(操作)セットが含まれます。さらに、ONNXは、特定のユースケースのためのカスタム演算子を定義することができます。

  • 多様なフレームワークのサポート
    TensorFlow、PyTorch、Caffe2などの人気のある深層学習フレームワークは、ONNXをネイティブにサポートしています。これにより、開発者はこれらのフレームワーク間でモデルを簡単にインポートおよびエクスポートすることができます。

  • 効率的なランタイム
    ONNXランタイムは、CPU、GPU、エッジデバイスなどのさまざまなハードウェアプラットフォームでONNXモデルを高性能かつクロスプラットフォームに実行するためのライブラリです。ONNXランタイムは、特定のハードウェアに対して最適化されたものを提供することで、最高のパフォーマンスを保証しています。

サポートされているフレームワークとツール

ONNXエコシステムには、ONNXフォーマットをサポートする多くの深層学習フレームワークやツールが含まれています。ONNXサポートを提供するもっとも人気のあるフレームワークのいくつかは次のとおりです。

  • TensorFlow
    Googleが開発したオープンソースの機械学習ライブラリで、ニューラルネットワークをトレーニングおよび展開するために広く使用されています。

  • PyTorch
    Facebookが開発した人気の深層学習フレームワークで、動的計算グラフと使いやすいインターフェイスが特徴です。

  • Caffe2
    Facebookが開発した軽量かつモジュール式でスケーラブルな深層学習フレームワークで、様々なプラットフォーム上で高性能な展開を実現します。

  • Apache MXNet
    柔軟で効率的な深層学習ライブラリで、様々なプログラミング言語をサポートし、分散処理に重点を置いています。

  • Keras
    TensorFlow、Microsoft Cognitive Toolkitなどの上で実行できる高水準のニューラルネットワークAPIです。

これらのフレームワークは、モデルをONNXフォーマットに変換するためのツールやユーティリティを提供し、シームレスなモデル共有と相互運用性を実現しています。

https://onnx.ai/supported-tools.html

ONNXランタイム

ONNX Runtimeは、ONNXモデルを実行するための高性能なクロスプラットフォームライブラリです。Microsoftによって開発され、CPU、GPU、エッジデバイスなどのさまざまなハードウェアプラットフォームでONNXモデルの推論を効率的かつ簡単に実行する方法を提供します。ONNX Runtimeは、多くのONNXオペレータをサポートし、特定のハードウェア向けの最適化を提供することで、最大のパフォーマンスを保証します。

ONNX Runtimeの主な特徴は次のとおりです。

  • 高いパフォーマンス
    ONNX Runtimeは高速化に最適化されており、複雑なモデルを様々なハードウェアプラットフォーム上で効率的に実行できます。

  • クロスプラットフォーム
    Windows、Linux、macOS、GCP、AWSなどの主要なクラウドプラットフォームをサポートしています。

  • ハードウェアアクセラレーション
    最新のハードウェアアクセラレータ(例:NVIDIA GPUs、Intel FPGAs)を利用して、モデルの推論を高速化します。

  • 言語バインディング
    Python、C++、C#などの人気のあるプログラミング言語用のAPIを提供します。

  • モデルの最適化
    ONNX Runtimeは、モデルを最適化してパフォーマンスを向上させ、メモリの使用量を減らすためのツールを提供します。

https://onnxruntime.ai/docs/

ONNXファイルフォーマット

ONNXファイルフォーマットは、人間が読みやすく、機械が解釈可能な設計であり、理解しやすく作業できるようになっています。ONNXモデルファイルには、ニューラルネットワークのアーキテクチャ、重み、メタデータなどのシリアル化された表現が含まれます。ONNXファイルの主要な構成要素は次のとおりです。

  • ModelProto
    モデルのグラフ、メタデータ、およびモデルのバージョンなど、全ての情報を含む最上位の構造です。

  • GraphProto
    計算グラフを表すModelProto内のサブ構造で、ノード(オペレーション)、入力、出力、および初期化子(重みやバイアス)を含みます。

  • NodeProto
    グラフ内の各ノードは、入力および出力テンソルを持つ操作(畳み込みや行列乗算など)を表します。

  • TensorProto
    モデル内の入力、出力、および重みを表すために使用されるデータの多次元配列です。TensorProtoには、データ型、次元、および生データまたは特殊な形式の実際のデータに関する情報が含まれます。

  • OperatorSet
    モデルでサポートされるオペレータ(操作)のコレクションです。各OperatorSetは、バックワード互換性を確保するためのバージョンとドメインに関連付けられています。

ONNX Model Zoo

ONNX Model Zooは、コミュニティやさまざまな組織によって提供されるONNX形式の事前学習済みモデルのコレクションです。これらのモデルは、画像分類、オブジェクト検出、自然言語処理など、様々なタスクやドメインをカバーしています。ONNX Model Zooは、事前学習済みモデルをアプリケーションに組み込む開発者や転移学習の基盤として使用する開発者にとって、優れたスタートポイントを提供します。

ONNX Model Zooには、次のような人気のあるモデルが含まれます。

  • ResNet
    優れたパフォーマンスと効率性で知られる画像分類用のディープリザーバルネットワークのファミリーです。

  • MobileNet
    モバイルや組み込みビジョンアプリケーション向けに設計された効率的なモデルのセットで、低レイテンシーと低消費電力を実現します。

  • BERT
    質問応答や感情分析などの自然言語処理タスクに使用されるトランスフォーマーベースのモデルです。

  • YOLO
    速度と精度で知られるオブジェクト検出モデルです。

https://github.com/ankkhedia/model-zoo

参考

https://github.com/onnx/onnx
https://onnxruntime.ai/docs/
https://github.com/onnx/models
https://github.com/ankkhedia/model-zoo

Ryusei Kakujo

researchgatelinkedingithub

Focusing on data science for mobility

Bench Press 100kg!