モバイル学習モデルの俯瞰: MobileNetV1からEfficientNetV2まで

モバイル学習モデル

モバイル学習モデルは、モバイルデバイス上で動作する機械学習モデルを指します。これらは、リソースが限られた環境での高効率な運用を目的としています。

モバイル学習モデルの変遷

MobileNet

  • 2017年にGoogle AIの研究チームによって発表された、軽量で高速な画像認識モデル。
  • “Depthwise Separable Convolution”を採用し、計算量を大幅に削減。
  • ImageNetでのTop-1精度が70.6%と、軽量モデルとして高い精度を実現。
  • スマートフォンやIoTデバイスなど、リソースが限られた環境での使用に適している。

MnasNet

  • 2018年にGoogle AIによって発表された、MobileNetとは異なるアーキテクチャ。
  • 自動化されたニューラルネットワーク設計(Neural Architecture Search, NAS)を用いて開発。
  • ImageNetでのTop-1精度が74.0%と、更なる精度の向上を実現。

EfficientNet

  • 2019年にGoogle AIによって発表された、MobileNetとMnasNetの研究成果を統合したモデル。
  • スケーリング法則を用いてネットワークの幅、深さ、解像度を均等にスケーリングし、効率性を向上。
  • ImageNetでのTop-1精度が84.6%と大幅な性能向上。

EfficientNetV2

  • 2021年にGoogle AIによって発表された、EfficientNetの改良版。
  • 畳み込み層の構造を最適化し、精度と効率性をさらに向上。
  • ImageNetでのTop-1精度が86.1%。

EfficientNetV3

  • EfficientNetV3の開発が進行中であるとの情報があるが、未確認。

Vision Transformer

  • CNNとは異なり、純粋にTransformerベースのアーキテクチャを採用。
  • 自己注意機構を主体とし、画像をパッチに分割してトランスフォーマーの入力として使用。

パラメータ数とFLOPsについて

表に記載されているパラメータ数とFLOPsは参考値であり、モデルのバージョンや設定によって異なる場合がある。

モデルの比較表

項目MobileNetMnasNetEfficientNetEfficientNetV2
発表年2017201820192021
アーキテクチャ畳み込み層とプーリング層の組み合わせ畳み込み層とモジュール化されたアテンションの組み合わせ[^0]畳み込み層とモジュール化されたアテンションの組み合わせ畳み込み層とモジュール化されたアテンションの組み合わせ[^0]
特徴軽量で高速軽量で高速高精度で軽量高精度で軽量
パラメータ数4.2M1.9M1.3M2.7M
FLOPs560M1.2G1.2G2.4G
精度ImageNetでのTop-1精度: 約70%~73%ImageNetでのTop-1精度: 74.0%ImageNetでのTop-1精度: 約77%~84.6%ImageNetでのTop-1精度: 約85%~88%

アテンションメカニズムは、ニューラルネットワークが入力データの特定の部分に「注目」を集中させることを可能にする技術です。Transformerモデルで使われるアテンションは、特に「自己アテンション」と呼ばれ、入力データの異なる位置間の関連性をモデル化します。
畳み込み層は、画像などの空間データを処理するのに適しているため、多くのCNNアーキテクチャで広く使用されています。
一方で、アテンションメカニズムは、データの重要な部分に焦点を当て、コンテキスト情報をより効果的に取り入れるのに役立ちます。
畳み込み層とアテンションを組み合わせることで、ネットワークは局所的な特徴(畳み込み層によって捉えられる)とグローバルな依存関係(アテンションによって捉えられる)の両方を効果的に利用できるようになります。
EfficientNetやその他の最新のニューラルネットワークアーキテクチャでは、このような組み合わせが採用されており、特に画像分類タスクにおいて高い性能を発揮しています。アテンションを使用することで、ネットワークは画像の重要な部分に焦点を合わせ、全体のコンテキストに基づいてより正確な予測を行うことができます。

項目の説明

  • 発表年: モデルが発表された年
  • アーキテクチャ: モデルの構成
  • 特徴: モデルの特徴
  • パラメータ数: モデルの重みパラメータの数
  • FLOPs: モデルの演算量(各層で実行される演算の数の合計の目安)
  • 精度: モデルの精度

※パラメータ数についてはこちら: OpenAIが発見したScaling Lawの秘密を参照してください。
※FLOPsについてはこちら: 機械学習モデルのトレーニング時演算量の推移を参照してください。

一般的なサイズ感

モデルパラメータ数モデルサイズ (MB)
efficientnetv2-s1.2M4.4
efficientnetv2-m2.2M7.2
efficientnetv2-l4.0M10.5
MobileNet v3-Small5.3M2.9
efficientnetv2-b05.3M2.9
MobileNet v3-Medium11.2M4.2
efficientnetv2-b111.2M4.2
MobileNet v3-Large22.2M7.1
efficientnetv2-b222.2M7.1

timm(PyTorch Image Models)について

timm の概要

  • 目的と機能: timmは、画像認識に関連する様々な最新のニューラルネットワークモデルをPyTorchで使えるようにするライブラリです。これには、事前訓練済みモデルの提供、新しいモデルアーキテクチャの実験、既存のモデルの微調整やカスタマイズが含まれます。

主要な特徴

  1. 多様なモデル: timmは、EfficientNet、ResNet、DenseNetなど、多くの人気モデルを含む事前訓練済みモデルを提供します。
  2. 事前訓練済みの利便性: 多くのモデルがImageNetなどの大規模データセットで事前訓練されており、これによりユーザーは迅速にこれらのモデルを活用して、自分のデータセットでの学習や推論を行うことができます。
  3. カスタマイズと実験: timmは、モデルのアーキテクチャをカスタマイズしたり、新しいアーキテクチャを試したりするのにも適しています。

timmのモデルバリエーション

MobileNet v3とEfficientNetV2のパラメータ数とモデルサイズは、以下のとおりです。

timmで配布されているMobileNetV3モデルの一覧

Model nameParams (M)Image size: train, test
mobilenetv3_large_100.miil_in21k18.6224 x 224
mobilenetv3_large_100.miil_in21k_ft_in1k5.5224 x 224
mobilenetv3_large_100.ra_in1k5.5224 x 224
mobilenetv3_rw.rmsp_in1k5.5224 x 224
mobilenetv3_small_050.lamb_in1k1.6224 x 224
mobilenetv3_small_075.lamb_in1k2.0224 x 224
mobilenetv3_small_100.lamb_in1k2.5224 x 224
tf_mobilenetv3_large_075.in1k4.0224 x 224
tf_mobilenetv3_large_100.in1k3.9224 x 224
tf_mobilenetv3_large_minimal_100.in1k3.9224 x 224
tf_mobilenetv3_small_075.in1k2.0224 x 224
tf_mobilenetv3_small_100.in1k2.5224 x 224
tf_mobilenetv3_small_minimal_100.in1k2.0224 x 224

timmで配布されているefficientnetv2モデルの一覧

Model nameParams (M)Image size: train, test
efficientnetv2_rw_s.ra2_in1k23.9288 x 288, 384 x 384
efficientnetv2_rw_t.ra2_in1k13.6224 x 224, 288 x 288
gc_efficientnetv2_rw_t.agc_in1k13.7224 x 224, 288 x 288
tf_efficientnetv2_b0.in1k7.1192 x 192, 224 x 224
tf_efficientnetv2_b1.in1k8.1192 x 192, 240 x 240
tf_efficientnetv2_b2.in1k10.1208 x 208, 260 x 260
tf_efficientnetv2_b3.in1k14.4240 x 240, 300 x 300
tf_efficientnetv2_b3.in21k46.4240 x 240, 300 x 300
tf_efficientnetv2_b3.in21k_ft_in1k14.4240 x 240, 300 x 300
tf_efficientnetv2_l.in1k118.5384 x 384, 480 x 480
tf_efficientnetv2_l.in21k145.2384 x 384, 480 x 480
tf_efficientnetv2_l.in21k_ft_in1k118.5384 x 384, 480 x 480
tf_efficientnetv2_m.in1k54.1384 x 384, 480 x 480
tf_efficientnetv2_m.in21k80.8384 x 384, 480 x 480
tf_efficientnetv2_m.in21k_ft_in1k54.1384 x 384, 480 x 480
tf_efficientnetv2_s.in1k21.5300 x 300, 384 x 384
tf_efficientnetv2_s.in21k48.2300 x 300, 384 x 384
tf_efficientnetv2_s.in21k_ft_in1k21.5300 x 300, 384 x 384
efficientnetv2_rw_m.agc_in1k53.2320 x 320, 416 x 416
tf_efficientnetv2_xl.in21k234.8384 x 384, 512 x 512
tf_efficientnetv2_xl.in21k_ft_in1k208.1384 x 384, 512 x 512

MobileNetV3とEfficientNetV2の比較

MobileNetV3とEfficientNetV2は、どちらも軽量なアーキテクチャでありながら、優れた精度を実現できるCNNです。
以下に両者の比較として、いくつかの共通点と相違点を挙げます。

共通点

[^1]: チャンネルごとに畳み込みを行う畳み込み層の一種です。通常の畳み込み層では、各チャネル間で畳み込みが行われますが、Depthwise Convolutionでは、各チャネルごとに独立して畳み込みが行われます。これにより、計算量を大幅に削減ができます。

[^3]: MobileNetV3で採用されている基本的な構成単位であるブロックです。3×3のDepthwise Convolutionを1×1のConvolutionで挟んだ構造になっています。Depthwise Convolutionで特徴量を抽出し、1×1のConvolutionでチャンネル数を調整します。

[^4]: EfficientNetV2で採用されている基本的な構成単位であるブロックです。3×3の畳み込み層とSqueeze-and-Excitation Moduleで構成されています。畳み込み層で特徴量を抽出し、Squeeze-and-Excitation Moduleで各チャネルの重要度を調整します。

[^5]: 畳み込み層を2つの小さな畳み込み層に分解する手法です。通常の畳み込み層では、フィルターサイズと同じ大きさのカーネルを用いて畳み込みが行われますが、Factorized Convolutionでは、フィルターサイズを半分にすることで、カーネルを2つに分解ができます。これにより、計算量を削減ができます。

相違点

具体的な比較

アーキテクチャの構成

MobileNetV3のInverted Residual Block[^3]は、3×3のDepthwise Convolution[^1]を1×1のConvolutionで挟んだ構造です。Depthwise Convolution[^1]は、チャンネルごとに畳み込みを行うため、計算量を大幅に削減できます。1×1のConvolutionは、チャンネル数を調整するために使用されます。

EfficientNetV2のSqueeze-and-Excitation Block[^4]は、3×3の畳み込み層とSqueeze-and-Excitation Module^2で構成されています。Squeeze-and-Excitation Module^2は、各チャネルの重要度を調整するために使用されます。

計算量の削減手法

MobileNetV3は、Depthwise Convolution[^1]とSqueeze-and-Excitation Module [^2]によって計算量を削減します。Depthwise Convolution[^1]は、チャンネルごとに畳み込みを行うため、計算量を大幅に削減できます。Squeeze-and-Excitation Module^2は、各チャネルの重要度を調整することで、不要なチャネルの処理を省略できます。

EfficientNetV2は、Squeeze-and-Excitation Module^2Factorized Convolution[^5]によって計算量を削減します。Squeeze-and-Excitation Module^2は、MobileNetV3と同様に、各チャネルの重要度を調整することで、不要なチャネルの処理を省略できます。Factorized Convolution[^5]は、畳み込み層を2つの小さな畳み込み層に分解することで、計算量を削減します。

パラメータ数

MobileNetV3は、EfficientNetV2よりもパラメータ数が少ない傾向にあります。これは、MobileNetV3がDepthwise Convolution[^1]とSqueeze-and-Excitation Module^2を採用しているためです。Depthwise Convolution[^1]は、チャンネルごとに畳み込みを行うため、パラメータ数が少ないという特徴があります。Squeeze-and-Excitation Module^2も、パラメータ数が少ないという特徴があります。

精度

一般的に、EfficientNetV2の方がMobileNetV3よりも精度が高い傾向にあります。これは、EfficientNetV2がSqueeze-and-Excitation Module^2Factorized Convolution[^5]を採用しているためです。Squeeze-and-Excitation Module^2は、各チャネルの重要度を調整することで、精度の向上に寄与します。Factorized Convolution[^5]は、計算量を削減しながらも、精度の低下を抑えることができます。

具体的な用途としては、MobileNetV3は、低スペックのデバイスで動作するアプリケーションに適しています。EfficientNetV2は、精度を重視するアプリケーションに適しています。

入力サイズ

MobileNetV3の入力サイズ

  • 固定サイズ: MobileNetV3は、一般的に224×224ピクセルの固定サイズの入力を想定しています。これは、モデルの設計が特定の入力サイズに最適化されているためです。
  • 軽量化と効率性: MobileNetV3は、主にモバイルデバイスやリソース制約のある環境での使用を目的として設計されています。固定サイズの入力を使用することで、モデルの軽量化と効率性を保っています。

EfficientNetV2の入力サイズ

  • スケーラブルなアーキテクチャ: EfficientNetV2は、スケーラブルなアーキテクチャを採用しています。これにより、同じモデルファミリー内でさまざまなサイズのバリエーションが可能となり、小さいモデルから大きなモデルまで様々なリソース要件に対応できます。
  • Compound Scaling[^6]: EfficientNetV2は、ネットワークの深さ、幅、および解像度のバランスをとるための「Compound Scaling[^6]」という手法を使用しています。これにより、モデルは異なる入力サイズに効率的に対応できるようになります。
  • 柔軟性と性能の最適化: 異なる入力サイズをサポートすることで、EfficientNetV2は、特定のタスクや利用可能な計算リソースに基づいて性能を最適化できます。

[^6]: Compound Scalingは、EfficientNetの核となるコンセプトで、モデルのサイズ、精度、および計算効率の間の長年のトレードオフを解決するために開発されました。この方法の背後にあるアイデアは、ニューラルネットワークの三つの重要な次元、すなわち幅(width)、深さ(depth)、および解像度(resolution)をスケーリングすることです​​。Compound Scalingの具体的な手法には、ユーザーが定義するcompound coefficient(ϕ)を使用して、ネットワークの幅、深さ、解像度を統一的にスケールアップします。例えば、入力画像が大きい場合、ネットワークはより多くの層を必要とし、より細かいパターンをキャプチャするためにより多くのチャネルが必要になります。この直感に基づき、Compound Scalingはこれらの次元を一様にスケーリングすることで、モデルの精度と効率を一貫して向上させます​​​​。このスケーリング方法は、従来のスケーリング方法と比較して、MobileNet(+1.4% ImageNet精度)やResNet(+0.7%)などの既存モデルの精度と効率を一貫して向上させることが示されています。Compound Scalingの有効性は、基本となるネットワークアーキテクチャにも大きく依存しています​​。

参考文献