KUMICO

COLUMN

IoTとAIの関係に注目してみる(前編)

AIの機械学習エンジンとしてはGPUが使われることが多いようですが、組み込み市場では少しずつFPGAにトレンドが移ってきているみたいです。

Artificial Intelligence(人工的な知性)って、2014年ごろからのキーワードですよね。
組み込みの分野では医療系の画像分析や一部の工場ラインでの目視検査などで少しずつ機械学習を使ったAI分析やその知見が使われてきているけど、まだまだニッチ感があります。

▼9/27 ディープラーニング関連イベント<無料>▼
イベントバナー_Intel®

汎用はGPU、組み込み市場ではFPGAがトレンド

そういえば少し前にGPUで有名な米エヌビディア社が、産業ロボット等の機器で有名なファナックさんと、“考える産業ロボットへの技術提携”って記事が出てましたね。
AIの演算エンジンでGPUが広く使われているのは知っている人も多いと思います。 産業機器がIoTとして、各種センサーデータ情報をクラウドに上げていくのは昔からあったけど、AIと繋がるってのは新鮮な感じ。
ドイツで進められているインダストリー4.0はまさにAIありきなので、そう考えると、このスマートファクトリーのファナックさんの戦略は、世界市場にむけてすごく正しいんじゃないかって思っちゃいます。

今のところ汎用のAIの機械学習エンジンとしてはGPUが使われることが多いようですが、性能比発熱量(消費電力)の問題や長期供給とかで、組み込み市場では少しずつFPGAにトレンドが移ってきているみたいです。
FPGAだと基本的な性能はAISC等の専用ハードと同じだし、ロジック設計はプログラムで自由に書き換えや変更が出来るので、学習のアルゴリズムの改良なんかも瞬時に対応出来たりしちゃいます。FPGAは、もともと車載なんかでも使われているデバイスなので信頼性なんかもきっと安心だろうし、消費電力もGPUに比べれば圧倒的に優位だし。

世界のAIサービス大手3社の動向がおもしろい

世界のAIサービスをリードしている感がある大手3社を見てみると、それぞれ独自に頑張ってるって感じます。米グーグル社は自社専用のTPU(Tensor Processing Unites)を開発・使用しているようですね。
汎用プロセッサの世界では32ビットや64ビット演算が主流だけど、GoogleのTPUは機械学習アルゴリズム処理専用ということで浮動小数点制度を落とした8ビット処理エンジンらしいですね。これにより演算処理用のトランジスタ数を減らせるので消費電力やシリコンサイズでも優位ですよね。これってGPUの浮動小数点精度を売りにしているアプローチとは真逆なのが面白い。

米マイクロソフト社は以前から大規模データセンター内での運用の理由から、消費電力や発熱の点でGPUを使わずに、FPGAチップ内処理の高度並列連携で外部メモリーアクセスを最小化して、性能と消費電力のバランスをとる手法でアプローチしているようですね。
米IBM社は神経細胞の情報伝達の仕組みをモデル化し、並列分散化処理アーキテクチャの独自デバイスのニューロモーフィックチップ路線で、こちらも処理コアの周りにメモリーを配した構造みたいです。

各社それぞれのアプローチで共通しているのは、デバイス内部で処理が進められるような工夫をしていて、処理能力/消費電力をとても重要と考えているということ。ということは、このユニットを数千枚、数万枚と詰め込むことも考えているかもしれないって想像できますよね。一体どんなシステムになっているのやら…。

富士ソフトの製品ソリューションを確認する。

個別相談も承っております。下記よりお申し込みください。

個別相談会申し込み

関連記事

OTHER COLUMN

MORE  

まこちゃんブログ

NEWS

MORE  

PARTNER

  • Intel
  • Xilinx

お探しの組み込み製品はキーワードで検索!