エッジ領域で高速ディープラーニング処理を実現:AIエッジコンピューター「AE2100」

課題

近年のコンピュータ技術と通信技術の進化により、画像・音声・文字など様々な種類のデータが生成・通信されており、データ量も増大しています。そのため、従来のように大量のデータをサーバに送信しているとネットワークの遅延や通信障害の影響を受けてしまいます。

現在は工場設備や店舗の管理など様々な分野にデータが活用されていますが、いかにデータを効率よく利用するかが重要となっています。そこで注目されているのが、ネットワークの遅延や障害の影響を受けづらいエッジ領域(データが得られる現場)でのデータ処理です。

解決方法

OKIは、深層学習による推論に特化したエッジコンピューター「AE2100」を開発しました。「AE2100」はAIを活用しエッジ領域で高速に処理しフィードバックを行えます。AE2100はインテル社の深層学習アクセラレーターであるMovidius™ Myriad™ X VPUが搭載され、OpenVINO™ ツールキットにより推論環境を構築できます。

Myriad X VPUは画像認識などを行うための深層学習モデルを構築するのに優れているとされ、低消費電力で画像データからの物体検出を行うなどの処理をOpenVINO™ Toolkitを用いて柔軟に構築できます。AE2100は組み込みLinuxであるYocto Linuxが搭載され、Dockerによる仮想環境の構築が可能であるなど、柔軟性に配慮した構成が標準で搭載されています。また、Microsoft Asureなどのクラウド環境との連携も容易に構築できるとしています。

推論モデル構築の容易さだけでなく、広い応用範囲に対して、手軽にエッジ環境の構築ができるよう配慮されています。具体的には、本体が-20~60℃の温度範囲へ対応したり、オプションで防塵・防水(IP55/66)、-30~45℃(日射あり)の温度範囲に対応する屋外用筐体にも対応したりと、製造現場や社会インフラへの応用が考慮されています。

さらに、OKIの無線通信モジュール「SmartHop」への対応するなど、様々な現場での使用が想定されたシステム構成になっています。

どうなったか

現場でAI処理を行うと、大量のデータをサーバへ送信し、収集・蓄積する必要がないため、ネットワークの遅延や障害の影響を受けにくくなり、リアルタイム性が向上します。また、データを収集する機器から近いエリアでデータを処理できるため、負荷を分散しトラフィックが最適化しやすくなります。

サーバ上にデータを蓄積していると外部からサーバへの攻撃によってデータ漏洩のリスクもありますが、「AE2100」のように現場でデータ処理をして生データを送信したり、保存したりしないようにすると、漏洩のリスクも軽減します。

AIエッジコンピューター「AE2100」を使用すれば、カメラや加速度・振動・音響センサ等から収集したデータをディープラーニングによって高速処理できるため、以下の分野での活用が期待されています。

工場の生産ラインでは、すでにAIを活用した不良品チェックが行われています。従来のようにクラウドサーバーへ製品の画像を送信しチェックしていると、通信の遅延によって見逃しが生じてしまうリスクもありました。「AE2100」を使用してエッジ領域でデータ処理できると、より高速に不良品チェックが行えるようになり精度も向上します。

また、自動車の自動運転は人の安全にも関わるため、データ処理の遅延は許されません。「AE2100」は、自動車に搭載されたカメラやセンサから生成された大量のデータをリアルタイムで処理できるため、遅延は生じづらくなります。

まとめ

2020年以降、超高速・大容量通信が可能となる5Gの提供が予定されています。これにより、さらに大量のデータがインターネット上を行き来し、デバイスにおいても多様なデータの高速処理が求められるようになります。

インターネット経由で画像を送る監視カメラにセキュリティ脆弱性が見つかり問題になったこともあり、エッジだからといってデータ漏洩の危険性がなくなる訳ではありません。しかし、適切なセキュリティ措置が講じられていれば、一挙に全てのデータが危険に晒されることはないといえるでしょう。また、認識結果等だけを保存し、送信するシステム設計とすれば、生データに起因するプライバシーの問題も回避できます。

推論モデル構築のための学習をエッジコンピュータで行える訳ではありませんが、データ収集の工夫や大規模コンピュータとの適切な使い分けが進むと考えられます。

AIエッジコンピューター「AE2100」を含むエッジコンピューターは今後の5G時代に向けて、交通・製造・建設分野など、さらに多くの分野で活用されていくでしょう。

参考資料

(Marvin編集部)