エッジ処理向けの深層学習モデルを開発、LeapMindがIntel Capitalなどから11.5億円調達

次の記事

顔を怪我したカメが3Dプリントのフェイスマスクをつけてもらった

企業向けのディープラーニング・ソリューション「JUIZ DoT」などを提供するLeapMindは10月23日、合計7社を引受先とする第三者割当増資を実施し、総額11.5億円の資金調達を完了したと発表した。

投資家リストは以下の通り:

LeapMindは、高い処理能力や高電力を前提としたこれまでのディープラーニング(深層学習)とは違い、小さなコンピューティングリソースでも動くように計算処理を圧縮した独自モデルの開発を行うスタートアップだ。

通常、ディープラーニングというと巨大なコンピューティングリソースを利用したものを想像する人が多いと思う。たとえば、人間のプロ囲碁棋士を打ち負かしたことで話題になったAlphaGoには、CPU1202個、GPU176基で構成された非常に大きなコンピューティングリソースが利用されていた。

もちろん、そんな巨大コンピューターをいちいち移動させたり色々な場所に配置したりする訳にはいかない。だから、処理を行うサーバーは離れた場所に置かれ、データを取得する端末とネットワークを介して通信することになる。いわゆるクラウドコンピューティングだ。

クラウドのメリットは、たとえ端末自体の処理能力が低くても、外部のリソースを活用することでディープラーニングのような複雑な処理ができること。逆にデメリットとして挙げられるのは、離れた場所にあるサーバーと通信を行う以上、処理結果が返ってくるまでに多少の遅延が発生してしまう点だ。

でも、人のいのちに関わる自動運転の分野などでは、そのような遅延は許されない。そこで、自動運転の発展とともに注目され始めているのがエッジコンピューティングと呼ばれる技術だ。これは、端末の近くにサーバーを分散配置することで遅延を少なくするというもので、クラウドとは異なる発想をもつ。

ただ、エッジコンピューティングで利用できるリソースは限られている。巨大なコンピューターをクルマに積むことなんてできないからだ。すこし前置きが長くなってしまったけれど、LeapMindはそんな小さなコンピューティングリソースでもディープラーニングを行えるよう、計算量を圧縮した独自モデルの開発をしている。

従来モデルの500分の1のサイズ、10倍の処理速度

LeapMindによれば、同社の独自モデルはケンブリッジ大学が開発した「SegNet」と比べて500分の1のサイズでありながら、精度の低下は約5%ほどに留めることに成功したという。また、LeapMindが提供するSaaS型ディープラーニングサービス「JUIZ」を利用してFPGA(参考)上に専用回路を構築することで、CPUでの処理に比べて10倍の速度で処理を完了することができるそうだ。

さらに、FPGA上で処理を行うことでCPUを利用する場合に比べて約12分の1の省電力化を実現することができる。そのため、電力が限られたIoTデバイスでもディープラーニングを行うことが可能だ。

LeapMindが掲げる「DoT(Deep Learning of Things)」という言葉のとおり、エッジ上で精度の高いディープラーニングを行うことが可能になれば、自動運転だけでなく、ドローンに高度な画像認識モジュールを搭載するなど様々なことが可能になりそうだ。

今回のラウンドには米国のIntel Capitalがリード投資家として参加しているけれど、彼らは注力分野としてAI、FPGA、IoT、自動運転などを挙げている。それを考えれば、LeapMindはIntel Capitalにとって絶好の投資先だったのかもしれない。

LeapMindは今回調達した資金を利用して、「ソフトウェアとハードウェアの両領域におけるソリューションの研究開発、またそれに伴う世界中からの優秀な従業員の雇用、さらには海外を含めた事業開発/営業基盤の拡大に充当する予定」だとしている。

過去に、同社は2016年8月のシリーズAで3.4億円を調達している。