機械学習モデルをさまざまなハードウェアに合わせて最適化するOctoMLが16億円相当を調達

次の記事

Google Cloudで汎用分散型メモリキャッシュシステムMemcachedが使えるようになった

OctoMLは機械学習のコンパイラースタックプロジェクトApache TVMのチームが創ったスタートアップだ。米国時間4月3日に同社は、Amplifyがリードし、90万ドル(約4億2000万円)のシードラウンドをリードしたMadrona Venturesが参加したシリーズAのラウンドで1500万ドル(約16億円)を調達した。OctoMLとTVMの中核的なアイデアは、機械学習を使って機械学習モデルを最適化し、さまざまなタイプのハードウェアでより効率的に動くようにすることだ。

OctoMLのCEOでワシントン大学の教授Luis Ceze(ルイス・セズ)氏は「機械学習モデルの開発はかなり進歩しているが、モデルを手にした時点から例えば、それを実際にエッジやクラウドで有効に使うためにはどう活用するのかという大きな苦労が始まる」と語る。

そのためにセズ氏と彼のワシントン大学のアレンコンピューターサイエンススクール(Paul G. Allen School of Computer Science & Engineering)の仲間たちがローンチしたのが、TVMプロジェクトだ。今やそれはApacheのインキュベイティングプロジェクトであり、AWS、ARM、Facebook、Google、Intel、Microsoft、Nvidia, Xilinxなどの企業からの利用、サポートが多いことから、チームは本格的な商用化が必要と考えた。そこで生まれたのがOctoMLだ。今日では、Amazon Alexaのウェイクワードの検出にもTVMが使われている。

セズ氏はTVMを、機械学習のモデルのための新しいオペレーティングシステムだ、と説明する。「機械学習のモデルはコードではないため、そこにコンピューターが実行する命令はない。そこにあるのは、統計的なモデリングを記述する数字だ。そんなモデルを特定のハードウェアプラットフォーム上で効率的に動作させるには非常に多くの問題があります。実行性能の良い方法を決めるのは非常に困難なで、人間の直観を必要とする重要な作業です」。

そのためOctoMLと、そのSaaSプロダクト「Octomizer」が登場した。ユーザーは自分のモデルをこのSaaSへアップロードすると自動的にモデルはユーザーが指定したハードウェアとフォーマットに基づいて最適化され、ベンチマークされ、パッケージされる。さらに高度な使い方として、このサービスのAPIをCI/CDの工程中に加えるやり方もある。そうやって最適化されたモデルは、それが動くハードウェアを完全に有効利用するよう最適化されているため相当速いが、多くの企業にとってさらにありがたいのは、効率化されたモデルがクラウドの利用コストを下げてくれること。そして性能の低い安価なハードウェアを使っても、これまでと同じ結果が得られることだ。ユースケースによっては、TVMはすでに80倍のパフォーマンス向上を達成している。

現在、OctoMLのチームは約20名だ。今回の新しい資金で増員を予定している。採用されるのは主にエンジニアだが、エバンジェリストも雇いたいとセズ氏は言う。また彼によると、SaaSプロダクト「Octomizer」は出だしとしては良いが、本当の目標は機能がもっと完全に揃ったMLOpsのプラットフォームだとのこと。「OctoMLのミッションは、MLOpsを自動化する世界で最良のプラットフォームを構築することだ」とセズ氏は語っている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa