機械学習モデルのパフォーマンスをモニタリングするArthurが約3.6億円調達

機械学習は複雑なプロセスだ。まずモデルを構築し、実験室の条件でテストしてから、世界に公開する。だがその後、そのモデルが意図した動作にどのくらい従っているのかをモニターするにはどうすればいいだろうか?Arthurはそこを助けようとする企業だ。米国時間12月11日にステルス状態から浮上し、現場で実際に使われている機械学習モデルをモニタリングするプラットフォームを公開した。同社はまた、8月に330万ドル(約3億5800万円)のシードラウンドを行ったことも発表した。

画像クレジット: Vladyslav Bobuskyi / Getty Images

ArthurのCEO兼共同創業者であるAdam Wenchel(アダム・ウェンチェル)氏は、ArthurはNew RelicやDataDogのようなパフォーマンスモニタリングプラットフォームに似ているが、システムの稼働状況をモニタリングするのではなく、機械学習モデルのパフォーマンスを追跡するだと言う。

「私たちはAIをモニタリングし説明能力を引き出す企業です。つまり、実稼働環境に置かれたモデルが軌道を外れておらず、何をしているかを説明できるようにモニタ可能にするということです。パフォーマンスが悪くなく、完全に偏っているわけではないこと。モデルがうまくいかなくなる可能性をすべてモニタリングするのです」とウェンチェル氏は説明する。

データサイエンティストたちはラボの中で機械学習モデルを構築しテストを行うが、ウェンチェル氏が言うように、そのモデルがラボの制御された環境を離れてしまう