Google I/O 2016

Googleは機械学習アルゴリズム専用の高速チップを内製、なんと、8ビット機だ

次の記事

スマホVRのハコスコがKDDIとアイ・マーキュリーCから資金調達、業務提携も拡大

GoogleのデベロッパーカンファレンスI/Oにおける発表によると、同社は機械学習のアルゴリズムの高速化に特化した独自のチップの構築を最近開始した。

tpu-1

その特製のチップはTensor Processing Units(TPU)と呼ばれ、同社のテクニカルインフラストラクチャ担当SVP Urs Holzleによれば、すでに同社のデータセンターで1年あまり使われている。またGoogleによれば、それは“性能が大幅に最適化されているので、1電力単位(ワット)あたりの機械学習実行効率がきわめて高く”、しかも、“通常なら7年はかかる技術進歩を1年で達成している”そうだ。

機械学習アルゴリズムの実行におけるTPUの高速性は、一般的なCPUやGPUほどの計算精度が要らないことにも由来している。つまり32ビットではなく8ビットで十分なため、演算に要するトランジスタも少なくてすむ。

Googleの音声認識サービスを利用すると、ユーザーのクェリは今すでにTPUが処理する。またデベロッパーが利用するGoogleのCloud Machine Learningサービスも、TPUによるサービスだ。最近囲碁の世界チャンピオンを負かしたAlphaGoも、そのプロセッサーはTPUだ

Holzleによると、特定のアルゴリズムのきわめて高効率な実行を求めるなら、柔軟性に富むFPGAを利用することは最適ではない。そこで、専用チップの内製に踏み切った。

チップを実際に製造しているファンドリーの名前は公表されなかったが、Holzleによれば、今はプロダクション(本番稼働)において二種類のリビジョンを使っており、それぞれが異なるファンドリーで作られている、ということだ。

Googleはすでに、同社のオープンソースの機械学習アルゴリズムTensorFlowを公開しているが、TPUが今動かしているのも、当然かもしれないが、そのライブラリのコードだ。

参考記事from Google〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))