シリコンへの回帰が新たな巨大ハイテク企業を生む

次の記事

羽田空港や観光スポットへオンデマンド型相乗りシャトルカーでゴー、NearMeや京急が実証実験

Netflixを見まくったり、ネット対応の新しいドアホンを家に取り付けるごとに、私たちは大きなデータの潮流を引き起こす。わずか10年の間に帯域幅消費量は100倍に増え、今後も、人工知能、仮想現実、ロボティクス、自律運転車といったレイヤーを重ねることで、その量は減るどころか増える一方となる。Intelによると、1台のロボットを90分間走らせただけで4TBのデータが生成されるという。これは、同じだけの時間、私たちがチャットをしたり、動画を視たり、その他のインターネットで楽しい時間を過ごしたときに発生するデータ量の30億倍以上になる。

ハイテク企業は、サービス満載の巨大なデータセンターを建設して対応してきた。しかし、データ消費量は、もっとも野心的なインフラの造設も追いつけないほどのペースで伸び続けている。つまり、現在のテクノロジーに依存している限り、データ処理の需要は決して満たされないということだ。

データ処理の鍵を握るのは、言うまでもなく、半導体だ。このトランジスタを無数に埋め込んだチップが今日のコンピューター産業を駆動している。この数十年間、技術者たちはより多くのトランジスタをより小さなシリコンウェハーに押し込む技術の開発を推し進めてきた。現代のIntelのチップは、1mmサイズのシリコンの上に10億個以上のトランジスターが詰め込まれている。

この流れは「ムーアの法則」として知られている。Intelの共同創設者Gordon Moore(ゴードン・ムーア)氏が1965年に残した有名な言葉を彼の名にちなんでそう呼んでいる。それは、チップに搭載できるトランジスタの数は1年ごとに2倍になる(後に2年ごとに改められた)というものだ。従って、コンピューターの演算速度と性能は2倍になる。

小型化を進めつつ性能を飛躍的に伸ばしてきたチップは、私たちのテクノロジーを、この50年ほどの間、着実に牽引してきた。しかし、ムーアの法則は終わりに近づいてる。素材物理学という不変の法則が存在するためだ。現在のプロセッサーの製造技術では、もうこれ以上のトランジスタをシリコンウェハーには載せられないのだ。

さらに困ったことに、私たちをここまで引っ張り上げてくれたx86という、今日広く使われている汎用チップのアーキテクチャは、これから一般的になりつつある新しいコンピューターの利用法には適してない。

つまり、新しいコンピューティングアーキテクチャが必要になるということだ。実際私も、今後2~3年の間に、新しいシリコン・アーキテクチャやデザインがいくつも開花するものと予測している。それらは、大量のデータに長け、人工知能や機械学習、そしていわゆるエッジコンピューティング機器などに特化した機能に最適化されたものだ。

新しいアーキテクチャ

そうした専門性を持つ新しいアーキテクチャは、すでに方々の最前線に現れている。Nvidia(エヌビディア)のGPU(Graphic Processing Units)、Xilinx(ザイリンクス)のField Programmable Gate Arrays、Altera(Intelが買収)、Mellanox(Nvidiaが買収)のスマートネットワークインターフェイスボード、そしてMayfieldが投資したスタートアップFungibleのデータプロセッシングユニット(UPU)と呼ばれるプログラマブルプロセッサの新たなカテゴリーなどだ。DPUは、あらゆるデータインテンシブな作業負荷(ネットワーク、セキュリティ、ストレージ)に対応するよう目的を絞って作られる。Fungibleは、それをフルスタックのプラットフォームに結合して、データセンターで従来の主力であるCPUと並行して使えるようにする。

これらの、そしてその他の目的に合わせて設計されるシリコンは、セキュリティからスマートドアホン、はては自律運転車やデータセンターに至るまで、固定化された仕事を熟すエンジンとなる。こうしたイノベーションを起こす、そしてそれを生かす市場には、新しい企業が現れるだろう。実際、これらのサービスが成長し、その性能が生命線となる5年後には、まったく新しい半導体のトップメーカーが登場すると私は信じている。

さあ、あらゆるものがつながる接続時代の強力なコンピューター施設を立ち上げよう。それはデータセンターだ。

データ保管やコンピューティングは、ますますエッジで行われるようになっている。つまり、そうした処理を必要とする私たちのデバイスに近い場所だ。ドアホンの顔認証ソフトウエアや、VRゴーグルで繰り広げられるクラウドを利用したゲームなどもそれにあたる。エッジコンピューティングなら、そのような処理を10ミリ秒以内で熟せるため、エンドユーザーのために、もっと多くの仕事ができるようになるのだ。

現代のx86 CPUアーキテクチャの算術計算では、大規模な、または大容量のデータサービスを展開することが難しい。自律運転車は、データセンターレベルの敏捷さと速度に大幅に依存する。歩行者が横断歩道を渡っているときに、データのバッファリングなどしていられない。私たちの作業インフラは、そして自律運転車などが必要とするものは、これまでになくデータ中心(大きなデータセットの保存、読み出し、マシン間での転送)になってきているため、新しい種類のマイクロプロセッサが必要になる。

この他に、新しい処理アーキテクチャを必要とする分野に人工知能がある。AIのトレーニングと推論(たとえばスマート・ドアホンが安全な人間か不審者かを見分けるなど、データから推論を行う際にAIが用いる処理)の両方だ。グラフィック・プロセシング・ユニット(GPU)は、そもそもゲームを処理するために開発されたのだが、AIのトレーニングや推論では、従来のCPUよりも効率が高いことがわかった。

しかし、AIの作業(トレーニングと推論)を処理するためには、画像分類、オブジェクト検出、顔認証、自律運転などのための専用のAIプロセッサが必要になる。これらのアルゴリズムの実行に必要な演算では、ベクトル処理や浮動小数点演算を、汎用のCPUに比べて劇的な高速度で行わなければならない。

AI専用チップに取り組んでいるスタートアップに、SambaNova、Graphcore、Habana Labsなどがある。これらの企業は、機械知能のための新しいAI専用チップを開発した。それはコストを下げることでAIの導入を促進し、性能を劇的に向上させる。有り難いことに、彼らのハードウェアを使うためのソフトウェア・プラットフォームも用意されている。もちろん、 Google独自のTensor Processing Unitチップを開発)やAmazon(EchoスマートスピーカーのためのAIチップを開発)といった大手AI企業も同時のアーキテクチャに取り組んでいる。

モノのインターネット(IoT)と呼ばれるネット対応ガジェットが、ようやく増えてきた。パーソナルツールや家庭用ツール(暖房のコントローラー、煙感知器、歯ブラシ、トースターなど)の多くが、非常に低電力で動くようにもなった。

CPUファミリーのARMプロセッサは、そうした役割を担うようになるだろう。これらのガジェットは、複雑な演算も大きな電力も必要としないからだ。そこではARMアーキテクチャは理想的だ。少ない数の命令を処理するように作られていて、その分、高速処理が可能になる(1秒間に何百万という命令の中を駆けめぐる)。しかもそれは、複雑な命令の実行に必要とされるパワーの数分の一で済む。やがては、ARMベースのサーバー・マイクロプロセッサがクラウド・データセンターで活躍するようになるとさえ、私は考えている。

これらすべてはシリコンの上で行われるため、私たちはそもそものルーツに回帰することになるだろう。私は、シリコンバレーにシリコンを呼び戻す投資家を応援したい。そして彼らが、新たな半導体巨大企業を生み出すものと信じている。

【編集部注】著者のNavin Chaddha(ネイビン・チャダー)氏は、消費者向けおよび企業向けのアーリーステージのハイテク系企業を対象とした投資会社Mayfieldの代表。現在27億ドル(約2870億円)の運用資金を有する。

[原文へ]

(翻訳:金井哲夫)