ネットサービス
機械学習 / ML(用語)
AWS re:invent(イベント)
Amazon Web Services / AWS(製品・サービス)
Amazon / アマゾン(企業)

AWSが機械学習トレーニング用の新カスタムチップTrainiumを発表

次の記事

AWSがデータストア間でデータを簡単に移動できるGlue Elastic Viewsを発表

米国時間12月1日、毎年開催されている開発者向けカンファレンスのre:Inventで、AWSはAWS Trainiumを今後提供すると発表した。Trainiumは機械学習モデルのトレーニング専用に開発された同社の次世代カスタムチップだ。クラウドの競合のどこよりもパフォーマンスが高く、TensorFlow、PyTorch、MXNetに対応するとしている。

このチップはEC2インスタンスとして提供され、同社の機械学習プラットフォームであるAmazon SageMakerで利用できるようになる。

このカスタムチップを利用する新しいインスタンスは、2021年の提供開始を予定している。

このカスタムチップの重要なポイントはスピードとコストだ。AWSは、標準のAWS GPUインスタンスと比べてスループットは30%向上し、推論あたりのコストは45%下がるとしている。

また、AWSはIntel(インテル)と提携して機械学習のトレーニング向けにHabana GaudiベースのEC2インスタンスを提供する。2021年に、現在のGPUベースの機械学習向けEC2インスタンスと比べて価格性能比は最大40%向上するという。このチップはTensorFlowとPyTorchに対応する。

この新しいチップは、AWSクラウドで2021年前半に提供が開始される予定だ。

この2つのチップは、2019年のre:Inventで発表されたAWS Inferentiaを補完するものだ。Inferentiaは機械学習の推論の部分を担うもので、これもカスタムチップを使用している。

注目すべき点として、TrainiumにはInferentiaと同じSDKが利用される。

AWSは次のように発表している。「Inferentiaは機械学習インフラストラクチャのコストの最大90%を占める推論のコストを下げましたが、開発者の多くは機械学習のトレーニングの予算にも制約を受けています。そのため、モデルとアプリケーションを向上するために必要なトレーニングの範囲と頻度が制限されています。AWS Trainiumは、クラウドにおける機械学習のトレーニングに最高のパフォーマンスと最低のコストを提供して、この課題を解決します。お客様はTrainiumとInferentiaの両方を利用して、トレーニングのワークロードのスケーリングから高速な推論の展開まで、機械学習コンピューティングの最初から最後までのフローを実現できます」。

カテゴリー:ネットサービス
タグ:AWS re:InventAWSAmazon機械学習

原文へ

(翻訳:Kaori Koyama)