外観が公開されたテスラのスーパーコンピューター「Dojo」

tesla-dojo-02 TESLA News
https://youtu.be/FLZ6dYQpzeg
スポンサーリンク

テスラはホット・チップス34に参加し、同社のスーパーコンピュータ「Dojo」とチップアーキテクチャについて、気の遠くなるような情報を大量に共有しました。

AMDで約17年間Opteronプロセッサに携わっていたテスラのエミール・タルペス氏がホット・チップス34で共有したDojoに関する詳細は、あくまでタイルとDojo全体のハードウェアと能力に関するものです。その性能については、去年に引き続いて開催される9月30日に開催されるテスラの人工知能イベント「AIデー2」で語られる予定です。

マスク氏によれば、スーパーコンピューター「Dojo」の目標は以下のとおりです。

「ビデオトレーニングで本当に良いものを作ることです。我々は、AIトレーニングのために、おそらく世界で4番目か3番目に強力なコンピューティングセンターを持っています。Dojoの最初の目標は、それを競争力のあるものにし、GPUの束よりも効果的なニューラルネットのトレーニングにすることです。」

https://youtu.be/FLZ6dYQpzeg

テスラは、保有する車両からの大量の映像データを処理するために多くのコンピューティングパワーを必要とするため、独自のシステムオンウエハーソリューションを構築しています。サーブザホームによると、「各D1ダイは、15kWで25個のダイを持つタイルに集積され、25個のD1ダイの他に、40個の小型のI/Oダイがあります。」

すべての電力と冷却は、トレーニングタイルに直接統合されており、タイル上のバイセクション帯域幅は10TB/s、タイル外のアグリゲート帯域幅は36TB/sが可能とのことです。このアーキテクチャにより、タイル間を9TB/sでリンクして拡張することが可能で、また、タイルはプラグイン可能ともなていおり、独自のサーバーは必要ありません。

https://youtu.be/FLZ6dYQpzeg

タルペス氏は発表の最後に、「我々のアプリケーションの決定的な目標はスケーラビリティです。」と述べました。「コヒーレンシ、仮想メモリ、グローバルルックアップディレクトリなど、一般的なCPUに搭載されている機構は、大規模なシステムにスケールアップする際にうまく機能しないため、あまり重要視していません。その代わりに、メッシュ全体に分散された非常に高速なSRAMストレージを採用しています。そしてこれは、一般的な分散システムに見られるような、桁外れに高速なインターコネクトに支えられています。」

テスラが舞台裏で構築しているものの内情は、テスラが人工知能とニューラルネットのトレーニングにおいて最前線にいる理由を証明しています。テスラが常にスケーラビリティと革新的なテクノロジーを自動車会社のあらゆる活動の最前線に置いていることを知り、テスラコミュニティにさらなる安心感を与えています。

アナスタシスインテックによるテスラのホット・チップ34プレゼンテーションの模様は以下でご覧ください。

この記事はこのサイトを引用・翻訳・抜粋・編集して作成しています。

テスラ関連の最新ニュースをほぼ毎日アップしていますのでこちらを参照ください。

 グーグルニュースでフォローする
タイトルとURLをコピーしました