外観が公開されたテスラのスーパーコンピューター「Dojo」

tesla-dojo-02 TESLA News
https://youtu.be/FLZ6dYQpzeg
スポンサーリンク

テスラはホット・チップス34に参加し、同社のスーパーコンピュータ「Dojo」とチップアーキテクチャについて、気の遠くなるような情報を大量に共有しました。

AMDで約17年間Opteronプロセッサに携わっていたテスラのエミール・タルペス氏がホット・チップス34で共有したDojoに関する詳細は、あくまでタイルとDojo全体のハードウェアと能力に関するものです。その性能については、去年に引き続いて開催される9月30日に開催されるテスラの人工知能イベント「AIデー2」で語られる予定です。

マスク氏によれば、スーパーコンピューター「Dojo」の目標は以下のとおりです。

「ビデオトレーニングで本当に良いものを作ることです。我々は、AIトレーニングのために、おそらく世界で4番目か3番目に強力なコンピューティングセンターを持っています。Dojoの最初の目標は、それを競争力のあるものにし、GPUの束よりも効果的なニューラルネットのトレーニングにすることです。」

https://youtu.be/FLZ6dYQpzeg

テスラは、保有する車両からの大量の映像データを処理するために多くのコンピューティングパワーを必要とするため、独自のシステムオンウエハーソリューションを構築しています。サーブザホームによると、「各D1ダイは、15kWで25個のダイを持つタイルに集積され、25個のD1ダイの他に、40個の小型のI/Oダイがあります。」

すべての電力と冷却は、トレーニングタイルに直接統合されており、タイル上のバイセクション帯域幅は10TB/s、タイル外のアグリゲート帯域幅は36TB/sが可能とのことです。このアーキテクチャにより、タイル間を9TB/sでリンクして拡張することが可能で、また、タイルはプラグイン可能ともなていおり、独自のサーバーは必要ありません。

https://youtu.be/FLZ6dYQpzeg

タルペス氏は発表の最後に、「我々のアプリケーションの決定的な目標はスケーラビリティです。」と述べました。「コヒーレンシ、仮想メモリ、グローバルルックアップディレクトリなど、一般的なCPUに搭載されている機構は、大規模なシステムにスケールアップする際にうまく機能しないため、あまり重要視していません。その代わりに、メッシュ全体に分散された非常に高速なSRAMストレージを採用しています。そしてこれは、一般的な分散システムに見られるような、桁外れに高速なインターコネクトに支えられています。」

テスラが舞台裏で構築しているものの内情は、テスラが人工知能とニューラルネットのトレーニングにおいて最前線にいる理由を証明しています。テスラが常にスケーラビリティと革新的なテクノロジーを自動車会社のあらゆる活動の最前線に置いていることを知り、テスラコミュニティにさらなる安心感を与えています。

アナスタシスインテックによるテスラのホット・チップ34プレゼンテーションの模様は以下でご覧ください。

この記事はこのサイトを引用・翻訳・抜粋・編集して作成しています。

テスラ関連の最新ニュースをほぼ毎日アップしていますのでこちらを参照ください。

 グーグルニュースでフォローする

※免責事項:この記事は主にテクノロジーの動向を紹介するものであり、投資勧誘や法律の助言などではありません。また、記事の正確性を保証するものでもありません。掲載情報によって起きたいかなる直接的及び間接的損害に対しても、筆者・編集者・運営者は一切責任を負いません。また、運営者はテスラ株式のホルダーです。

タイトルとURLをコピーしました