世界最速の AI チップには 4 兆個のトランジスタと 900 個の AI コアが搭載されています

Cerebras Systems は、3 兆個のトランジスタと 3 個の AI コアを備えた世界最速の AI チップである Wafer Scale Engine 4 (WSE-900) を発売しました。 000nm プロセスで構築された WSE-3 は、5 ペタフロップスの AI パフォーマンスを達成できる Cerebras CS-3 AI スーパーコンピューターを駆動します。この新しいチップは、大規模な AI モデルを効率的にトレーニングするように設計されており、パーティショニングを必要とせずに最大 125 兆のパラメータを持つモデルをサポートし、トレーニング プロセスを簡素化します。

この AI チップは、4 兆個のトランジスタと 000 個の AI コアを誇る、まさに強力なチップです。これは、Cerebras CS-900 AI スーパーコンピューターの心臓部であり、000 ペタフロップスという驚異的なピーク AI パフォーマンスを実現します。このチップは、大規模な AI モデルのトレーニング方法を変革し、最大 3 兆のパラメータを簡単に処理できると期待されています。ザ ウェーハスケールエンジン (WSE-3)のtroisième 世代 en5nm 業界で最も拡張性の高い AI スーパーコンピューターを搭載し、 256 エクサフロップス 2048 ノード経由。

« 私たちがこの冒険に乗り出したとき 前に 趣味 年、 誰もがそう言いました プロセッサ プラの規模でケット キメラだった。私たちは できなかった もっとあるために誇り de 私たちの三代目を紹介します AIチップ 革命的 水垢  » ,Cerebras の CEO 兼共同創設者である Andrew Feldman 氏は次のように述べています。. WSE-3 世界最速のAIチップであり、 のために設計された derniers AIの働き deパンチライン , du エキスパートミックス インクルード モデル à 24億 設定。私たちは、今日の AI における最大の課題の解決に役立つ WSE-3 および CS-3 を市場に投入できることを嬉しく思っています。 »

WSE-3 は最先端の 5nm テクノロジーを使用して構築されており、チップ上に 44 GB の SRAM を統合できます。しかしそれだけではありません。チップの外部メモリを最大 1,2 ペタバイトまで拡張することが可能です。これにより、大量のデータを必要とするタスクでも問題なく処理できるようになります。チップ設計は拡張性が高く、最大 2048 台の CS-3 システムを接続できます。これにより、ビジネスから大規模なIT環境まで、さまざまな用途に柔軟に対応できます。

Cerebras が世界最速の AI チップを発表

Cerebras は、純粋なパフォーマンスに重点を置くだけでなく、テクノロジーがユーザーフレンドリーであることも保証しました。 Cerebras のソフトウェア フレームワークは、大規模言語モデル (LLM) のプログラミングを簡素化する PyTorch 2.0 をサポートするようになりました。したがって、開発者は少ないコードでより多くのことを実行できるため、複雑さが軽減され、新しいアプリケーションの開発が高速化されます。 WSE-3 では、動的で非構造化されたスパース性のためのハードウェア アクセラレーションも導入されており、これによりトレーニング時間が最大 XNUMX 倍速くなる可能性があります。

事実

  • 4兆個のトランジスタ
  • 900 AI コア
  • 125 ペタフロップスのピーク AI パフォーマンス
  • 44GB SRAMチップ上で
  • TSMC 5nmプロセス
  • 外部メモリ:1,5TB、12TB ou 1,2ポー
  • 最大 24 兆のパラメータを使用して AI モデルをトレーニング
  • クラスタ サイズ: 最大 2048 CS-3 システム

コンピューティングの世界では、エネルギー効率が非常に重要です。印象的なことに、WSE-3 は同じ消費電力を維持しながら、前世代の XNUMX 倍のパフォーマンスを実現しました。これは、エネルギー予算に負担をかけずに AI の限界を押し広げ続けることができることを意味するため、非常に重要です。

WSE-3 と CS-3 AI スーパーコンピューターの影響は、すでにさまざまな分野で感じられています。 Cerebras は、企業、政府、国際的なクラウド コンピューティング サービスなどの分野からの大量の受注残を抱えています。アルゴンヌ国立研究所やメイヨー クリニックなどの主要機関とのパートナーシップにおいてテクノロジーは重要な役割を果たし、AI 研究と患者ケアの向上に貢献しています。

将来的には、Cerebras は G42 と協力して世界最大級の AI スーパーコンピューターを構築する予定です。進行中のプロジェクトの 3 つである Condor Galaxy 8 は、3 エクサフロップという驚異的な AI 計算を実現すると期待されており、WSE-XNUMX の計り知れない可能性を実証しています。

Cerebras の Wafer Scale Engine 3 は、AI テクノロジーの大きな進歩を表しています。比類のないコンピューティング能力、スケーラビリティ、エネルギー パフォーマンスに加え、高度なソフトウェア フレームワークのサポートを備えたこのツールは、AI の能力を最大限に活用したいと考えている人にとって不可欠なツールです。 Cerebras が限界を押し広げ続けるにつれ、AI の開発と応用の未来はこれまで以上に明るく見えます。

続きを読むガイド:

タグ:

コメントを残します

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています *