リッチなXeon 6製品ポートフォリオ
Intel Xeon 6パフォーマンスコアプロセッサは、計算集約型のワークロード用に設計されており、非常に柔軟な構成オプションを提供します。16〜128の範囲のコアカウントにより、顧客は特定のアプリケーションの最適な構成を選択できます。高速接続とマルチコア並列処理を必要とする従来の大規模データベースなどのワークロードの場合、新しいXeon 6700/6500パフォーマンスコアプロセッサは、コアカウント、I/O帯域幅、およびメモリ容量の大幅な改善をもたらします。さらに、4方向および8方向のサーバー構成をサポートし、高速UPI相互接続を活用してマルチコアパフォーマンスを完全に解き放つため、高性能データベースアプリケーションに最適です。
最大128コアを備えたXeon 6900パフォーマンスコアプロセッサと同様に、Xeon 6700/6500パフォーマンスコアプロセッサは、最大6400MT/S DDR5メモリ、8800MT/S MRDIMMメモリ、および64 CXL 2.0レーンをサポートしています。CXL拡張メモリを使用すると、ユーザーはサーバーメモリ容量を低コストで拡張できます。CXL 2.0テクノロジーを使用すると、Intelは「フラットメモリモード」機能も提供します。これは、CXLメモリに保存されたホットデータと温かいデータを自動的にシフトし、パフォーマンスと容量のバランスを取ります。
大規模なストレージソリューション(SSD)とコンテンツ配信ネットワーク(CDN)に依存してスムーズなビデオエクスペリエンスを提供するプラットフォームを必要とする企業の場合、I/O接続が重要です。さらに、AIサーバーには複数のGPU接続が必要であり、強化されたCPUとプラットフォームI/Oスケーラビリティを要求します。Xeon 6700/6500パフォーマンスコアプロセッサは、シングルソケットプラットフォームで最大136のPCIEレーンをサポートしており、高接続性の需要を満たすための堅牢な拡張性を提供します。
データセンターヘッドノード
最新のAIシステムでは、GPUとCPUの両方が重要な役割を果たしています。ヘッドノードCPUは、大規模システムでの24時間365日の動作の信頼性、可用性、およびサービス可能性(RAS)要件を満たしながら、例外的なI/O速度、強力なシングルスレッドパフォーマンス、および高いメモリ帯域幅と容量を提供する必要があります。さらに、データセンターのスペース使用率を最適化し、冷却効率を改善し、多様なワークロードに適応するためには、さまざまなフォームファクターと構成の柔軟なサポートが不可欠です。
AIシステムのヘッドノードCPUとして、Xeon 6はGPUとシームレスにペアを組み、より速いI/O速度を提供し、GPUポテンシャルを最大化するためにシングルコアパフォーマンスを向上させます。典型的なデュアルソケットヘッドノード構成では、Xeon 6700パフォーマンスコアプロセッサプラットフォームは最大172のCPUコア(344スレッド)を提供し、16 DDR5高速メモリチャネル(32メモリスロット)および176 PCIE 5.0レーン(そのうち128はCXL 2.0レーンとして構成できます)を備えています。
強力なAI推論パフォーマンス
AI推論の場合、Xeon 6プロセッサはIntel Advanced Matrix Extensions(AMX)を活用し、コアが少ない最大1.5x AI推論パフォーマンスの改善1を提供します。この利点により、従来の機械学習、小規模な生成AIモデル、GPUアクセラレーションのワークロードに非常に効果的になります。Xeon 6は、推奨エンジン、音声アシスタント、画像認識などの従来のAIアプリケーションで、堅牢な計算サポートを提供します。200億パラメーターが少ない生成AIモデルであっても、Xeon 6は引き続き印象的なパフォーマンスを示しています。
さらに、小言語モデルのAI推論は、最初のトークンを生成するために高い計算能力を必要とするだけでなく、推論プロセス全体でかなりのメモリ帯域幅を必要とします。Xeon 6プロセッサは、MRDIMMテクノロジーをサポートした業界で初めてであり、最大8800MT/sの超高メモリ速度を提供しています。MRDIMMテクノロジーにより、帯域幅が大幅に向上し、Xeonプラットフォーム上の小さなLLMS、従来の深い学習、推奨システムのシームレスな実行を可能にします。これにより、Xeon 6パフォーマンスコアプロセッサの可能性が最大限に発生します。