アマゾン・ウェブサービス(Amazon Web Services、AWS)が、次世代のNvidia(エヌビディア)グラフィックス処理ユニット(GPU)の冷却に向けたハードウェアを開発したことを発表しました。これらのGPUは人工知能(AI)ワークロードに使用されるもので、そのエネルギー消費量は甚大です。これにより、プロセッサを使用する企業は、追加の冷却設備を必要としています。
アマゾンは、Nvidia GPUに対応するために液体冷却の普及を考慮したデータセンターの設置を検討しましたが、実施には時間がかかり、市場に流通している設備は適切でないと、アマゾン・ウェブサービスのコンピュートおよび機械学習サービス担当副社長、デイブ・ブラウン(Dave Brown)が語っています。「これらの設備はデータセンターの床面積を占有しすぎるか、水使用量を大幅に増加させる」とブラウンは述べています。これらのソリューションは、他プロバイダーでは低い容量には効果があるかもしれませんが、我々の規模を支えるためには液体冷却能力が十分ではありません。
その代わり、アマゾンのエンジニアは、既存および新しいデータセンターに接続できる「イン・ロウ・ヒート・エクスチェンジャー(IRHX)」を考案しました。従来のNvidiaチップの世代には従来型の空気冷却で事足りていました。
顧客は、P6eと呼ばれるコンピューティングインスタンスとして、AWSのサービスにアクセスすることが可能です。新しいシステムは、大規模なAIモデルをトレーニング及び実行するために72個のNvidia Blackwell GPUを1ラックにまとめたNvidiaのGB200 NVL72設計に伴っています。
NvidiaのGB200 NVL72に基づくコンピューティングクラスターは以前、Microsoft(マイクロソフト)やCoreWeave(コアウィーブ)を通じて利用可能でした。AWSは世界最大のクラウドインフラ供給者です。
アマゾンはこれまでにも自社インフラのハードウェアを展開してきました。アマゾンは一般用途向けおよびAI向けのカスタムチップ、独自のストレージサーバーやネットワーキングルーターを設計しており、内製ハードウェアの運用により、第三者業者への依存を減少させています。これにより、同社の利益にも好影響を及ぼしています。第一四半期には、AWSは2014年以来最も広い営業利益率を記録し、この部門はアマゾンの純利益の大部分を占めています。
また、2位のクラウドプロバイダーであるMicrosoftもアマゾンの戦略に追随し、チップ開発において進展を見せています。2023年には、同社が開発したMaia AIチップを冷却するために、独自のシステム「サイドキックス(Sidekicks)」を設計しました。
今後もAWSは、最新のCPUチップを発表し、記録的なネットワーク速度を提供することを予定しています。



