チャットGPTでDRAM市場のケトクサン、ブルブルブル

チャットGPTでDRAM市場のケトクサン、ブルブルブル
画像テキストの翻訳

(1)IBK企業銀行金融グループ
(2)IBK投資証券
(3)2023年4月3日
(4)IT半導体ディスプレイ キム·ウンホ
(5)AIがDRAM市場の中長期成長エンジンになること
(6)DRAMに対する需要不振は続いているが、AI関連DRAM需要は例外ChatGPTから始まったAIに対する関心はDRAM市場に肯定的な影響を及ぼしている。オムディアは、このような市場の変化は一時的なイベントではないと判断し、中長期DRAM市場の勢力図を変える重要なモメンタムになるものと期待し、AI実現のためには、GPGPUなど加速器を含めたコプロセッササーバー供給を拡大しなければならない。これでDRAM市場でHBMは加速器に対する需要増加の直接的な恩恵を受ける
(7)昨年までHBMは年平均40以上の成長率を記録し、22年末に発表した今年のHBM序章展望値はマクロ経済要因で増加率が30代に下がると予想されていたが、22年末と23年初めChatGPTの登場による関心によってHBMに対する需要は上方修正されている。 今年HBMはDRAM製品の中で例外的に50以上の高い成長率を記録するものと予想されている。 現在AI市場を主導しているNVIDIAとマイクロソフトの発展で他社との競争が加速化し、HBM4世代製品である需要が高まっている
(8)●HBMの需要が急速に増加すること
(9)オムディアはコプロセッササーバーに対する需要は2022年に全体サーバー市場の10を記録したが、最近の変化により25年~26年にはコプロセッサの割合が2倍以上増加し、20~30の割合で成長すると予想している
(10)HBM需要も2023年には全体サーバーDRAM市場の2~3を占めるものと予想されたが、25~26年の間に2倍以上増加するものと予想される。 コプロセッササーバーの高密度RDIMMとHBMを含むシステムメモリ需要は今年サーバーDRAMの10の割合を占めたが、25~26年には約30に増加すると予想されている
(11)さらに重要なことは、現在主力の自然言語処理NLPサービスではなく、今後イメージや動画にサービス範囲が拡大する際には、はるかに多くのコンピューティングパワーが求められるという点であることから、コンピューティングパワーの限界とされていたメモリの壁を克服するための業界の努力が続いている。このような努力の結実はコンピューティングエクスプレスリンクCXLで表われている。 CXL の核心はメモリ拡張とメモリプーリング

チャットGPTでDRAM市場のケトクサン、ブルブルブル

画像テキストの翻訳

(1)AI発展はDRAM市場成長の新規動力
(2)現在現れているAIの重大な変化はDRAM産業の短期的な需給問題を議論することに終わるイシューではない。AIの発展は今後IT市場に大きな変化をもたらすだろうし、このような変化はDRAM市場の中長期的な成長モメンタムになると判断し、またCXL拡散によるコンピューティングパワーの拡張と役割を考慮すると、将来のDRAM市場への影響は現在予想よりはるかに強力である
(3)現在、DRAM市場をめぐる懸念が多いマクロ経済変数による需要弱化とDRAMメーカーの前例のない高い在庫は市場の成長潜在力に対する疑問を拭えないが、オムディアは市場が2024年から回復期に入り2025年には相当な成長傾向を見せるだろうし、これを牽引するのはAI主導のサーバーDRAM需要になるだろうと展望した。 今回のマクロ経済変化以前の主要成長動力はスマートフォンとクラウドサーバーであったが、今回の激変以後の核心成長動力はAIになると展望し、このような変化の主要軸になる可能性がある 判断
(4)資料 OMDIA IBK投資証券

現在、会社のマーケティング部署でチャットGPTに対する考えはチャットGPTで超高性能メモリを含む顧客企業の半導体需要が増加するのは事実だが、これが一時的なものか持続的な需要かはまだ確信できない この程度に要約される。まだ一度も経験したことのない需要だから展望予測も当然保守的であるしかない。ところが私はこのような姿が以前どこかで見たデジャヴを感じるような気がするんだよ、まさに17~18年のメモリースーパーサイクル直前にね
16年まではメモリー需要のほぼ半分がモバイル、30価PCだった。 サーバーの割合は非常に低かったが、そのような状況で16年末から今まで一度も重要な市場として考えたことのないサーバー用メモリー需要が急増した。 三田モバイルアップルファーウェイではなく、急にアマゾングーグルマイクロソフトのようなビッグテック企業がメモリー注文を大量に入れ始めたら、会社関係者たちは皆戸惑っていただろう。 いや、これは本当だと思ったんだけど、それがまさにサーバーが率いたメモリースーパーサイクルの始まりであり、そして昨年からサーバーはモバイルを抜いてメモリー最大需要市場に戻ったとすれば想像するだろう できないこと
16年初めにアルファ碁とイ·セドルの囲碁対決グーグルディープマインドチャレンジマッチがあって、その時私たち皆衝撃を受けたが、それが本当のサーバー用メモリー需要爆発の出発点だとは全く思わなかった。 今はその時が変曲点だったことを知っているし、当時は分かりにくいけど、元々歴史で重要な変曲点はそんなに来る。 私はまだ客観的な根拠は貧弱な脳公式ではあるけど、今目撃しているチャットGPT革命でも16年当時グーグルディープマインドチャレンジマッチがくれた衝撃のデジャヴを感じる。 私もここに客観的な確信はない
そのような観点から今回出た市場調査機関オムディアのメモリー半導体レポートは、チャットGPTなどAIが率いるメモリー半導体、特にDRAMの爆発的な需要成長に対して非常に強い確信を持っており、そこでレポート要約本を添付で紹介してみる
そう見ると、17~18年のメモリースーパーサイクルはSSDがHDDを代替する変曲点のNAND需要が牽引しただけに、ストレージをHDDからSSDに代替するとコンピューティング速度が比較にならないほど速くなるんだ。その時はコンピューティング構造フォンノイマン構造の最も深刻なボトルネック区間がストレージであり、それを可能にしたのが2Dから3DへのNAND構造転換であるが、今はAI演算加速器CPU NPUなどで演算性能改善を阻害する最も大きな要因がメモリーDRAMとのボトルネック区間であるストレージはメモリほど重要ではない
したがって、一般汎用サーバーDRAMモジュールをCXL、さらにはHBMに変えてAI演算加速器とのチャネルバス帯域幅が道路の制限速度なら、チャネルバスは車線数の概念を大幅に増やしてこそこのボトルネック区間を解消できる。 PIMもこのボトルネック区間のために演算機能の一部を取り外してメモリに移すことです。 結局、CXL HBMPIMの目的はすべて同じであり、すぐにメモリ壁を解消することだと確信しています。 AI演算にはDRAMメモリが最も重要であると確信しています。 もしAIが最も重要なメモリブームであれば、その核心にはDRAMメモリはないでしょうか
また、私が今業界に回っているのを見ると、オームディアが展望すること、今年サーバー用DRAMの3水準より実際市場のHBM需要がはるかに強いようだ。それで特に現在HBM市場のほぼ7~80を掌握しているハイニックスはオームディアが予想するよりHBM売上比重がはるかに高くなりそうだと思う。 オームディアで予測する通りAI発展で24年からメモリー半導体市場が回復に入って25年からは再び強力な好況サイクルが来るかどうかは見守らなければならないし、希望回路を混ぜて私はそうなる可能性が決して少なくないと信じる

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

Scroll to Top