Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Narysowałem wykres pojemności pamięci w porównaniu do popytu i próbuję złamać swój własny model.
@zephyr_z9 Czy coś mi umknęło?
Forward P/E na poziomie ~6 dla SK Hynix wygląda jak absolutna okazja.
Pamięć - $MU, Samsung, Sk Hynix, $SNDK
- HBM nie jest użyteczne bez zaawansowanego pakowania 2.5D. Stosy HBM muszą być umieszczone obok GPU/ASIC na interposerze krzemowym, a następnie zintegrowane w jedną paczkę. Ten krok zapewnia CoWoS. Jeśli nie możesz zapakować, nie możesz wysłać akceleratorów opartych na HBM, nawet jeśli wafry DRAM istnieją.
- Pojemność CoWoS rośnie wolniej niż produkcja wafrów DRAM. Rozszerzenie CoWoS wymaga nowych narzędzi, przestrzeni w czystych pomieszczeniach i wyspecjalizowanych dostaw materiałów (duże interposery, zaawansowane podłoża, procesy TSV). Te mają dłuższe czasy realizacji niż zmiany pojemności fabryk DRAM.
- Akceleratory AI są intensywne pod względem pakowania. Jedna paczka akceleratora AI może zużywać dużo pojemności CoWoS, ponieważ interposery są duże, a wydajność jest trudniejsza. To sprawia, że efektywna liczba „jednostek na miesiąc” jest niższa niż ludzie oczekują, myśląc o wafrach.
- Większość akceleratorów AI o dużej objętości zależy od CoWoS TSMC. Istnieją alternatywy (Samsung I‑Cube/X‑Cube, Intel EMIB/Foveros), ale ekosystem i objętość dzisiaj są najbardziej skoncentrowane wokół CoWoS, co tworzy jeden punkt wąskiego gardła.
- Wąskie gardła w pakowaniu wpływają na podaż HBM. Dostawcy HBM mogą produkować wafry, ale jeśli pojemność pakowania dla finalnych modułów lub paczek akceleratorów jest ograniczona, alokacja HBM jest racjonowana i wygląda jak niedobór podaży.


Najlepsze
Ranking
Ulubione
