Я побудував співвідношення обсягу пам'яті та попиту і намагаюся зламати власну модель. @zephyr_z9 Я щось пропускаю? Прогноз P/E ~6 на SK Hynix виглядає як справжня вигідна пропозиція. Пам'ять — $MU, Samsung, Sk Hynix $SNDK - HBM не можна використовувати без розширеного 2.5D-пакування. HBM-стеки мають розміщуватися поруч із GPU/ASIC на кремнієвому інтерпозері, а потім інтегруватися в один корпус. Цей крок і забезпечує CoWoS. Якщо ви не можете пакувати, ви не можете відправляти прискорювачі на базі HBM, навіть якщо існують DRAM-пластини. - Потужність CoWoS масштабується повільніше, ніж вихід пластин DRAM. Розширення CoWoS потребує нових інструментів, простору для чистих приміщень і спеціалізованих ресурсів для ланцюга постачання (великі інтерпозери, сучасні субстрати, процеси TSV). Вони мають довші терміни доставки, ніж зміни у виробництві DRAM. - AI-акселератори мають багато пакетних ресурсів. Один пакет AI-акселератора може споживати багато потужностей CoWoS, оскільки інтерпозери великі і вихід вищий. Це робить ефективні «одиниці на місяць» нижчими, ніж очікують від мислення на основі вафлі. - Більшість прискорювачів ШІ з великим обсягом залежать від CoWoS від TSMC. Існують альтернативи (Samsung I-Cube/X-Cube, Intel EMIB/Foveros), але сьогодні екосистема та обсяги найбільше зосереджені навколо CoWoS, що створює єдину вузьку точку. - Вузькі місця пакування поширюються до постачання HBM. Постачальники HBM можуть виробляти пластини, але якщо місткість упаковки для фінальних модулів або акселератора обмежена, розподіл HBM нормується і виглядає як дефіцит постачання.