Tôi đã vẽ biểu đồ dung lượng bộ nhớ so với nhu cầu và tôi đang cố gắng phá vỡ mô hình của chính mình. @zephyr_z9 Tôi có bỏ lỡ điều gì không? P/E tương lai khoảng ~6 trên SK Hynix trông như một món hời tuyệt đối. Bộ nhớ - $MU, Samsung, Sk Hynix, $SNDK - HBM không thể sử dụng nếu không có đóng gói 2.5D tiên tiến. Các cụm HBM phải được đặt bên cạnh GPU/ASIC trên một interposer silicon, và sau đó được tích hợp vào một gói duy nhất. Bước đó là điều mà CoWoS cung cấp. Nếu bạn không thể đóng gói, bạn không thể vận chuyển các bộ tăng tốc dựa trên HBM, ngay cả khi các tấm DRAM tồn tại. - Dung lượng CoWoS tăng trưởng chậm hơn so với sản lượng tấm DRAM. Mở rộng CoWoS cần các công cụ mới, không gian phòng sạch và các đầu vào chuỗi cung ứng chuyên biệt (interposer lớn, nền tảng tiên tiến, quy trình TSV). Những thứ đó có thời gian dẫn dài hơn so với sự thay đổi dung lượng fab DRAM. - Các bộ tăng tốc AI rất cần đóng gói. Một gói bộ tăng tốc AI đơn lẻ có thể tiêu tốn rất nhiều dung lượng CoWoS vì các interposer lớn và tỷ lệ thành công khó khăn hơn. Điều này làm cho "số lượng hiệu quả mỗi tháng" thấp hơn những gì mọi người mong đợi từ tư duy dựa trên tấm. - Hầu hết các bộ tăng tốc AI có khối lượng lớn phụ thuộc vào CoWoS của TSMC. Có các lựa chọn thay thế (Samsung I‑Cube/X‑Cube, Intel EMIB/Foveros), nhưng hệ sinh thái và khối lượng hiện tại chủ yếu tập trung quanh CoWoS, điều này tạo ra một điểm nghẽn duy nhất. - Các nút thắt trong đóng gói lan truyền đến nguồn cung HBM. Các nhà cung cấp HBM có thể sản xuất các tấm, nhưng nếu dung lượng đóng gói cho các mô-đun cuối cùng hoặc các gói bộ tăng tốc bị chặt chẽ, việc phân bổ HBM sẽ bị phân phối và trông giống như một sự thiếu hụt nguồn cung.