Thực sự cảm giác như tôi đang làm việc với một đội ngũ hơn 10 người kể từ khi GPT-5 ra mắt. HVM4 chỉ mới 1 tháng tuổi và nó đã vượt trội HVM3 ở mọi khía cạnh. Chúng tôi hiện có một chế độ song song nguyên mẫu (đúng vậy, với việc đánh giá lười!) đang hoạt động, với tốc độ tăng tốc như mong đợi.
Hãy nhớ rằng chế độ song song đã: - Bị hỏng trên HVM1 (mà lười biếng) - Tuyệt vời trên HVM2 (nhưng nó nghiêm ngặt) - Không bao giờ được triển khai trên HVM3 Việc có chế độ song song + lười biếng đúng là một vấn đề còn bỏ ngỏ, nhưng với thiết lập này, cuối cùng chúng ta cũng đang tiến gần đến đó. Nếu nó hoạt động, điều đó có nghĩa là chúng ta có thể mở rộng SupGen bằng cách đánh giá đa luồng thực sự, nhanh hơn nhiều so với việc phân mảnh mà chúng ta đang thực hiện hiện tại. Bây giờ, một lần nữa, thật buồn khi chúng ta có 256 mac mini, vì điều đó được tối ưu hóa cho việc phân mảnh. Đó là 1024 lõi hiệu suất, chia thành 256 đơn vị với 4 lõi, mỗi cái 16 GB. Với tính song song thực sự, chúng ta có thể đã chọn Mac Studios thay vào đó. Nhưng liệu điều đó có thực sự đáng giá không? Với cùng một số tiền, chúng ta có thể đã có 16 studios, với 512 GB bộ nhớ, và 24 lõi hiệu suất mỗi cái. Vì vậy, trong khi điều đó cho phép chúng ta tận dụng tối đa tính song song thực sự, điều đó cũng có nghĩa là chúng ta có tổng cộng ít hơn khoảng ~3x tính toán. Liệu điều đó có đáng giá không, thì? Tôi thực sự không biết, nhưng chúng ta sẽ sớm tìm ra. Có lẽ tôi đã đưa ra lựa chọn đúng (mặc dù tôi có thông tin không đầy đủ)
Hãy nhớ rằng chế độ song song đã: - Bị hỏng trên HVM1 (mà lười biếng) - Tuyệt vời trên HVM2 (nhưng nó nghiêm ngặt) - Không bao giờ được triển khai trên HVM3 (vấn đề Haskell) Việc có chế độ song song + lười biếng đúng vẫn là một vấn đề mở, nhưng với thiết lập này, cuối cùng chúng ta đang tiến gần đến đó. Nếu nó hoạt động, điều đó có nghĩa là chúng ta có thể mở rộng SupGen bằng cách đánh giá đa luồng thực sự, nhanh hơn nhiều so với việc phân mảnh mà chúng ta đang thực hiện hiện tại. Bây giờ, một lần nữa, thật buồn khi chúng ta có 256 mac mini, vì điều đó được tối ưu hóa cho việc phân mảnh. Đó là 1024 lõi hiệu suất, chia thành 256 đơn vị với 4 lõi, mỗi cái 16 GB. Với tính song song thực sự, chúng ta có thể đã chọn Mac Studios thay vào đó. Nhưng liệu điều đó có thực sự đáng giá không? Với cùng một $, chúng ta có thể đã có 16 studios, với 512 GB bộ nhớ, và 24 lõi hiệu suất mỗi cái. Vì vậy, trong khi điều đó cho phép chúng ta tận dụng tối đa tính song song thực sự, điều đó cũng có nghĩa là chúng ta có tổng cộng ít hơn khoảng ~3x tính toán. Liệu điều đó có đáng giá không, thì? Tôi thực sự không biết, nhưng chúng ta sẽ sớm tìm ra. Có thể tôi đã đưa ra lựa chọn đúng (mặc dù tôi có thông tin không đầy đủ)
@0xHP10 cũng viết rất nhiều bài kiểm tra và yêu cầu AI chạy chúng cho mỗi thay đổi nhỏ mà nó thực hiện. gpt-5 rất, rất giỏi trong việc tự sửa lỗi (và thậm chí học hỏi và hiểu biết) dựa trên các bài kiểm tra không thành công.
@0xHP10 cũng viết các bài kiểm tra tốt và yêu cầu AI chạy chúng cho mỗi thay đổi nhỏ mà nó thực hiện. gpt-5 rất giỏi trong việc tự sửa lỗi (và thậm chí học hỏi) dựa trên các bài kiểm tra không thành công.
26,6K