Stanford vừa giết chết việc tinh chỉnh LLM phải không? Bài báo mới này từ Stanford, có tên là Kỹ thuật Ngữ cảnh Tác động (ACE), chứng minh một điều điên rồ: bạn có thể làm cho các mô hình thông minh hơn mà không cần thay đổi một trọng số nào. Đây là cách nó hoạt động: Thay vì đào tạo lại mô hình, ACE phát triển chính ngữ cảnh. Mô hình tự viết lời nhắc của mình, phản ánh những gì đã hoạt động và những gì không, sau đó viết lại nó. Lặp đi lặp lại. Nó trở thành một hệ thống tự cải thiện. Hãy nghĩ về nó như mô hình giữ một cuốn sổ tay sống, nơi mỗi thất bại trở thành một bài học và mỗi thành công trở thành một quy tắc. Kết quả thật ấn tượng: - Tốt hơn 10.6% so với các tác nhân được hỗ trợ bởi GPT-4 trên AppWorld - Cải thiện 8.6% trong các nhiệm vụ lý luận tài chính - Giảm 86.9% chi phí và độ trễ Không cần dữ liệu được gán nhãn. Chỉ cần các vòng phản hồi. Đây là phần ngược lại: Mọi người đều đang theo đuổi những lời nhắc ngắn gọn, rõ ràng. ACE làm điều ngược lại. Nó xây dựng các sách hướng dẫn dày đặc, phát triển theo thời gian. Hóa ra LLM không cần sự đơn giản. Chúng cần độ dày ngữ cảnh. Câu hỏi ở đây là làm thế nào để quản lý tất cả thông tin và kinh nghiệm này. Đây là nơi xây dựng một lớp bộ nhớ thời gian thực cho các Tác nhân (ví dụ: @zep_ai) có thể là một giải pháp tuyệt vời và là lĩnh vực nghiên cứu tích cực trong tương lai. Bạn nghĩ gì về điều này? Tôi đã liên kết bài báo trong tweet tiếp theo! ____ Nếu bạn thấy nó hữu ích, hãy chia sẻ lại với mạng lưới của bạn. Tìm tôi → @akshay_pachaar ✔️ Để có thêm thông tin và hướng dẫn về LLM, Tác nhân AI và Học máy!
Liên kết đến tài liệu:
53,03K