Automatic Reasoning and Tool-use (ART)
Theo: https://www.promptingguide.ai/techniques/art
Việc kết hợp các lời nhắc theo chuỗi tư duy – CoT (Chain-of-Thought) và các công cụ theo cách xen kẽ đã được chứng minh là một phương pháp mạnh mẽ và hiệu quả để giải quyết nhiều nhiệm vụ với LLM. Các phương pháp này thường yêu cầu các bản trình diễn nhiệm vụ cụ thể thủ công được tạo ra và việc xen kẽ được lập trình cẩn thận giữa việc tạo mô hình với việc sử dụng công cụ. Paranjape và cộng sự, (2023) đề xuất một khuôn khổ mới sử dụng LLM đóng băng để tự động tạo ra các bước suy luận trung gian dưới dạng một chương trình.
ART hoạt động như sau:
với một nhiệm vụ mới, nó chọn các bản trình diễn về suy luận nhiều bước và sử dụng công cụ từ thư viện các nhiệm vụ
tại thời điểm kiểm tra, nó tạm dừng việc tạo sinh bất cứ khi nào các công cụ bên ngoài được gọi và tích hợp đầu ra của chúng trước khi tiếp tục tạo sinh.
ART khuyến khích mô hình khái quát hóa từ các bản trình diễn để phân tích một nhiệm vụ mới và sử dụng các công cụ ở những vị trí thích hợp, theo cách không có lỗi nào. Ngoài ra, ART có thể mở rộng vì nó cũng cho phép con người sửa lỗi trong các bước suy luận hoặc thêm các công cụ mới bằng cách đơn giản là cập nhật thư viện các nhiệm vụ và công cụ. Quy trình được minh họa dưới đây:
ART cải thiện đáng kể so với việc nhắc với vài lần ví dụ/minh họa và CoT tự động dựa trên các tác vụ chưa được biết đến trong các phép đo chuẩn BigBench và MMLU, đồng thời vượt trội hơn hiệu suất của các lời nhắc CoT thủ công được tạo ra khi kết hợp phản hồi của con người.
Dưới đây là bảng minh họa hiệu suất của ART dựa trên các tác vụ BigBench và MMLU:
Về ‘Kỹ thuật viết lời nhắc’ ………. Phần trước ………. Phần tiếp theo
Combining CoT prompting and tools in an interleaved manner has shown to be a strong and robust approach to address many tasks with LLMs. These approaches typically require hand-crafting task-specific demonstrations and carefully scripted interleaving of model generations with tool use. Paranjape et al., (2023) propose a new framework that uses a frozen LLM to automatically generate intermediate reasoning steps as a program.
ART works as follows:
given a new task, it select demonstrations of multi-step reasoning and tool use from a task library
at test time, it pauses generation whenever external tools are called, and integrate their output before resuming generation
ART encourages the model to generalize from demonstrations to decompose a new task and use tools in appropriate places, in a zero-shot fashion. In addition, ART is extensible as it also enables humans to fix mistakes in the reasoning steps or add new tools by simply updating the task and tool libraries. The process is demonstrated below:
ART substantially improves over few-shot prompting and automatic CoT on unseen tasks in the BigBench and MMLU benchmarks, and exceeds performance of hand-crafted CoT prompts when human feedback is incorporated.
Below is a table demonstrating ART's performance on BigBench and MMLU tasks:
Dịch: Lê Trung Nghĩa
letrungnghia.foss@gmail.com

_1.png)
_2.png)
Không có nhận xét nào:
Đăng nhận xét
Lưu ý: Chỉ thành viên của blog này mới được đăng nhận xét.