Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[2022]Chain-of-Thought Prompting Elicits Reasoning in Large Language Models #12

Open
takumi7110 opened this issue Sep 27, 2023 · 2 comments

Comments

@takumi7110
Copy link
Owner

takumi7110 commented Sep 27, 2023

【実験結果】
• モデルの推論はほとんど正確であるが、数学の問題では偶然正しい答えにたどり着くことが難しいため、Chain-of-Thought Prompting の結果が正しい答えになることが多い。
• 多肢選択問題やバイナリ分類問題では、モデルが誤った推論経路で正しい答えにたどり着くことがより多い。
• Chain-of-Thought Prompting の生成された推論経路の完全性については、今後の研究で分析する必要がある。
【考察】
• Chain-of-Thought Prompting は、大規模な言語モデルに対して容易に適用できるため、多くのタスクを単一のモデルで実行することができる。
• Chain-of-Thought Prompting は、モデルの振る舞いを解釈可能にするため、モデルが特定の答えに到達するための推論経路をデバッグする機会を提供する。
•Chain-of-Thought Prompting は、算術、常識、象徴的な推論などのタスクに適用できるだけでなく、言語で解決できる人間のタスクにも適用できる可能性がある。

@takumi7110
Copy link
Owner Author

@takumi7110
Copy link
Owner Author

Chain-of-Thought Prompting : Promptingを、思考の過程の説明があるFew-Shotにする。(数学の文章問題等に有効)
2201 11903v6 Chain_of_Thought_Prompting_Elicits_Reasoning_in_Large_Language_Models-Figure3-1
2201 11903v6 Chain_of_Thought_Prompting_Elicits_Reasoning_in_Large_Language_Models-Figure4-1
2201 11903v6 Chain_of_Thought_Prompting_Elicits_Reasoning_in_Large_Language_Models-Figure7-1

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

1 participant