The Impact of Reasoning Step Length on Large Language Models
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/467a47d8-3ba3-4b75-acb7-1bd4b7833201/bae0ce0648fcd85d65fe6ee5845a7525.png)
概要
- LLMの推論のstep数を増やせば増やすほど、推論の正確性も上がるという研究報告
- 単純に“let’s think step by step, you must think more steps”のようなプロンプトを与えることでstep数を増やす手法でもかなりの性能向上が見られた。
- Zero-shotでも、Manual-CoTやAuto-CoTなどのFew-shotを超える結果も。
- その他、”Think of word”、”Read the question again”など5つの方法で推論ステップを増やす実験。
- 具体例は論文参照
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/e9c7502f-8a63-4569-a4b7-ea9fa6280644/0054c17ade34b31fb828aab09066b59d.png)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/42b41e72-8fab-4e9f-8444-87f6df8d927b/707963cc0e6976942c28d145cd3989ff.png)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/0b4429a6-a5a2-448c-bf77-0d8ad106ab04/662ba221fbd41f11d37d201e15bc2489.png)