Chain of Thought
2023年に人間が書いたもの
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
- We explore how generating a chain of thought—a series of intermediate reasoning steps—significantly improves the ability of large language models to perform complex reasoning. In particular, we show how such reasoning abilities emerge naturally in sufficiently large language models via a simple method called chain-ofthought prompting, where a few chain of thought demonstrations are provided as exemplars in prompting.
- Experiments on three large language models show that chain-of-thought prompting improves performance on a range of arithmetic, commonsense, and symbolic reasoning tasks. The empirical gains can be striking. For instance, prompting a PaLM 540B with just eight chain-of-thought exemplars achieves state-of-the-art accuracy on the GSM8K benchmark of math word problems, surpassing even finetuned GPT-3 with a verifier.
- https://arxiv.org/pdf/2201.11903.pdf
(DeepL)大規模言語モデルにおける推論を引き出す思考連鎖型プロンプティング
- 我々は、思考の連鎖(一連の中間推論ステップ)を生成することで、大規模言語モデルが複雑な推論を行う能力をいかに大幅に向上させるかを探求する。特に、思考連鎖プロンプトと呼ばれる、いくつかの思考連鎖のデモンストレーションをプロンプトの模範として提供する簡単な方法によって、十分に大きな言語モデルにおいて、そのような推論能力が自然に現れることを示す。
- 3つの大規模言語モデルを用いた実験により、思考連鎖プロンプトが算術、常識、記号の推論タスクのパフォーマンスを向上させることが示された。経験的な向上は顕著である。例えば、PaLM 540Bにわずか8個の思考連鎖の模範解答を与えることで、数学の単語問題のGSM8Kベンチマークで最先端の精度を達成し、検証機を用いて細かく調整したGPT-3をも凌ぐ。
LangChain Glossary
推論タスクが苦手なのでPromptingで改善する
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
https://arxiv.org/abs/2201.11903
Zero-Shot CoT
2025年に書いたもの(+AIによる解説)
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
https://arxiv.org/abs/2201.11903
2025-02-01 CoTを知らない人がいてびっくりしたんだけど、冷静に考えると2022年の論文なので知らない方が普通である
- 3年経って、「使って当然」のレベルの技術になり、これを使うことを前提としてモデルが訓練されるようになった
- GPT o1やDeepSeekによってこれによる思考過程がエンドユーザーにも見えるようになった
この文書は、大規模言語モデルにおける「Chain-of-Thought(CoT)Prompting」の手法とその効果について詳細に検証した研究内容をまとめたものです。
【要点】
【結論】
Chain-of-Thought Promptingは、従来の単一回答型のプロンプトに比べ、複雑な多段階推論が要求されるタスクで大きな性能向上を示しており、今後の大規模言語モデル活用やタスク適用において非常に有望なアプローチと考えられます。
o1 Pro

要約(簡潔版)
「Chain-of-Thought Prompting(思考過程プロンプト)」は、大規模言語モデルに対して解答の中間推論過程(チェーン・オブ・ソート)を少数例のサンプルとともに与えることで、複雑な推論問題(算数文章題、常識推論、記号操作など)の性能を大きく向上させる手法である。特に数百億~数千億パラメータ規模のモデルになると、従来の“答えだけを示す”プロンプトよりも大幅な精度向上が得られ、たとえば数学問題集(GSM8K)では最先端を上回る結果を達成した。興味深い点として、チェーン・オブ・ソートの有効性は「ある規模以上」から顕在化する(小規模モデルでは効果が小さい)。また、チェーン・オブ・ソートによって中間推論の可視化も可能になるが、必ずしも正しい推論ばかりとは限らない点は今後の課題である。
解説(ポイント説明)
本研究は「適切な例題とともに思考過程を明示する」だけで、大規模言語モデルの多段推論能力を大きく伸ばせることを示した点にある。すなわち、大きなパラメータ数を活かしたモデルであれば、チェーン・オブ・ソートの形で少数例を示すだけで、多段推論が可能になるという発見がポイントである。