gists

コンテキストスタッキング再定義

元ネタ:X(旧Twitter)のバズ投稿

@ihtesham2005 の投稿が話題になった。MITの学生が「コンテキストスタッキング」と呼ぶ勉強法を使い、NotebookLMで1セメスター分の講義内容を90分の勉強セッションに圧縮しているという内容。

具体的な手順は以下の通り:

  1. 各講義の2日前に、読み物・スライド・関連論文・問題セットをNotebookLMにアップロード
  2. 3つのプロンプトを順に実行する
    • つなげる:「今週の内容の核となる5つのコンセプトは何か、先週の内容とどうつながるか?」
    • ギャップを見つける:「この内容を完全な初心者に教えられるレベルで理解するには何が必要か?」
    • 深い理解を試す:「表面的にしか理解していない学生を見抜くために、教授が出しそうな質問は何か?」
  3. 講義では、予想できなかった部分だけをメモする

元ポストの問題点

誇張されたタイトル

「1セメスター分を90分に圧縮」は釣りタイトル。実際には「各講義の2日前に90分かけて準備する」と書いてあり、毎回の講義ごとに90分かかる。MITの1セメスターが週2回×15週だとすると、90分×30回=45時間の予習時間が必要になる。

NotebookLMである必要がない

元ポストは NotebookLM を前提にしているが、以下のツールでも同じことができる:

2024年頃はNotebookLMがGeminiの100万トークンという大きなコンテキストウィンドウを持つことが優位性だったが、2026年現在ではClaude(Opus 4.6で100万トークン)やGemini 3.1 Proも同等のサイズに追いついており、コンテキストウィンドウのサイズでは差がない。

NotebookLMに残っている強みは、ソースへの厳密なグラウンディング(ハルシネーション低減)と、Audio Overview・フラッシュカード・クイズ生成など学習向けの出力フォーマットの充実にある。

学習法としての革新性はない

やっていることを分解すると、すべて既知の手法である:

唯一「新しい」のは、これらをLLMで高速に回すことで手動なら数時間かかる予習プロセスを短縮した実行面の効率化。学習法の発明ではなく、既存手法+LLMの時短の話に過ぎない。

コンテキストスタッキングの再定義

元ポストの表面的な手順を離れ、概念として一般化する。

定義

コンテキストスタッキングとは、情報源を直接読解する代わりに、LLMとの対話を通じて自分なりの文脈(コンテキスト)を構築し、それを積み上げて(スタッキングして)いく学習アプローチである。

核心:「読む」行為の再定義

従来の学習では、情報源を自分の目で読んで、自分の頭で咀嚼するのが前提だった。コンテキストスタッキングでは、情報源を直接読む代わりにLLMに読ませて、自分は対話を通じて情報を引き出す。

これはブラックボックス的な学習と言える。情報源の中身を網羅的に把握することは目的ではない。自分にとって意味のある形で取り出せればそれでいい。

構造

情報源(ソース) → LLMとの対話(インターフェース) → 自分なりの文脈(コンテキスト)

対話の過程で学習者の好み・傾向・主観・経験が反映されるため、同じ情報源から異なる学習者が全く異なるコンテキストを生成する。情報源をそのまま受け取るのではなく、自分の主観が混じった体験として再構成される。だからこそ「コンテキスト(自分なりの文脈)」という名前がふさわしい。

対話パターンの拡張性

元ポストの3つのプロンプト(つなげる→ギャップを見つける→深い理解を試す)は「唯一の正解」ではなく「一つの実装例」に過ぎない。この構造さえ維持すれば、対話の方法はいくらでも変えられる:

評価との分離

コンテキストスタッキングは学習のアプローチであり、その成果の評価は別のプロセスである。従来の読書でも読み飛ばしや誤読は常にあり、学習は常に自分目線のベストエフォートでしかない。理解の正確さを測れるのは考査など評価の営みだけであり、それはコンテキストスタッキングの範囲外とする。

パターンの共有という価値

コンテキストスタッキングの対話パターンはプロンプトとして明文化できるため、他者がそのまま試して比較できる。従来の「ノートの取り方の共有」と比べて再現性が格段に高い。

これにはいくつかの意味がある: