github-trend-summarizer

Dive into LLMs — 《动手学大模型》

これは何?

上海交通大学(SJTU)の張卓晟教授が主導する、大規模言語モデル(LLM)の主要技術を手を動かしながら学ぶ実践チュートリアル集。同大学の大学院講義「自然言語処理フロンティア技術」「AI安全技術」をベースにしており、全11章・各章にスライド(PDF)+解説(README)+実行可能なJupyter Notebookが揃っている。

テーマ 代表的ツール/モデル
1 事前学習モデルの微調整とデプロイ HuggingFace Transformers, Gradio
2 プロンプト学習と思考の連鎖(CoT) Qwen / GPT API
3 知識編集(ROME, MEMIT) EasyEdit
4 数学推理のSFT蒸留 Qwen2.5-Math, DeepMath-103K
5 テキスト透かし(Watermark) KGW, X-SIR
6 Jailbreak攻撃 EasyJailbreak
7 テキストステガノグラフィ GPT-2, Huffman符号化
8 マルチモーダルLLM NExT-GPT
9 GUIエージェント構築 Qwen2-VL, LLaMA-Factory
10 エージェント安全性評価 R-Judge ベンチマーク
11 RLHF(人間フィードバックからの強化学習) TRL (PPO), GPT-2 + BERT

何が嬉しいのか? — 既存教材との比較

観点 本リポジトリ 既存の類似手段
カバー範囲 微調整→プロンプト→知識編集→安全性→マルチモーダル→RLHF まで 1リポジトリで一気通貫 Hugging Face公式チュートリアルやLLM Bootcamp等は特定領域に特化しがちで、安全性やステガノグラフィまでは扱わない
実践性 全章にそのまま動くNotebookがあり、Fake News検出やMessi知識書き換えなど具体的なユースケースで学べる 論文読み解き中心の教材(Stanford CS224Nスライド等)は理論は強いがコードが手薄
安全性の重視 11章中4章(Jailbreak・透かし・ステガノ・エージェント安全)をAIセキュリティに割当て。攻撃と防御の両面を体験できる 安全性を主軸に据えた体系的ハンズオン教材はほとんどない
最新性 2025年6月更新。DeepSeek-R1蒸留、Qwen2-VL、GUIエージェント等最新モデル/手法を収録 書籍ベースの教材は出版サイクルが遅く、最新手法の反映に数年かかる
独立性 各章が自己完結型(依存ライブラリも章内READMEに記載)。興味ある章だけ拾い読み可能 連続講義形式の教材は前章の完了を前提とすることが多い

一言で言えば: 「LLMの主要技術トピックを、セキュリティ含めて網羅的に、動くコードで、最新モデルを使って学べる」という組み合わせがユニーク。

使い方の流れ

1. 章を選ぶ
   └─ 全11章は独立しているので、興味あるテーマから着手してOK
      (初学者は Chapter 1 → 2 → 11 の順が基礎→応用→整列の自然な流れ)

2. 環境を準備する
   ├─ Python 3.9 + PyTorch + CUDA 環境を用意
   ├─ 各章の README に記載された依存ライブラリをインストール
   └─ 注意: 多くの章で GPU(VRAM 40GB〜80GB)が必要
      (Chapter 2 など API 呼び出し中心の章は CPU でも可)

3. スライドで概念を掴む
   └─ 各章に付属する PDF スライドで理論的背景を予習

4. Notebook を実行する
   ├─ Jupyter Notebook をセルごとに実行
   ├─ コード中のコメント・Markdown セルで手順を確認しながら進める
   └─ モデル・データセットは HuggingFace Hub 等から自動DL

5. 結果を確認・改変する
   └─ パラメータ変更・データ差し替え等で実験を深掘り

Tip: GPU環境がない場合は、Google Colab(Pro)や Huawei Ascend Community(華為昇腾社区との連携コンテンツあり)の活用が推奨されている。