約300行の教育向けGPT実装。OpenWebText上でGPT-2(124M)を再現。トランスフォーマーを学ぶためのクリーンで改変しやすいコード。Andrej Karpathyによる。GPTアーキテクチャを一から理解するのに最適。Shakespeare(CPU)やOpenWebText(マルチGPU)での学…
約300行の教育向けGPT実装。OpenWebText上でGPT-2(124M)を再現。トランスフォーマーを学ぶためのクリーンで改変しやすいコード。Andrej Karpathyによる。GPTアーキテクチャを一から理解するのに最適。Shakespeare(CPU)やOpenWebText(マルチGPU)での学習が可能。Model Architecture, NanoGPT, GPT-2, Educational, Andrej Karpathy, Transformer, Minimalist, From Scratch, Train......
このページは OpenClaw Skills 学習ハブの一部で、導入手順・カテゴリ導線・実践リンクを提供します。