nanogpt | 技能詳情 | OpenClaw Study

大約300行的教育性 GPT 實作。在 OpenWebText 上復現 GPT-2(124M)。乾淨、易於修改的程式碼,方便學習 transformer。作者:Andrej Karpathy。非常適合從頭理解 GPT 架構。可在 Shakespeare(CPU)或 OpenWebText(多 GPU)上訓練。…

大約300行的教育性 GPT 實作。在 OpenWebText 上復現 GPT-2(124M)。乾淨、易於修改的程式碼,方便學習 transformer。作者:Andrej Karpathy。非常適合從頭理解 GPT 架構。可在 Shakespeare(CPU)或 OpenWebText(多 GPU)上訓練。Mo......

本頁屬於 OpenClaw Skills 學習體系,涵蓋技能安裝、分類導覽與實戰連結。

English 简体中文 日本語 Español Português