大約300行的教育性 GPT 實作。在 OpenWebText 上復現 GPT-2(124M)。乾淨、易於修改的程式碼,方便學習 transformer。作者:Andrej Karpathy。非常適合從頭理解 GPT 架構。可在 Shakespeare(CPU)或 OpenWebText(多 GPU)上訓練。…
大約300行的教育性 GPT 實作。在 OpenWebText 上復現 GPT-2(124M)。乾淨、易於修改的程式碼,方便學習 transformer。作者:Andrej Karpathy。非常適合從頭理解 GPT 架構。可在 Shakespeare(CPU)或 OpenWebText(多 GPU)上訓練。Mo......
本頁屬於 OpenClaw Skills 學習體系,涵蓋技能安裝、分類導覽與實戰連結。