【尊享】ZX120 – 2024版零基础学习LLM大模型 [8.5G]

┣━━01_正课《LLM从零到一》概念学习精华版 [1.3G]
┃ ┣━━高清课程视频 [1.2G]
┃ ┃ ┣━━长视频概念讲解系列(旧)可不听 [720.3M]
┃ ┃ ┃ ┣━━大语言模型训练原理(LLM:从零到一)【2】 .abc [59.3M]
┃ ┃ ┃ ┣━━理解大模型底层的架构-Transformer概念(LLM:从零到一)【3】 .abc [59.6M]
┃ ┃ ┃ ┣━━嵌入向量与位置信息(LLM:从零到一)【4】 .abc [113.3M]
┃ ┃ ┃ ┣━━如何训练一个写小说的大模型【9】.abc [69.6M]
┃ ┃ ┃ ┣━━什么是大语言模型?(LLM:从零到一)【1】.abc [34.4M]
┃ ┃ ┃ ┣━━手写大模型(下) LLM:从零到一)【8】.abc [122.8M]
┃ ┃ ┃ ┣━━手写大模型代码(上)( LLM:从零到一)【6】.abc [105.3M]
┃ ┃ ┃ ┣━━手写大模型代码(中)( LLM:从零到一)【7】.abc [89.5M]
┃ ┃ ┃ ┗━━注意力机制与输出预测(LLM:从零到一)【5】.abc [66.5M]
┃ ┃ ┣━━【01】大模型实际上就是两个文件.abc [3.6M]
┃ ┃ ┣━━【02】大语言模型是什么.abc [7.7M]
┃ ┃ ┣━━【03】大模型是如何工作的.abc [6.6M]
┃ ┃ ┣━━【04】OpenAI、GPT发展简史.abc [7M]
┃ ┃ ┣━━【05】谁都能听懂的Transformer.abc [10M]
┃ ┃ ┣━━【06】大模型的Tokenization文字转数字.abc [11.6M]
┃ ┃ ┣━━【07】Embedding数字变矩阵.abc [10.7M]
┃ ┃ ┣━━【08】大模型的Positional Encoding给数字加位置.abc [28.3M]
┃ ┃ ┣━━【09】进入注意力机制前先跟我一起过概念.abc [19.6M]
┃ ┃ ┣━━【10】Transformer注意力机制的几何逻辑.abc [25M]
┃ ┃ ┣━━【11】不需要懂的神经网络Neural Networks.abc [11.6M]
┃ ┃ ┣━━【12】LayerNorm及Softmax概念.abc [11M]
┃ ┃ ┣━━【13】Transformer注意力机制的QKV和多头机制.abc [28.3M]
┃ ┃ ┣━━【14】Transformer的QKV输出的到底是什么.abc [30.5M]
┃ ┃ ┣━━【15】Transformer的QKV完结篇.abc [16.8M]
┃ ┃ ┣━━【16】残差连接和Dropout.abc [16.9M]
┃ ┃ ┣━━【17】Transformer最终输出逻辑及参数量.abc [19.9M]
┃ ┃ ┣━━【18】大模型推理vs.训练的相同与不同.abc [12.9M]
┃ ┃ ┣━━【19】Transformer中的学习率如何理解?.abc [16.7M]
┃ ┃ ┣━━【20】词嵌入+位置信息的深层逻辑.abc [26.5M]
┃ ┃ ┣━━【21】五分钟秒懂神经网络.abc [22.7M]
┃ ┃ ┣━━【22】《线性变换的几何逻辑》.abc [73.6M]
┃ ┃ ┣━━【23】《Tokenizer分词器原理》.abc [52M]
┃ ┃ ┗━━【24】《解码策略Decoding Strategy》.abc [53.5M]
┃ ┗━━课程课件原图 [40.2M]
┣━━02_正课《LLM从零到一》代码实战系列 [1.1G]
┃ ┣━━准备数据集 [5.7M]
┃ ┃ ┗━━订单商品名称.csv [5.7M]
┃ ┣━━LLMZhang_Lessons-main [12.8M]
┃ ┃ ┣━━直播课代码集 [81.1K]
┃ ┃ ┃ ┗━━爬虫及数据清洗 [81.1K]
┃ ┃ ┃ ┣━━dataloader_hf.ipynb [12.1K]
┃ ┃ ┃ ┣━━dataloader_torch.ipynb [3.2K]
┃ ┃ ┃ ┗━━scraper_and_cleaning.ipynb [65.8K]
┃ ┃ ┣━━Code_Challenge_I [5.7M]
┃ ┃ ┃ ┣━━data [5.7M]
┃ ┃ ┃ ┃ ┗━━订单商品名称.csv [5.7M]
┃ ┃ ┃ ┣━━README.md [443B]
┃ ┃ ┃ ┗━━step-by-step.ipynb [25.1K]
┃ ┃ ┣━━Code_Challenge_II [6M]
┃ ┃ ┃ ┣━━data [6M]
┃ ┃ ┃ ┃ ┣━━订单商品名称.csv [5.7M]
┃ ┃ ┃ ┃ ┗━━wandb.png [306K]
┃ ┃ ┃ ┣━━model [73B]
┃ ┃ ┃ ┃ ┗━━README.md [73B]
┃ ┃ ┃ ┣━━inference.py [1.1K]
┃ ┃ ┃ ┣━━model.py [7.1K]
┃ ┃ ┃ ┣━━README.md [868B]
┃ ┃ ┃ ┗━━train.py [4.9K]
┃ ┃ ┣━━Code_Challenge_III [955.6K]
┃ ┃ ┃ ┣━━gemma [939.3K]
┃ ┃ ┃ ┃ ┣━━data [931.1K]
┃ ┃ ┃ ┃ ┃ ┣━━1_clean_csv.py [597B]
┃ ┃ ┃ ┃ ┃ ┣━━2_convert_to_dataset.py [817B]
┃ ┃ ┃ ┃ ┃ ┗━━orders.csv [929.8K]
┃ ┃ ┃ ┃ ┣━━finetune-gemma-2b.py [4.1K]
┃ ┃ ┃ ┃ ┣━━gradio_demo.py [2.4K]
┃ ┃ ┃ ┃ ┣━━inference.py [1.2K]
┃ ┃ ┃ ┃ ┗━━README.md [510B]
┃ ┃ ┃ ┣━━HuggingFace-Inference [5.2K]
┃ ┃ ┃ ┃ ┣━━gradio_demo.py [2.6K]
┃ ┃ ┃ ┃ ┣━━Inference-8bit.py [1.9K]
┃ ┃ ┃ ┃ ┗━━inference-float32.py [730B]
┃ ┃ ┃ ┣━━llama-3 [11.1K]
┃ ┃ ┃ ┃ ┣━━convert_to_gguf.py [892B]
┃ ┃ ┃ ┃ ┣━━finetune-llama-3-8b.py [5K]
┃ ┃ ┃ ┃ ┣━━inference-finetuned.py [1.9K]
┃ ┃ ┃ ┃ ┣━━inference-llama-default.py [1018B]
┃ ┃ ┃ ┃ ┣━━push_to_hub.py [1.1K]
┃ ┃ ┃ ┃ ┗━━README.md [1.2K]
┃ ┃ ┃ ┗━━READ.md [82B]
┃ ┃ ┣━━Code_Challenge_IV [30.7K]
┃ ┃ ┃ ┣━━DeepSpeed [15.5K]
┃ ┃ ┃ ┃ ┣━━configs [1K]
┃ ┃ ┃ ┃ ┃ ┣━━ds_config_stage2.yaml [469B]
┃ ┃ ┃ ┃ ┃ ┗━━ds_config_stage3.yaml [596B]
┃ ┃ ┃ ┃ ┣━━README.md [290B]
┃ ┃ ┃ ┃ ┣━━start.sh [1.1K]
┃ ┃ ┃ ┃ ┣━━train.py [5.9K]
┃ ┃ ┃ ┃ ┗━━utils.py [7.2K]
┃ ┃ ┃ ┣━━OpenAI [8.4K]
┃ ┃ ┃ ┃ ┣━━Chat_Assistant.py [3.1K]
┃ ┃ ┃ ┃ ┣━━Chat_Completion.py [1.9K]
┃ ┃ ┃ ┃ ┗━━Function_Calling.py [3.5K]
┃ ┃ ┃ ┣━━app.py [3.4K]
┃ ┃ ┃ ┣━━message.py [2.2K]
┃ ┃ ┃ ┗━━README.md [1.1K]
┃ ┃ ┣━━.gitignore [2.7K]
┃ ┃ ┗━━README.md [168B]
┃ ┣━━【1】开篇介绍.abc [8M]
┃ ┣━━【10】实战II期(Train逻辑).abc [130.2M]
┃ ┣━━【11】实战II期(结束总结).abc [104.2M]
┃ ┣━━【2】准备数据集.abc [63.9M]
┃ ┣━━【3】代码实现:嵌入向量——《LLM从零到一》代码实战系列.abc [82.9M]
┃ ┣━━【4】代码实现:位置信息编码.abc [134.3M]
┃ ┣━━【5】代码实现:注意力机制(一).abc [94.9M]
┃ ┣━━【6】注意力机制(二).abc [87.1M]
┃ ┣━━【7】模型预测输出.abc [77.8M]
┃ ┣━━【8】模型反向更新(第一期实战完结).abc [75M]
┃ ┗━━【9】实战II期(Model逻辑).abc [283.1M]
┣━━03_正课《LLM从1到N》进阶学习精华版 [1.8G]
┃ ┣━━第0课——开篇介绍 [33.4M]
┃ ┃ ┗━━第0课——开篇介绍.abc [33.4M]
┃ ┣━━第10课 Sparse Attention & Infini Attention 稀疏注意力 和无限注意力 [59.4M]
┃ ┃ ┗━━第10课 Sparse Attention & Infini Attention 稀疏注意力 和无限注意力.abc [59.4M]
┃ ┣━━第11课 RoPE ALiBi YaRN各种位置信息编码讲解 [62.2M]
┃ ┃ ┗━━第11课 RoPE ALiBi YaRN等各类位置信息编码.abc [62.2M]
┃ ┣━━第12课 LoRA、QLoRA 讲解 [31.8M]
┃ ┃ ┗━━第12课 LoRA、QLoRA 讲解.abc [31.8M]
┃ ┣━━第13课 GPTQ、AWQ、GGUF等模型量化概念讲解 [43.6M]
┃ ┃ ┗━━第13课 GPTQ、AWQ、GGUF等模型量化Quantization概念讲解.abc [43.6M]
┃ ┣━━第14课 SFT、PEFT、RLHF等模型微调原理讲解 [65.2M]
┃ ┃ ┣━━【从1到N】第14课 SFT、PEFT、RLHF等模型微调原理讲解.abc [59.7M]
┃ ┃ ┗━━第14课 SFT、PEFT、RLHF等微调原理讲解.pdf [5.6M]
┃ ┣━━第15课 如何使用HuggingFace做模型微调(上) [195.7M]
┃ ┃ ┗━━【15模型微调(上)】.abc [195.7M]
┃ ┣━━第16课 如何使用HuggingFace做模型微调(下) [127.3M]
┃ ┃ ┗━━【16模型微调(下)】.abc [127.3M]
┃ ┣━━第17课 模型微调Json格式输出的演示案例 [162.1M]
┃ ┃ ┣━━第17课 模型微调Json格式输出的演示案例(后半).abc [38M]
┃ ┃ ┗━━第17课 模型微调Json格式输出的演示案例(前半).abc [124M]
┃ ┣━━第1课 Scaling Law & 模型计算量介绍 [75.5M]
┃ ┃ ┣━━第1课 Scaling Law & 模型计算量介绍.abc [69.5M]
┃ ┃ ┗━━第1课 Scaling Law & 主要模型介绍.pdf [6M]
┃ ┣━━第22课 Whisper语音转文字模型原理介绍 [75.3M]
┃ ┃ ┗━━第22课 Whisper 语音转文字模型.abc [75.3M]
┃ ┣━━第22课 Whisper语音转文字模型原理介绍_0707132357 [102.9M]
┃ ┃ ┣━━第22课 Whisper 语音转文字模型(代码演示).abc [27.8M]
┃ ┃ ┗━━第22课 Whisper语音转文字模型(概念).abc [75M]
┃ ┣━━第23课 Stable Diffusion及Sora的原理讲解 [153.4M]
┃ ┃ ┗━━Sora、SD、可灵文生图视频大模型原理讲解.abc [153.4M]
┃ ┣━━第2课 LLM文件组成、精度及开发流程讲解 [72.5M]
┃ ┃ ┣━━第2课 LLM文件组成、精度及开发流程讲解.abc [70.4M]
┃ ┃ ┗━━第2课 LLM文件组成、精度及开发流程讲解.pdf [2.2M]
┃ ┣━━第3课 主流LLM开发及微调框架介绍 [76.5M]
┃ ┃ ┗━━第3课 主流LLM开发及微调框架介绍.abc [76.5M]
┃ ┣━━第4课 OpenAI的API及飞书机器人例子 [74.9M]
┃ ┃ ┗━━第4课 OpenAI的API及飞书机器人例子.abc [74.9M]
┃ ┣━━第5课:LangChain是做什么的 [93.7M]
┃ ┃ ┗━━第5课:LangChain是做什么的.abc [93.7M]
┃ ┣━━第6课:RAG的实现原理 [217.1M]
┃ ┃ ┣━━案例RAG-学员分享.abc [163M]
┃ ┃ ┗━━第6课:RAG的实现原理.abc [54.1M]
┃ ┣━━第7课 Flash Attention 讲解 [67.8M]
┃ ┃ ┗━━【第7课】Flash Attention讲解.abc [67.8M]
┃ ┣━━第8课 KV Cache 讲解 [45M]
┃ ┃ ┗━━第8课 KV Cache讲解.abc [45M]
┃ ┗━━第9课 MHA、MQA、GQA 讲解 [18.8M]
┃ ┗━━【第9课】MHA、MQA、GQA的讲解.abc [18.8M]
┣━━04_赠课《LLM从1到N》代码实战系列 [166.4M]
┃ ┣━━【实战】中文embedding向量模型训练.abc [67.9M]
┃ ┗━━实战——《如何训练自己的中文分词器》.abc [98.5M]
┣━━05_赠课《Python从零到一》快速入门 [174.1M]
┃ ┣━━Learn_Python_Zero2One-main [78.3K]
┃ ┃ ┣━━.idea [2.1K]
┃ ┃ ┃ ┣━━inspectionProfiles [800B]
┃ ┃ ┃ ┃ ┣━━profiles_settings.xml [174B]
┃ ┃ ┃ ┃ ┗━━Project_Default.xml [626B]
┃ ┃ ┃ ┣━━.gitignore [176B]
┃ ┃ ┃ ┣━━Learn_Python_Zero2One.iml [353B]
┃ ┃ ┃ ┣━━misc.xml [324B]
┃ ┃ ┃ ┣━━modules.xml [294B]
┃ ┃ ┃ ┗━━other.xml [195B]
┃ ┃ ┣━━data [12B]
┃ ┃ ┃ ┗━━scifi.txt [12B]
┃ ┃ ┣━━.gitattributes [66B]
┃ ┃ ┣━━Displacement map.png [51.1K]
┃ ┃ ┣━━plat1.py [690B]
┃ ┃ ┣━━plot2.py [1.3K]
┃ ┃ ┣━━plot3.py [7.7K]
┃ ┃ ┣━━plot4.py [759B]
┃ ┃ ┣━━plot5.py [11.3K]
┃ ┃ ┣━━README.md [60B]
┃ ┃ ┗━━test.py [3.2K]
┃ ┣━━第2课:(上)如何入门写python.abc [47.3M]
┃ ┣━━第2课:(下)如何入门写python.abc [69.5M]
┃ ┣━━第2课:(中)如何入门写python.abc [55.5M]
┃ ┗━━widows10版本Transformer学习环境配置.docx [1.7M]
┣━━06_赠课 LLM最新英文论文导读 [332.2M]
┃ ┣━━课件 [5.5M]
┃ ┃ ┣━━1706.03762.pdf [2.1M]
┃ ┃ ┣━━2305.02582.pdf [443.9K]
┃ ┃ ┗━━2311.17911.pdf [3M]
┃ ┣━━《Attention is all you need》论文解读.abc [84.8M]
┃ ┣━━《Infini-Transformer》论文导读.abc [111.1M]
┃ ┣━━《LayerNorm in Transformers’ Attention》论文解读.abc [38.5M]
┃ ┗━━《OPERA – Alleviating Hallucination》论文导读.abc [92.4M]
┣━━07_赠课 直播录播视频集 [3.6G]
┃ ┣━━Karpathy最新开源llm.c [120M]
┃ ┃ ┣━━Karpathy最新开源llm.c新鲜尝试.abc [119.9M]
┃ ┃ ┗━━llm.c.rar [189.6K]
┃ ┣━━2024年04月05日直播录播——《Transformer框架解读及互动提问》.abc [261.6M]
┃ ┣━━2024年04月13日直播录播——《HuggingFace演示》.abc [148.6M]
┃ ┣━━2024年04月20日直播录播——《位置编码讲解》.abc [270.5M]
┃ ┣━━2024年05月02日直播录播——《HuggingFace使用介绍》.abc [285.9M]
┃ ┣━━2024年05月03日直播录播——《Transformer中的向量查找表》.abc [214M]
┃ ┣━━2024年05月03日直播录播——《多头注意力及模型参数量探讨》.abc [151.9M]
┃ ┣━━2024年05月04日直播录播——《PyTorch实践与讲解》.abc [197.9M]
┃ ┣━━2024年05月04日直播录播——《模型本地及服务器部署的闲聊》.abc [149.9M]
┃ ┣━━2024年06月01日直播录播——《数据集准备及数据清洗的一些分享》.abc [231.5M]
┃ ┣━━2024年4月13日直播录播——《transformer架构高度概括》.abc [117.5M]
┃ ┣━━2024年5月18日直播录播——《transformer各模块作用和基础知识》.abc [262.1M]
┃ ┣━━2024年5月25日直播录播——《8xA100+DeepSpeed配置演示》.abc [213.1M]
┃ ┣━━2024年6月15日直播录播——《两种多头切分方法讨论、及B站1.9B模型架构阅读》.abc [288.2M]
┃ ┣━━2024年6月22日直播录播——《如何训练自己的中文分词器》.abc [99.3M]
┃ ┣━━2024年6月29日直播录播——《transformer怎么学》和《模型部署方式》.abc [419.1M]
┃ ┗━━2024年6月8日直播录播——《大模型用到的线性代数4个基本概念》.abc [225.3M]
┣━━08_总结资料 [32.1M]
┃ ┗━━总结资料 [32.1M]
┃ ┣━━582842458848524.zip [5.8K]
┃ ┣━━大模型.pptx [9.3M]
┃ ┣━━大模型详细.pptx [18.9M]
┃ ┣━━手写大模型.html [1016.8K]
┃ ┣━━手写大模型.rar [220.6K]
┃ ┣━━DataSpell 激活码.zip [108.6K]
┃ ┗━━LLMZhang_Lessons-main.zip [2.5M]
┗━━09_杂项 [43M]
┗━━KAN vs MLP网络理解.mov [43M]

发表评论

后才能评论

购买后资源页面显示下载按钮和分享密码,点击后自动跳转百度云链接,输入密码后自行提取资源。

本章所有带有【尊享】和【加密】的课程均为加密课程,加密课程需要使用专门的播放器播放。

联系微信客服获取,一个授权账号可以激活三台设备,请在常用设备上登录账号。

可能资源被百度网盘黑掉,联系微信客服添加客服百度网盘好友后分享。

教程属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源