【尊享】ZX118 – 人工智能深度学习系统班第七期 [190.9G]

┗━━第0章 课件及代码.zip [93G]
┣━━第1章 直播回放 [12.8G]
┃ ┣━━1-1 节开班典礼 [760M]
┃ ┃ ┗━━20230301人工智能第七期开班典礼.abc [760M]
┃ ┣━━1-10 节直播8:图神经网络 [554.6M]
┃ ┃ ┗━━图神经网络.abc [554.6M]
┃ ┣━━1-11 节直播9:LangChain与VQA任务 [1G]
┃ ┃ ┗━━LangChain与VQA任务.abc [1G]
┃ ┣━━1-12 节直播10:EfficientVIT与DINOV2 [1.1G]
┃ ┃ ┗━━EfficientVIT与DINOV2.abc [1.1G]
┃ ┣━━1-13 节直播11:对比学习与自监督任务 [786.5M]
┃ ┃ ┗━━对比学习与自监督任务.abc [786.5M]
┃ ┣━━1-14 节直播12:注意力机制串讲 [955.7M]
┃ ┃ ┗━━注意力机制串讲.abc [955.7M]
┃ ┣━━1-15 节直播13:BEITV2-3与Mmlab自监督源码解读 [950M]
┃ ┃ ┗━━BEITV2-3与Mmlab自监督源码解读.abc [950M]
┃ ┣━━1-16 节直播14:Bev特征空间与知识蒸馏 [627.8M]
┃ ┃ ┗━━Bev特征空间与知识蒸馏.abc [627.8M]
┃ ┣━━1-17 节直播15:总结与论文和简历 [1.5G]
┃ ┃ ┗━━总结与论文和简历.abc [1.5G]
┃ ┣━━1-2 节Pycharm环境配置与Debug演示(没用过的同学必看) [125.4M]
┃ ┃ ┗━━Pycharm环境配置与Debug演示(没用过的同学必看).abc [125.4M]
┃ ┣━━1-3 节直播1:神经网络结构 [604.6M]
┃ ┃ ┗━━神经网络结构.abc [604.6M]
┃ ┣━━1-4 节直播2:卷积神经网络 [676.2M]
┃ ┃ ┗━━卷积神经网络.abc [676.2M]
┃ ┣━━1-5 节直播3:Transformer [557.2M]
┃ ┃ ┗━━Transformer.abc [557.2M]
┃ ┣━━1-6 节直播4:VIT源码解读 [878.2M]
┃ ┃ ┗━━VIT源码解读.abc [878.2M]
┃ ┣━━1-7 节直播5:Segment anything [857.2M]
┃ ┃ ┗━━视觉大模型Segment Anything.abc [857.2M]
┃ ┣━━1-8 节直播6:时间序列timesnet [671.9M]
┃ ┃ ┗━━时间序列通用解决方案TimesNet.abc [671.9M]
┃ ┗━━1-9 节直播7:文本大模型下游任务一条龙 [503.5M]
┃ ┗━━文本大模型.abc [503.5M]

┣━━第2章 AI课程所需安装软件教程 [19.6M]
┃ ┗━━2-1 节AI课程所需安装软件教程 [19.6M]
┃ ┗━━软件安装简介.abc [19.6M]
┣━━第3章 深度学习必备核心算法 [1.6G]
┃ ┣━━3-1 节神经网络算法解读 [659.9M]
┃ ┃ ┗━━神经网络算法解读.abc [659.9M]
┃ ┣━━3-2 节卷积神经网络算法解读 [489.2M]
┃ ┃ ┗━━卷积神经网络算法解读.abc [489.2M]
┃ ┣━━3-3 节递归神经网络算法解读 [374.6M]
┃ ┃ ┗━━递归神经网络算法解读.abc [374.6M]
┃ ┗━━3-4 节额外补充 [122.5M]
┃ ┗━━在源码中加入各种注意力机制方法.abc [122.5M]
┣━━第4章 深度学习核心框架PyTorch [2G]
┃ ┣━━4-1 节PyTorch框架介绍与配置安装 [133.8M]
┃ ┃ ┣━━1-PyTorch框架与其他框架区别分析.abc [33.2M]
┃ ┃ ┗━━2-CPU与GPU版本安装方法解读.abc [100.6M]
┃ ┣━━4-2 节使用神经网络进行分类任务 [334.2M]
┃ ┃ ┣━━1-数据集与任务概述.abc [43.4M]
┃ ┃ ┣━━2-基本模块应用测试.abc [47.6M]
┃ ┃ ┣━━3-网络结构定义方法.abc [55.6M]
┃ ┃ ┣━━4-数据源定义简介.abc [39M]
┃ ┃ ┣━━5-损失与训练模块分析.abc [42.3M]
┃ ┃ ┣━━6-训练一个基本的分类模型.abc [54.6M]
┃ ┃ ┗━━7-参数对结果的影响.abc [51.7M]
┃ ┣━━4-3 节神经网络回归任务-气温预测 [227M]
┃ ┃ ┗━━神经网络回归任务-气温预测.abc [227M]
┃ ┣━━4-4 节卷积网络参数解读分析 [129.1M]
┃ ┃ ┣━━1-输入特征通道分析.abc [42.5M]
┃ ┃ ┣━━2-卷积网络参数解读.abc [31.5M]
┃ ┃ ┗━━3-卷积网络模型训练.abc [55.2M]
┃ ┣━━4-5 节图像识别模型与训练策略(重点) [553.6M]
┃ ┃ ┣━━1-任务分析与图像数据基本处理.abc [41.6M]
┃ ┃ ┣━━2-数据增强模块.abc [40.5M]
┃ ┃ ┣━━3-数据集与模型选择.abc [45.3M]
┃ ┃ ┣━━4-迁移学习方法解读.abc [44.7M]
┃ ┃ ┣━━5-输出层与梯度设置.abc [61.4M]
┃ ┃ ┣━━6-输出类别个数修改.abc [49.1M]
┃ ┃ ┣━━7-优化器与学习率衰减.abc [52.5M]
┃ ┃ ┣━━8-模型训练方法.abc [52.6M]
┃ ┃ ┣━━9-重新训练全部模型.abc [54.8M]
┃ ┃ ┗━━10-测试结果演示分析.abc [111M]
┃ ┣━━4-6 节DataLoader自定义数据集制作 [213M]
┃ ┃ ┣━━1-Dataloader要完成的任务分析.abc [39.2M]
┃ ┃ ┣━━2-图像数据与标签路径处理.abc [49M]
┃ ┃ ┣━━3-Dataloader中需要实现的方法分析.abc [47M]
┃ ┃ ┗━━4-实用Dataloader加载数据并训练模型.abc [77.8M]
┃ ┣━━4-7 节LSTM文本分类实战 [371.7M]
┃ ┃ ┣━━1-数据集与任务目标分析.abc [52.8M]
┃ ┃ ┣━━2-文本数据处理基本流程分析.abc [56M]
┃ ┃ ┣━━3-命令行参数与DEBUG.abc [36.5M]
┃ ┃ ┣━━4-训练模型所需基本配置参数分析.abc [40.9M]
┃ ┃ ┣━━5-预料表与字符切分.abc [32M]
┃ ┃ ┣━━6-字符预处理转换ID.abc [34.4M]
┃ ┃ ┣━━7-LSTM网络结构基本定义.abc [34.7M]
┃ ┃ ┣━━8-网络模型预测结果输出.abc [39.1M]
┃ ┃ ┗━━9-模型训练任务与总结.abc [45.2M]
┃ ┗━━4-8 节PyTorch框架Flask部署例子 [108.2M]
┃ ┣━━1-基本结构与训练好的模型加载.abc [21M]
┃ ┣━━2-服务端处理与预测函数.abc [40.9M]
┃ ┗━━3-基于Flask测试模型预测结果.abc [46.3M]
┣━━第5章 Opencv图像处理框架实战 [3.4G]
┃ ┣━━5-1 节课程简介与环境配置 [123.2M]
┃ ┃ ┣━━1-课程简介.abc [5.4M]
┃ ┃ ┣━━2-Python与Opencv配置安装.abc [33.3M]
┃ ┃ ┗━━3-Notebook与IDE环境.abc [84.5M]
┃ ┣━━5-10 节⽂档扫描OCR识别 [178.6M]
┃ ┃ ┣━━1-整体流程演示.abc [21.5M]
┃ ┃ ┣━━2-文档轮廓提取.abc [27.8M]
┃ ┃ ┣━━3-原始与变换坐标计算.abc [26.2M]
┃ ┃ ┣━━4-透视变换结果.abc [32.9M]
┃ ┃ ┣━━5-tesseract-ocr安装配置.abc [41.2M]
┃ ┃ ┗━━6-文档扫描识别效果.abc [28.9M]
┃ ┣━━5-11 节图像特征-harris [152.2M]
┃ ┃ ┣━━1-角点检测基本原理.abc [15.5M]
┃ ┃ ┣━━2-基本数学原理.abc [30.6M]
┃ ┃ ┣━━3-求解化简.abc [31.8M]
┃ ┃ ┣━━4-特征归属划分.abc [43.2M]
┃ ┃ ┗━━5-opencv角点检测效果.abc [31M]
┃ ┣━━5-12 节图像特征-sift [187.1M]
┃ ┃ ┣━━1-尺度空间定义.abc [20.1M]
┃ ┃ ┣━━2-高斯差分金字塔.abc [21.7M]
┃ ┃ ┣━━3-特征关键点定位.abc [48.2M]
┃ ┃ ┣━━4-生成特征描述.abc [24.7M]
┃ ┃ ┣━━5-特征向量生成.abc [43.7M]
┃ ┃ ┗━━6-opencv中sift函数使用.abc [28.8M]
┃ ┣━━5-13 节全景图像拼接 [129.8M]
┃ ┃ ┣━━1-特征匹配方法.abc [28.6M]
┃ ┃ ┣━━2-RANSAC算法.abc [34.5M]
┃ ┃ ┣━━3-图像拼接方法.abc [45.1M]
┃ ┃ ┗━━4-流程解读.abc [21.7M]
┃ ┣━━5-14 节停⻋场⻋位识别 [512.8M]
┃ ┃ ┣━━1-任务整体流程.abc [71.4M]
┃ ┃ ┣━━2-所需数据介绍.abc [34.3M]
┃ ┃ ┣━━3-图像数据预处理.abc [56.8M]
┃ ┃ ┣━━4-车位直线检测.abc [61.5M]
┃ ┃ ┣━━5-按列划分区域.abc [54.7M]
┃ ┃ ┣━━6-车位区域划分.abc [57.3M]
┃ ┃ ┣━━7-识别模型构建.abc [41.2M]
┃ ┃ ┗━━8-基于视频的车位检测.abc [135.6M]
┃ ┣━━5-15 节答题卡识别判卷 [136.4M]
┃ ┃ ┣━━1-整体流程与效果概述.abc [29.5M]
┃ ┃ ┣━━2-预处理操作.abc [24.1M]
┃ ┃ ┣━━3-填涂轮廓检测.abc [25.7M]
┃ ┃ ┗━━4-选项判断识别.abc [57.1M]
┃ ┣━━5-16 节背景建模 [130.2M]
┃ ┃ ┣━━1-背景消除-帧差法.abc [20.8M]
┃ ┃ ┣━━2-混合高斯模型.abc [26.4M]
┃ ┃ ┣━━3-学习步骤.abc [31.8M]
┃ ┃ ┗━━4-背景建模实战.abc [51.2M]
┃ ┣━━5-17 节光流估计 [130.1M]
┃ ┃ ┣━━1-基本概念.abc [20.2M]
┃ ┃ ┣━━2-Lucas-Kanade算法.abc [19.7M]
┃ ┃ ┣━━3-推导求解.abc [26M]
┃ ┃ ┗━━4-光流估计实战.abc [64.2M]
┃ ┣━━5-18 节Opencv的DNN模块 [69.1M]
┃ ┃ ┣━━1-dnn模块.abc [28.6M]
┃ ┃ ┗━━2-模型加载结果输出.abc [40.5M]
┃ ┣━━5-19 节⽬标追踪 [304.9M]
┃ ┃ ┣━━1-目标追踪概述.abc [49.8M]
┃ ┃ ┣━━2-多目标追踪实战.abc [34.6M]
┃ ┃ ┣━━3-深度学习检测框架加载.abc [43.6M]
┃ ┃ ┣━━4-基于dlib与ssd的追踪.abc [73M]
┃ ┃ ┣━━5-多进程目标追踪.abc [25.7M]
┃ ┃ ┗━━6-多进程效率提升对比.abc [78.1M]
┃ ┣━━5-2 节图像基本操作 [154.8M]
┃ ┃ ┣━━1-计算机眼中的图像.abc [30.9M]
┃ ┃ ┣━━2-视频的读取与处理.abc [47M]
┃ ┃ ┣━━3-ROI区域.abc [15.4M]
┃ ┃ ┣━━4-边界填充.abc [21.5M]
┃ ┃ ┗━━5-数值计算.abc [40.1M]
┃ ┣━━5-20 节卷积原理与操作 [212M]
┃ ┃ ┣━━1-卷积神经网络的应用.abc [36.2M]
┃ ┃ ┣━━2-卷积层解释.abc [22.3M]
┃ ┃ ┣━━3-卷积计算过程.abc [27.6M]
┃ ┃ ┣━━4-pading与stride.abc [26.1M]
┃ ┃ ┣━━5-卷积参数共享.abc [17.7M]
┃ ┃ ┣━━6-池化层原理.abc [16.1M]
┃ ┃ ┣━━7-卷积效果演示.abc [24.7M]
┃ ┃ ┗━━8-卷积操作流程.abc [41.3M]
┃ ┣━━5-21 节疲劳检测 [221.7M]
┃ ┃ ┣━━1-关键点定位概述.abc [28.5M]
┃ ┃ ┣━━2-获取人脸关键点.abc [36.1M]
┃ ┃ ┣━━3-定位效果演示.abc [45.4M]
┃ ┃ ┣━━4-闭眼检测.abc [71.1M]
┃ ┃ ┗━━5-检测效果.abc [40.6M]
┃ ┣━━5-3 节阈值与平滑处理 [76.3M]
┃ ┃ ┣━━1-图像阈值.abc [30.9M]
┃ ┃ ┣━━2-图像平滑处理.abc [24.8M]
┃ ┃ ┗━━3-高斯与中值滤波.abc [20.6M]
┃ ┣━━5-4 节图像形态学操作 [66.4M]
┃ ┃ ┣━━1-腐蚀操作.abc [21M]
┃ ┃ ┣━━2-膨胀操作.abc [12.3M]
┃ ┃ ┣━━3-开运算与闭运算.abc [9.3M]
┃ ┃ ┣━━4-梯度计算.abc [7.9M]
┃ ┃ ┗━━5-礼帽与黑帽.abc [15.9M]
┃ ┣━━5-5 节图像梯度计算 [84.7M]
┃ ┃ ┣━━1-Sobel算子.abc [27M]
┃ ┃ ┣━━2-梯度计算方法.abc [30.3M]
┃ ┃ ┗━━3-scharr与lapkacian算子.abc [27.4M]
┃ ┣━━5-6 节边缘检测 [74M]
┃ ┃ ┣━━1-Canny边缘检测流程.abc [19M]
┃ ┃ ┣━━2-非极大值抑制.abc [18.3M]
┃ ┃ ┗━━3-边缘检测效果.abc [36.6M]
┃ ┣━━5-7 节图像⾦字塔与轮廓检测 [205.3M]
┃ ┃ ┣━━1-图像金字塔定义.abc [19.7M]
┃ ┃ ┣━━2-金字塔制作方法.abc [25.5M]
┃ ┃ ┣━━3-轮廓检测方法.abc [19.4M]
┃ ┃ ┣━━4-轮廓检测结果.abc [34.4M]
┃ ┃ ┣━━5-轮廓特征与近似.abc [37.6M]
┃ ┃ ┣━━6-模板匹配方法.abc [47.5M]
┃ ┃ ┗━━7-匹配效果展示.abc [21.2M]
┃ ┣━━5-8 节直⽅图与傅⾥叶变换 [174.9M]
┃ ┃ ┣━━1-直方图定义.abc [23.6M]
┃ ┃ ┣━━2-均衡化原理.abc [31.4M]
┃ ┃ ┣━━3-均衡化效果.abc [27.2M]
┃ ┃ ┣━━4-傅里叶概述.abc [38.9M]
┃ ┃ ┣━━5-频域变换结果.abc [26.3M]
┃ ┃ ┗━━6-低通与高通滤波.abc [27.4M]
┃ ┗━━5-9 节信⽤卡数字识别 [155.9M]
┃ ┣━━1-总体流程与方法讲解.abc [20.7M]
┃ ┣━━2-环境配置与预处理.abc [34.9M]
┃ ┣━━3-模板处理方法.abc [23.7M]
┃ ┣━━4-输入数据处理方法.abc [28.9M]
┃ ┗━━5-模板匹配得出识别结果.abc [47.7M]
┣━━第6章 综合项目-物体检测经典算法实战 [7G]
┃ ┣━━6-1 节深度学习经典检测方法概述 [83.5M]
┃ ┃ ┣━━1-检测任务中阶段的意义.abc [15.2M]
┃ ┃ ┣━━2-不同阶段算法优缺点分析.abc [10.7M]
┃ ┃ ┣━━3-IOU指标计算.abc [11.7M]
┃ ┃ ┣━━4-评估所需参数计算.abc [26.2M]
┃ ┃ ┗━━5-map指标计算.abc [19.6M]
┃ ┣━━6-10 节YOLO系列(V7)算法解读 [650.6M]
┃ ┃ ┗━━YOLO系列(V7)算法解读.abc [650.6M]
┃ ┣━━6-11 节V7源码解读 [819.6M]
┃ ┃ ┣━━1-训练参数-命令行参数介绍.abc [25M]
┃ ┃ ┣━━2-训练参数-基本参数作用.abc [40.8M]
┃ ┃ ┣━━3-训练参数-EMA等训练技巧解读.abc [49.3M]
┃ ┃ ┣━━4-网络结构-网络结构配置文件解读.abc [37M]
┃ ┃ ┣━━5-网络结构-各模块操作细节分析.abc [49.1M]
┃ ┃ ┣━━6-网络结构-输出层与配置文件其他模块解读.abc [60.9M]
┃ ┃ ┣━━7-标签分配-标签分配策略准备操作.abc [34.7M]
┃ ┃ ┣━━8-标签分配-候选框偏移方法与find3p模块解读.abc [33.7M]
┃ ┃ ┣━━9-标签分配-得到偏移点所在网格位置.abc [42.9M]
┃ ┃ ┣━━10-标签分配-完成BuildTargets模块.abc [51.4M]
┃ ┃ ┣━━11-标签分配-候选框筛选流程分析.abc [31.8M]
┃ ┃ ┣━━12-标签分配-预测值各项指标获取与调整.abc [47M]
┃ ┃ ┣━━13-标签分配-GT匹配正样本数量计算.abc [42.1M]
┃ ┃ ┣━━14-标签分配-通过IOU与置信度分配正样本.abc [60.5M]
┃ ┃ ┣━━15-损失函数-损失函数计算方法.abc [46.1M]
┃ ┃ ┣━━16-AUX部分-辅助头AUX网络结构配置文件解析.abc [31.1M]
┃ ┃ ┣━━17-AUX部分-辅助头损失函数调整.abc [39.3M]
┃ ┃ ┣━━18-RepConv-BN与卷积权重参数融合方法.abc [53.8M]
┃ ┃ ┗━━19-RepConv-重参数化多分支合并加速.abc [43.2M]
┃ ┣━━6-12 节基于Transformer的detr目标检测算法 [120.3M]
┃ ┃ ┣━━1-DETR目标检测基本思想解读.abc [19.4M]
┃ ┃ ┣━━2-整体网络架构分析.abc [31.6M]
┃ ┃ ┣━━3-位置信息初始化query向量.abc [20M]
┃ ┃ ┣━━4-注意力机制的作用方法.abc [20.9M]
┃ ┃ ┗━━5-训练过程的策略.abc [28.4M]
┃ ┣━━6-13 节detr目标检测源码解读 [378.4M]
┃ ┃ ┣━━1-项目环境配置解读.abc [40.4M]
┃ ┃ ┣━━2-数据处理与dataloader.abc [64.1M]
┃ ┃ ┣━━3-位置编码作用分析.abc [48M]
┃ ┃ ┣━━4-backbone特征提取模块.abc [35.6M]
┃ ┃ ┣━━5-mask与编码模块.abc [34.8M]
┃ ┃ ┣━━6-编码层作用方法.abc [42.9M]
┃ ┃ ┣━━7-Decoder层操作与计算.abc [30.2M]
┃ ┃ ┣━━8-输出预测结果.abc [41.3M]
┃ ┃ ┗━━9-损失函数与预测输出.abc [41.2M]
┃ ┣━━6-14 节DeformableDetr算法解读 [905.3M]
┃ ┃ ┗━━DeformableDetr算法解读.abc [905.3M]
┃ ┣━━6-15 节半监督物体检测 [824.8M]
┃ ┃ ┗━━半监督物体检测.abc [824.8M]
┃ ┣━━6-16 节EfficientNet网络 [538.5M]
┃ ┃ ┗━━EfficientNet网络模型.abc [538.5M]
┃ ┣━━6-17 节EfficientDet检测算法 [448M]
┃ ┃ ┗━━EfficientDet检测算法.abc [448M]
┃ ┣━━6-2 节YOLO-V1整体思想与网络架构 [104.9M]
┃ ┃ ┣━━1-YOLO算法整体思路解读.abc [14.8M]
┃ ┃ ┣━━2-检测算法要得到的结果.abc [13.6M]
┃ ┃ ┣━━3-整体网络架构解读.abc [30.7M]
┃ ┃ ┣━━4-位置损失计算.abc [19M]
┃ ┃ ┗━━5-置信度误差与优缺点分析.abc [26.9M]
┃ ┣━━6-3 节YOLO-V2改进细节详解 [157.3M]
┃ ┃ ┣━━1-V2版本细节升级概述.abc [13.4M]
┃ ┃ ┣━━2-网络结构特点.abc [15.7M]
┃ ┃ ┣━━3-架构细节解读.abc [18.9M]
┃ ┃ ┣━━4-基于聚类来选择先验框尺寸.abc [24.2M]
┃ ┃ ┣━━5-偏移量计算方法.abc [27.6M]
┃ ┃ ┣━━6-坐标映射与还原.abc [10.1M]
┃ ┃ ┣━━7-感受野的作用.abc [28.1M]
┃ ┃ ┗━━8-特征融合改进.abc [19.2M]
┃ ┣━━6-4 节YOLO-V3核心网络模型 [101.5M]
┃ ┃ ┣━━1-V3版本改进概述.abc [18.3M]
┃ ┃ ┣━━2-多scale方法改进与特征融合.abc [17.1M]
┃ ┃ ┣━━3-经典变换方法对比分析.abc [10.8M]
┃ ┃ ┣━━4-残差连接方法解读.abc [18.7M]
┃ ┃ ┣━━5-整体网络模型架构分析.abc [12.9M]
┃ ┃ ┣━━6-先验框设计改进.abc [13.1M]
┃ ┃ ┗━━7-softmax层改进.abc [10.6M]
┃ ┣━━6-5 节基于V3版本进行源码解读 [630.5M]
┃ ┃ ┣━━1-数据与环境配置.abc [65.5M]
┃ ┃ ┣━━2-训练参数设置.abc [23.9M]
┃ ┃ ┣━━3-数据与标签读取.abc [42.5M]
┃ ┃ ┣━━4-标签文件读取与处理.abc [27.5M]
┃ ┃ ┣━━5-debug模式介绍.abc [27.3M]
┃ ┃ ┣━━6-基于配置文件构建网络模型.abc [42.1M]
┃ ┃ ┣━━7-路由层与shortcut层的作用.abc [33.7M]
┃ ┃ ┣━━8-YOLO层定义解析.abc [61.1M]
┃ ┃ ┣━━9-预测结果计算.abc [46M]
┃ ┃ ┣━━10-网格偏移计算.abc [33.9M]
┃ ┃ ┣━━11-模型要计算的损失概述.abc [23.2M]
┃ ┃ ┣━━12-标签值格式修改.abc [28.3M]
┃ ┃ ┣━━13-坐标相对位置计算.abc [32.8M]
┃ ┃ ┣━━14-完成所有损失函数所需计算指标.abc [35.3M]
┃ ┃ ┣━━15-模型训练与总结.abc [72.9M]
┃ ┃ ┗━━16-预测效果展示.abc [34.5M]
┃ ┣━━6-6 节基于YOLO-V3训练⾃⼰的数据集与任务 [258.8M]
┃ ┃ ┣━━1-Labelme工具安装.abc [14.3M]
┃ ┃ ┣━━2-数据信息标注.abc [32.1M]
┃ ┃ ┣━━3-完成标签制作.abc [31.8M]
┃ ┃ ┣━━4-生成模型所需配置文件.abc [36.7M]
┃ ┃ ┣━━5-json格式转换成yolo-v3所需输入.abc [21M]
┃ ┃ ┣━━6-完成输入数据准备工作.abc [40.1M]
┃ ┃ ┣━━7-训练代码与参数配置更改.abc [44.3M]
┃ ┃ ┗━━8-训练模型并测试效果.abc [38.5M]
┃ ┣━━6-7 节YOLO-V4版本算法解读 [188.2M]
┃ ┃ ┣━━1-V4版本整体概述.abc [15.1M]
┃ ┃ ┣━━2-V4版本贡献解读.abc [10.1M]
┃ ┃ ┣━━3-数据增强策略分析.abc [24.7M]
┃ ┃ ┣━━4-DropBlock与标签平滑方法.abc [19.4M]
┃ ┃ ┣━━5-损失函数遇到的问题.abc [14.3M]
┃ ┃ ┣━━6-CIOU损失函数定义.abc [10.8M]
┃ ┃ ┣━━7-NMS细节改进.abc [16.7M]
┃ ┃ ┣━━8-SPP与CSP网络结构.abc [14.8M]
┃ ┃ ┣━━9-SAM注意力机制模块.abc [22.5M]
┃ ┃ ┣━━10-PAN模块解读.abc [20.7M]
┃ ┃ ┗━━11-激活函数与整体架构总结.abc [19.2M]
┃ ┣━━6-8 节V5版本项目配置 [179.1M]
┃ ┃ ┣━━1-整体项目概述.abc [35.8M]
┃ ┃ ┣━━2-训练自己的数据集方法.abc [41.3M]
┃ ┃ ┣━━3-训练数据参数配置.abc [51.5M]
┃ ┃ ┗━━4-测试DEMO演示.abc [50.5M]
┃ ┗━━6-9 节V5项目工程源码解读 [752.1M]
┃ ┣━━1-数据源DEBUG流程解读.abc [48.1M]
┃ ┣━━2-图像数据源配置.abc [34.7M]
┃ ┣━━3-加载标签数据.abc [26.3M]
┃ ┣━━4-Mosaic数据增强方法.abc [28.2M]
┃ ┣━━5-数据四合一方法与流程演示.abc [41.7M]
┃ ┣━━6-getItem构建batch.abc [33M]
┃ ┣━━7-网络架构图可视化工具安装.abc [34.3M]
┃ ┣━━8-V5网络配置文件解读.abc [35.8M]
┃ ┣━━9-Focus模块流程分析.abc [21.9M]
┃ ┣━━10-完成配置文件解析任务.abc [58.8M]
┃ ┣━━11-前向传播计算.abc [30.8M]
┃ ┣━━12-BottleneckCSP层计算方法.abc [33.8M]
┃ ┣━━13-SPP层计算细节分析.abc [29.2M]
┃ ┣━━14Head层流程解读.abc [29.2M]
┃ ┣━━15-上采样与拼接操作.abc [21.5M]
┃ ┣━━16-输出结果分析.abc [41.7M]
┃ ┣━━17-超参数解读.abc [35M]
┃ ┣━━18-命令行参数介绍.abc [44.3M]
┃ ┣━━19-训练流程解读.abc [46.8M]
┃ ┣━━20-各种训练策略概述.abc [38.4M]
┃ ┗━━21-模型迭代过程.abc [38.4M]
┣━━第7章 图像分割实战 [3.4G]
┃ ┣━━7-1 节图像分割及其损失函数概述 [49.3M]
┃ ┃ ┣━━1-语义分割与实例分割概述.abc [20.3M]
┃ ┃ ┣━━2-分割任务中的目标函数定义.abc [20M]
┃ ┃ ┗━━3-MIOU评估标准.abc [9M]
┃ ┣━━7-10 节物体检测框架-MaskRcnn项目介绍与配置 [228.5M]
┃ ┃ ┣━━1-Mask-Rcnn开源项目简介.abc [88.2M]
┃ ┃ ┣━━2-开源项目数据集.abc [42.5M]
┃ ┃ ┗━━3-参数配置.abc [97.9M]
┃ ┣━━7-11 节MaskRcnn网络框架源码详解 [380.5M]
┃ ┃ ┣━━1-FPN层特征提取原理解读.abc [42.3M]
┃ ┃ ┣━━2-FPN网络架构实现解读.abc [55.8M]
┃ ┃ ┣━━3-生成框比例设置.abc [28.3M]
┃ ┃ ┣━━4-基于不同尺度特征图生成所有框.abc [32.9M]
┃ ┃ ┣━━5-RPN层的作用与实现解读.abc [30.9M]
┃ ┃ ┣━━6-候选框过滤方法.abc [15.6M]
┃ ┃ ┣━━7-Proposal层实现方法.abc [33.3M]
┃ ┃ ┣━━8-DetectionTarget层的作用.abc [25.7M]
┃ ┃ ┣━━9-正负样本选择与标签定义.abc [27.6M]
┃ ┃ ┣━━10-RoiPooling层的作用与目的.abc [33.5M]
┃ ┃ ┣━━11-RorAlign操作的效果.abc [25.7M]
┃ ┃ ┗━━12-整体框架回顾.abc [28.9M]
┃ ┣━━7-12 节基于MASK-RCNN框架训练自己的数据与任务 [209.1M]
┃ ┃ ┣━━1-Labelme工具安装.abc [14.3M]
┃ ┃ ┣━━2-使用labelme进行数据与标签标注.abc [26.3M]
┃ ┃ ┣━━3-完成训练数据准备工作.abc [26.6M]
┃ ┃ ┣━━4-maskrcnn源码修改方法.abc [63.6M]
┃ ┃ ┣━━5-基于标注数据训练所需任务.abc [39.7M]
┃ ┃ ┗━━6-测试与展示模块.abc [38.6M]
┃ ┣━━7-2 节Unet系列算法讲解 [68.6M]
┃ ┃ ┣━━1-Unet网络编码与解码过程.abc [18.3M]
┃ ┃ ┣━━2-网络计算流程.abc [16.1M]
┃ ┃ ┣━━3-Unet升级版本改进.abc [15.8M]
┃ ┃ ┗━━4-后续升级版本介绍.abc [18.4M]
┃ ┣━━7-3 节unet医学细胞分割实战 [285M]
┃ ┃ ┣━━1-医学细胞数据集介绍与参数配置.abc [71.2M]
┃ ┃ ┣━━2-数据增强工具.abc [61.5M]
┃ ┃ ┣━━3-Debug模式演示网络计算流程.abc [41.4M]
┃ ┃ ┣━━4-特征融合方法演示.abc [30.1M]
┃ ┃ ┣━━5-迭代完成整个模型计算任务.abc [33.6M]
┃ ┃ ┗━━6-模型效果验证.abc [47.3M]
┃ ┣━━7-4 节U2NET显著性检测实战 [218.6M]
┃ ┃ ┣━━1-任务目标与网络整体介绍.abc [58.7M]
┃ ┃ ┣━━2-显著性检测任务与目标概述.abc [54M]
┃ ┃ ┣━━3-编码器模块解读.abc [43.7M]
┃ ┃ ┣━━4-解码器输出结果.abc [27.9M]
┃ ┃ ┗━━5-损失函数与应用效果.abc [34.4M]
┃ ┣━━7-5 节deeplab系列算法 [106.5M]
┃ ┃ ┣━━1-deeplab分割算法概述.abc [13.8M]
┃ ┃ ┣━━2-空洞卷积的作用.abc [16.7M]
┃ ┃ ┣━━3-感受野的意义.abc [19.4M]
┃ ┃ ┣━━4-SPP层的作用.abc [19M]
┃ ┃ ┣━━5-ASPP特征融合策略.abc [13.5M]
┃ ┃ ┗━━6-deeplabV3Plus版本网络架构.abc [24.1M]
┃ ┣━━7-6 节基于deeplabV3+版本进⾏VOC分割实战 [249.8M]
┃ ┃ ┣━━1-PascalVoc数据集介绍.abc [70.1M]
┃ ┃ ┣━━2-项目参数与数据集读取.abc [60.3M]
┃ ┃ ┣━━3-网络前向传播流程.abc [33.1M]
┃ ┃ ┣━━4-ASPP层特征融合.abc [51.2M]
┃ ┃ ┗━━5-分割模型训练.abc [35M]
┃ ┣━━7-7 节医学⼼脏视频数据集分割建模实战 [315.9M]
┃ ┃ ┣━━1-数据集与任务概述.abc [45.6M]
┃ ┃ ┣━━2-项目基本配置参数.abc [33.3M]
┃ ┃ ┣━━3-任务流程解读.abc [69.1M]
┃ ┃ ┣━━4-文献报告分析.abc [122.7M]
┃ ┃ ┣━━5-补充:视频数据源特征处理方法概述.abc [26.3M]
┃ ┃ ┗━━6-补充:R(2plus1)D处理方法分析.abc [18.9M]
┃ ┣━━7-8 节分割模型Maskformer系列 [776.9M]
┃ ┃ ┗━━分割模型Maskformer系列.abc [776.9M]
┃ ┗━━7-9 节补充:Mask2former源码解读 [591.5M]
┃ ┣━━1-Backbone获取多层级特征.abc [35.8M]
┃ ┣━━2-多层级采样点初始化构建.abc [41.5M]
┃ ┣━━3-多层级输入特征序列创建方法.abc [43.8M]
┃ ┣━━4-偏移量与权重计算并转换.abc [48.8M]
┃ ┣━━5-Encoder特征构建方法实例.abc [49.8M]
┃ ┣━━6-query要预测的任务解读.abc [45.6M]
┃ ┣━━7-Decoder中的AttentionMask方法.abc [50.9M]
┃ ┣━━8-损失模块输入参数分析.abc [40.9M]
┃ ┣━━9-标签分配策略解读.abc [42.5M]
┃ ┣━━10-正样本筛选损失计算.abc [41.8M]
┃ ┣━━11-标签分类匹配结果分析.abc [62.1M]
┃ ┣━━12-最终损失计算流程.abc [52.3M]
┃ ┗━━13-汇总所有损失完成迭代.abc [35.8M]
┣━━第8章 走向AI论文实验与项目实战的捷径-MMLAB实战系列 [9.3G]
┃ ┣━━8-1 节MMCV安装方法 [55.8M]
┃ ┃ ┗━━MMCV安装方法.abc [55.8M]
┃ ┣━━8-10 节补充:Mask2former源码解读 [591.5M]
┃ ┃ ┣━━1-Backbone获取多层级特征.abc [35.8M]
┃ ┃ ┣━━2-多层级采样点初始化构建.abc [41.5M]
┃ ┃ ┣━━3-多层级输入特征序列创建方法.abc [43.8M]
┃ ┃ ┣━━4-偏移量与权重计算并转换.abc [48.8M]
┃ ┃ ┣━━5-Encoder特征构建方法实例.abc [49.8M]
┃ ┃ ┣━━6-query要预测的任务解读.abc [45.6M]
┃ ┃ ┣━━7-Decoder中的AttentionMask方法.abc [50.9M]
┃ ┃ ┣━━8-损失模块输入参数分析.abc [40.9M]
┃ ┃ ┣━━9-标签分配策略解读.abc [42.5M]
┃ ┃ ┣━━10-正样本筛选损失计算.abc [41.8M]
┃ ┃ ┣━━11-标签分类匹配结果分析.abc [62.1M]
┃ ┃ ┣━━12-最终损失计算流程.abc [52.3M]
┃ ┃ ┗━━13-汇总所有损失完成迭代.abc [35.8M]
┃ ┣━━8-11 节第三模块:DeformableDetr算法解读 [809.9M]
┃ ┃ ┗━━DeformableDetr算法解读.abc [809.9M]
┃ ┣━━8-12 节KIE关键信息抽取与视频超分辨率重构 [1012.4M]
┃ ┃ ┗━━KIE关键信息抽取与视频超分辨率重构.abc [1012.4M]
┃ ┣━━8-13 节第四模块:DBNET文字检测 [229.9M]
┃ ┃ ┣━━1-文字检测数据概述与配置文件.abc [56.6M]
┃ ┃ ┣━━2-配置文件参数设置.abc [38.8M]
┃ ┃ ┣━━3-Neck层特征组合.abc [32.1M]
┃ ┃ ┣━━4-损失函数模块概述.abc [43.1M]
┃ ┃ ┗━━5-损失计算方法.abc [59.4M]
┃ ┣━━8-14 节第四模块:ANINET文字识别 [380.3M]
┃ ┃ ┣━━1-数据集与环境概述.abc [55.6M]
┃ ┃ ┣━━2-配置文件修改方法.abc [52.5M]
┃ ┃ ┣━━3-Bakbone模块得到特征.abc [42.1M]
┃ ┃ ┣━━4-视觉Transformer模块的作用.abc [46M]
┃ ┃ ┣━━5-视觉模型中的编码与解码的效果.abc [54.5M]
┃ ┃ ┣━━6-文本模型中的结构分析.abc [38.7M]
┃ ┃ ┣━━7-迭代修正模块.abc [38.2M]
┃ ┃ ┗━━8-输出层与损失计算.abc [52.8M]
┃ ┣━━8-15 节第四模块:KIE基于图模型的关键信息抽取 [418.1M]
┃ ┃ ┣━━1-配置文件以及要完成的任务解读.abc [51.6M]
┃ ┃ ┣━━2-KIE数据集格式调整方法.abc [69.5M]
┃ ┃ ┣━━3-配置文件与标签要进行处理操作.abc [47.8M]
┃ ┃ ┣━━4-边框要计算的特征分析.abc [35.6M]
┃ ┃ ┣━━5-标签数据处理与关系特征提取.abc [56.5M]
┃ ┃ ┣━━6-特征合并处理.abc [43.8M]
┃ ┃ ┣━━7-准备拼接边与点特征.abc [41.4M]
┃ ┃ ┗━━8-整合得到图模型输入特征.abc [72M]
┃ ┣━━8-16 节第五模块:stylegan2源码解读 [286.1M]
┃ ┃ ┣━━1-要完成的任务与基本思想概述.abc [57.8M]
┃ ┃ ┣━━2-得到style特征编码.abc [69.5M]
┃ ┃ ┣━━3-特征编码风格拼接.abc [36.8M]
┃ ┃ ┣━━4-基础风格特征卷积模块.abc [54.7M]
┃ ┃ ┣━━5-上采样得到输出结果.abc [40.8M]
┃ ┃ ┗━━6-损失函数概述.abc [26.6M]
┃ ┣━━8-17 节第六模块:BasicVSR++视频超分辨重构源码解读 [442.3M]
┃ ┃ ┣━━1-要完成的任务分析与配置文件.abc [27.4M]
┃ ┃ ┣━━2-特征基础提取模块.abc [44.6M]
┃ ┃ ┣━━3-光流估计网络模块.abc [25.7M]
┃ ┃ ┣━━4-基于光流完成对齐操作.abc [40.2M]
┃ ┃ ┣━━5-偏移量计算方法.abc [32.5M]
┃ ┃ ┣━━6-双向计算特征对齐.abc [37M]
┃ ┃ ┣━━7-提特征传递流程分析.abc [37.2M]
┃ ┃ ┣━━8-序列传播计算.abc [39.9M]
┃ ┃ ┣━━9-准备变形卷积模块的输入.abc [44.7M]
┃ ┃ ┣━━10-传播流程整体完成一圈.abc [61.6M]
┃ ┃ ┗━━11-完成输出结果.abc [51.6M]
┃ ┣━━8-18 节第七模块:多模态3D目标检测算法源码解读 [672.4M]
┃ ┃ ┣━━1-环境配置与数据集概述.abc [51.5M]
┃ ┃ ┣━━2-数据与标注文件介绍.abc [37.5M]
┃ ┃ ┣━━3-基本流程梳理并进入debug模式.abc [50.3M]
┃ ┃ ┣━━4-数据与图像特征提取模块.abc [58M]
┃ ┃ ┣━━5-体素索引位置获取.abc [64.7M]
┃ ┃ ┣━━6-体素特征提取方法解读.abc [37.6M]
┃ ┃ ┣━━7-体素特征计算方法分析.abc [70.7M]
┃ ┃ ┣━━8-全局体素特征提取.abc [96M]
┃ ┃ ┣━━9-多模态特征融合.abc [68.4M]
┃ ┃ ┣━━10-3D卷积特征融合.abc [56.8M]
┃ ┃ ┗━━11-输出层预测结果.abc [80.8M]
┃ ┣━━8-19 节第八模块:模型蒸馏应用实例 [368.9M]
┃ ┃ ┣━━1-任务概述与工具使用.abc [39.7M]
┃ ┃ ┣━━2-Teacher与Student网络结构定义.abc [46.3M]
┃ ┃ ┣━━3-训练T与S得到蒸馏模型.abc [70.6M]
┃ ┃ ┣━━4-开始模型训练过程与问题修正.abc [57.3M]
┃ ┃ ┣━━5-日志输出与模型分离.abc [70.3M]
┃ ┃ ┣━━6-分别得到Teacher与Student模型.abc [45.7M]
┃ ┃ ┗━━7-实际测试效果演示.abc [39M]
┃ ┣━━8-2 节第一模块:分类任务基本操作 [266.6M]
┃ ┃ ┣━━0-MMCLS问题修正.abc [23.5M]
┃ ┃ ┣━━1-准备MMCLS项目.abc [32.3M]
┃ ┃ ┣━━2-基本参数配置解读.abc [34.5M]
┃ ┃ ┣━━3-各模块配置文件组成.abc [35.8M]
┃ ┃ ┣━━4-生成完整配置文件.abc [24.5M]
┃ ┃ ┣━━5-根据文件夹定义数据集.abc [40.3M]
┃ ┃ ┣━━6-构建自己的数据集.abc [36.3M]
┃ ┃ ┗━━7-训练自己的任务.abc [39.3M]
┃ ┣━━8-20 节第八模块:模型剪枝方法概述分析 [87.4M]
┃ ┃ ┣━━1-SuperNet网络结构分析与剪枝概述.abc [40.6M]
┃ ┃ ┗━━2-搜索匹配到符合计算量的模型并训练.abc [46.8M]
┃ ┣━━8-21 节第九模块:mmaction行为识别 [232.7M]
┃ ┃ ┗━━创建自己的行为识别标注数据集.abc [232.7M]
┃ ┣━━8-22 节OCR算法解读 [1.1G]
┃ ┃ ┗━━OCR算法解读.abc [1.1G]
┃ ┣━━8-23 节额外补充-在源码中加入各种注意力机制方法 [122.5M]
┃ ┃ ┗━━在源码中加入各种注意力机制方法.abc [122.5M]
┃ ┣━━8-3 节第一模块:训练结果测试与验证 [494.7M]
┃ ┃ ┣━━1-测试DEMO效果.abc [25.5M]
┃ ┃ ┣━━2-测试评估模型效果.abc [27.6M]
┃ ┃ ┣━━3-MMCLS中增加一个新的模块.abc [62.6M]
┃ ┃ ┣━━4-修改配置文件中的参数.abc [67.7M]
┃ ┃ ┣━━5-数据增强流程可视化展示.abc [37.4M]
┃ ┃ ┣━━6-Grad-Cam可视化方法.abc [41.2M]
┃ ┃ ┣━━7-可视化细节与效果分析.abc [124.2M]
┃ ┃ ┣━━8-MMCLS可视化模块应用.abc [72.1M]
┃ ┃ ┗━━9-模型分析脚本使用.abc [36.4M]
┃ ┣━━8-4 节第一模块:模型源码DEBUG演示 [187.8M]
┃ ┃ ┣━━1-VIT任务概述.abc [30M]
┃ ┃ ┣━━2-数据增强模块概述分析.abc [49.6M]
┃ ┃ ┣━━3-PatchEmbedding层.abc [25.3M]
┃ ┃ ┣━━4-前向传播基本模块.abc [38.9M]
┃ ┃ ┗━━5-CLS与输出模块.abc [44M]
┃ ┣━━8-5 节第二模块:使用分割模块训练自己的数据集 [279M]
┃ ┃ ┣━━1-项目配置基本介绍.abc [74.2M]
┃ ┃ ┣━━2-数据集标注与制作方法.abc [56.9M]
┃ ┃ ┣━━3-根据预测类别数修改配置文件.abc [39.5M]
┃ ┃ ┣━━4-加载预训练模型开始训练.abc [86.5M]
┃ ┃ ┗━━5-预测DEMO演示.abc [21.9M]
┃ ┣━━8-6 节第二模块:基于Unet进行各种策略修改 [232.7M]
┃ ┃ ┣━━1-配置文件解读.abc [32.1M]
┃ ┃ ┣━━2-编码层模块.abc [32.5M]
┃ ┃ ┣━━3-上采样与输出层.abc [28.3M]
┃ ┃ ┣━━4-辅助层的作用.abc [19.8M]
┃ ┃ ┣━━5-给Unet添加一个neck层.abc [30.4M]
┃ ┃ ┣━━6-如何修改参数适配网络结构.abc [21.7M]
┃ ┃ ┣━━7-将Unet特征提取模块替换成transformer.abc [22.4M]
┃ ┃ ┗━━8-VIT模块源码分析.abc [45.5M]
┃ ┣━━8-7 节第二模块:分割任务CVPR最新Backbone设计及其应用 [502.1M]
┃ ┃ ┣━━1-注册自己的Backbone模块.abc [34.3M]
┃ ┃ ┣━━2-配置文件指定.abc [35.9M]
┃ ┃ ┣━━3-DEBUG解读Backbone设计.abc [40.5M]
┃ ┃ ┣━━4-PatchEmbedding的作用与实现.abc [44.9M]
┃ ┃ ┣━━5-卷积位置编码计算方法.abc [53.9M]
┃ ┃ ┣━━6-近似Attention模块实现.abc [79.5M]
┃ ┃ ┣━━7-完成特征提取与融合模块.abc [55.7M]
┃ ┃ ┣━━8-分割任务输出模块.abc [57.7M]
┃ ┃ ┣━━9-全局特征的作用与实现.abc [56.4M]
┃ ┃ ┗━━10-汇总多层级特征进行输出.abc [43.4M]
┃ ┣━━8-8 节第三模块:mmdet训练自己的数据任务 [326.7M]
┃ ┃ ┣━━1-数据集标注与标签获取.abc [31.4M]
┃ ┃ ┣━━2-COCO数据标注格式.abc [28.2M]
┃ ┃ ┣━━3-通过脚本生成COCO数据格式.abc [38.6M]
┃ ┃ ┣━━4-配置文件数据增强策略分析.abc [45.6M]
┃ ┃ ┣━━5-训练所需配置说明.abc [56M]
┃ ┃ ┣━━6-模型训练与DEMO演示.abc [35.3M]
┃ ┃ ┣━━7-模型测试与可视化分析模块.abc [77.6M]
┃ ┃ ┗━━8-补充:评估指标.abc [14.1M]
┃ ┗━━8-9 节第三模块:DeformableDetr物体检测源码分析 [466.5M]
┃ ┣━━1-特征提取与位置编码.abc [38.2M]
┃ ┣━━2-序列特征展开并叠加.abc [51.1M]
┃ ┣━━3-得到相对位置点编码.abc [28.8M]
┃ ┣━━4-准备Encoder编码层所需全部输入.abc [37.9M]
┃ ┣━━5-编码层中的序列分析.abc [39.7M]
┃ ┣━━6-偏移量offset计算.abc [46.1M]
┃ ┣━━7-偏移量对齐操作.abc [39.8M]
┃ ┣━━8-Encoder层完成特征对齐.abc [51.8M]
┃ ┣━━9-Decoder要完成的操作.abc [39M]
┃ ┣━━10-分类与回归输出模块.abc [49.7M]
┃ ┗━━11-预测输出结果与标签匹配模块.abc [44.3M]
┣━━第9章 经典视觉项目实战-行为识别 [2.1G]
┃ ┣━━9-1 节slowfast算法知识点通俗解读 [172.8M]
┃ ┃ ┣━━1-slowfast核心思想解读.abc [74.9M]
┃ ┃ ┣━━2-核心网络结构模块分析.abc [21M]
┃ ┃ ┣━━3-数据采样层的作用.abc [18.3M]
┃ ┃ ┣━━4-模型网络结构设计.abc [19.3M]
┃ ┃ ┗━━5-特征融合模块与总结分析.abc [39.3M]
┃ ┣━━9-2 节slowfast项目环境配置与配置文件 [368.6M]
┃ ┃ ┣━━1-环境基本配置解读.abc [45.4M]
┃ ┃ ┣━━2-目录各文件分析.abc [36.9M]
┃ ┃ ┣━━3-配置文件作用解读.abc [50.9M]
┃ ┃ ┣━━4-测试DEMO演示.abc [66.8M]
┃ ┃ ┣━━5-训练所需标签文件说明.abc [48.8M]
┃ ┃ ┣━━6-训练所需视频数据准备.abc [47.4M]
┃ ┃ ┣━━7-视频数据集切分操作.abc [39.7M]
┃ ┃ ┗━━8-完成视频分帧操作.abc [32.8M]
┃ ┣━━9-3 节slowfast源码详细解读 [564.1M]
┃ ┃ ┣━━1-模型所需配置文件参数读取.abc [33.3M]
┃ ┃ ┣━━2-数据处理概述.abc [49.7M]
┃ ┃ ┣━━3-dataloader数据遍历方法.abc [56.9M]
┃ ┃ ┣━━4-数据与标签读取实例.abc [52.2M]
┃ ┃ ┣━━5-图像数据所需预处理方法.abc [66.8M]
┃ ┃ ┣━━6-slow与fast分别执行采样操作.abc [66.4M]
┃ ┃ ┣━━7-分别计算特征图输出结果.abc [56.7M]
┃ ┃ ┣━━8-slow与fast特征图拼接操作.abc [49.7M]
┃ ┃ ┣━━9-resnetBlock操作.abc [53.6M]
┃ ┃ ┗━━10-RoiAlign与输出层.abc [78.9M]
┃ ┣━━9-4 节基于3D卷积的视频分析与动作识别 [283.5M]
┃ ┃ ┣━━1-3D卷积原理解读.abc [20.6M]
┃ ┃ ┣━━2-UCF101动作识别数据集简介.abc [51.7M]
┃ ┃ ┣━━3-测试效果与项目配置.abc [55.6M]
┃ ┃ ┣━━4-视频数据预处理方法.abc [32.3M]
┃ ┃ ┣━━5-数据Batch制作方法.abc [46.7M]
┃ ┃ ┣━━6-3D卷积网络所涉及模块.abc [37.8M]
┃ ┃ ┗━━7-训练网络模型.abc [38.8M]
┃ ┣━━9-5 节视频异常检测算法与元学习 [159.7M]
┃ ┃ ┣━━1-异常检测要解决的问题与数据集介绍.abc [21.5M]
┃ ┃ ┣━━2-基本思想与流程分析.abc [24.3M]
┃ ┃ ┣━━3-预测与常见问题.abc [26.6M]
┃ ┃ ┣━━4-Meta-Learn要解决的问题.abc [20.8M]
┃ ┃ ┣━━5-学习能力与参数定义.abc [14.2M]
┃ ┃ ┣━━6-如何找到合适的初始化参数.abc [23.4M]
┃ ┃ ┗━━7-MAML算法流程解读.abc [29M]
┃ ┣━━9-6 节视频异常检测CVPR2021论文及其源码解读 [285.7M]
┃ ┃ ┣━━1-论文概述与环境配置.abc [26.6M]
┃ ┃ ┣━━2-数据集配置与读取.abc [38.8M]
┃ ┃ ┣━━3-模型编码与解码结构.abc [33.4M]
┃ ┃ ┣━━4-注意力机制模块打造.abc [61.1M]
┃ ┃ ┣━━5-损失函数的目的.abc [58M]
┃ ┃ ┣━━6-特征图生成.abc [38M]
┃ ┃ ┗━━7-MetaLearn与输出.abc [29.8M]
┃ ┗━━9-7 节基础补充-Resnet模型及其应用实例 [286M]
┃ ┣━━1-医学疾病数据集介绍.abc [18.9M]
┃ ┣━━2-Resnet网络架构原理分析.abc [24.8M]
┃ ┣━━3-dataloader加载数据集.abc [64.8M]
┃ ┣━━4-Resnet网络前向传播.abc [35.8M]
┃ ┣━━5-残差网络的shortcut操作.abc [47.4M]
┃ ┣━━6-特征图升维与降采样操作.abc [26.9M]
┃ ┗━━7-网络整体流程与训练演示.abc [67.5M]

┣━━第10章 经典视觉项目实战-目标追踪与姿态估计 [2.5G]
┃ ┣━━10-1 节课程介绍 [27.3M]
┃ ┃ ┗━━0-姿态估计课程介绍.abc [27.3M]
┃ ┣━━10-2 节姿态估计OpenPose系列算法解读 [354.7M]
┃ ┃ ┣━━1-姿态估计要解决的问题分析.abc [79.5M]
┃ ┃ ┣━━2-姿态估计应用领域概述.abc [20.8M]
┃ ┃ ┣━━3-传统topdown方法的问题.abc [38M]
┃ ┃ ┣━━4-要解决的两个问题分析.abc [10.2M]
┃ ┃ ┣━━5-基于高斯分布预测关键点位置.abc [24.8M]
┃ ┃ ┣━━6-各模块输出特征图解读.abc [15.6M]
┃ ┃ ┣━━7-PAF向量登场.abc [12.6M]
┃ ┃ ┣━━8-PAF标签设计方法.abc [25M]
┃ ┃ ┣━━9-预测时PAF积分计算方法.abc [34.9M]
┃ ┃ ┣━━10-匹配方法解读.abc [21.1M]
┃ ┃ ┣━━11-CPM模型特点.abc [22M]
┃ ┃ ┗━━12-算法流程与总结.abc [50.3M]
┃ ┣━━10-3 节OpenPose算法源码分析 [366.7M]
┃ ┃ ┣━━1-数据集与路径配置解读.abc [33.8M]
┃ ┃ ┣━━2-读取图像与标注信息.abc [46.8M]
┃ ┃ ┣━━3-关键点与躯干特征图初始化.abc [34.3M]
┃ ┃ ┣━━4-根据关键点位置设计关键点标签.abc [54.9M]
┃ ┃ ┣━━5-准备构建PAF躯干标签.abc [29.6M]
┃ ┃ ┣━━6-各位置点归属判断.abc [28.1M]
┃ ┃ ┣━━7-特征图各点累加向量计算.abc [32.7M]
┃ ┃ ┣━━8-完成PAF特征图制作.abc [31.9M]
┃ ┃ ┣━━9-网络模型一阶段输出.abc [27.5M]
┃ ┃ ┗━━10-多阶段输出与预测.abc [47M]
┃ ┣━━10-4 节deepsort算法知识点解读 [270.5M]
┃ ┃ ┣━━1-卡尔曼滤波通俗解释.abc [31.5M]
┃ ┃ ┣━━2-卡尔曼滤波要完成的任务.abc [15.6M]
┃ ┃ ┣━━3-任务本质分析.abc [19.1M]
┃ ┃ ┣━━4-基于观测值进行最优估计.abc [17.1M]
┃ ┃ ┣━━5-预测与更新操作.abc [24M]
┃ ┃ ┣━━6-追踪中的状态量.abc [16M]
┃ ┃ ┣━━7-匈牙利匹配算法概述.abc [19.2M]
┃ ┃ ┣━━8-匹配小例子分析.abc [21.8M]
┃ ┃ ┣━━9-REID特征的作用.abc [20.9M]
┃ ┃ ┣━━10-sort与deepsort建模流程分析.abc [26.8M]
┃ ┃ ┣━━11-预测与匹配流程解读.abc [26.3M]
┃ ┃ ┗━━12-追踪任务流程拆解.abc [32.1M]
┃ ┣━━10-5 节deepsort源码解读 [452M]
┃ ┃ ┣━━1-项目环境配置.abc [37.3M]
┃ ┃ ┣━━2-参数与DEMO演示.abc [42.2M]
┃ ┃ ┣━━3-针对检测结果初始化track.abc [48.2M]
┃ ┃ ┣━━4-对track执行预测操作.abc [38.3M]
┃ ┃ ┣━━5-状态量预测结果.abc [36M]
┃ ┃ ┣━━6-IOU代价矩阵计算.abc [32.9M]
┃ ┃ ┣━━7-参数更新操作.abc [50.2M]
┃ ┃ ┣━━8-级联匹配模块.abc [43.4M]
┃ ┃ ┣━━9-ReID特征代价矩阵计算.abc [46.5M]
┃ ┃ ┗━━10-匹配结果与总结.abc [76.9M]
┃ ┣━━10-6 节YOLO-V4版本算法解读 [188.2M]
┃ ┃ ┣━━1-V4版本整体概述.abc [15.1M]
┃ ┃ ┣━━2-V4版本贡献解读.abc [10.1M]
┃ ┃ ┣━━3-数据增强策略分析.abc [24.7M]
┃ ┃ ┣━━4-DropBlock与标签平滑方法.abc [19.4M]
┃ ┃ ┣━━5-损失函数遇到的问题.abc [14.3M]
┃ ┃ ┣━━6-CIOU损失函数定义.abc [10.8M]
┃ ┃ ┣━━7-NMS细节改进.abc [16.7M]
┃ ┃ ┣━━8-SPP与CSP网络结构.abc [14.8M]
┃ ┃ ┣━━9-SAM注意力机制模块.abc [22.5M]
┃ ┃ ┣━━10-PAN模块解读.abc [20.6M]
┃ ┃ ┗━━11-激活函数与整体架构总结.abc [19.2M]
┃ ┣━━10-7 节V5版本项目配置 [179.1M]
┃ ┃ ┣━━1-整体项目概述.abc [35.8M]
┃ ┃ ┣━━2-训练自己的数据集方法.abc [41.3M]
┃ ┃ ┣━━3-训练数据参数配置.abc [51.5M]
┃ ┃ ┗━━4-测试DEMO演示.abc [50.5M]
┃ ┗━━10-8 节V5项目工程源码解读 [752.1M]
┃ ┣━━1-数据源DEBUG流程解读.abc [48.1M]
┃ ┣━━2-图像数据源配置.abc [34.7M]
┃ ┣━━3-加载标签数据.abc [26.3M]
┃ ┣━━4-Mosaic数据增强方法.abc [28.2M]
┃ ┣━━5-数据四合一方法与流程演示.abc [41.7M]
┃ ┣━━6-getItem构建batch.abc [33M]
┃ ┣━━7-网络架构图可视化工具安装.abc [34.3M]
┃ ┣━━8-V5网络配置文件解读.abc [35.8M]
┃ ┣━━9-Focus模块流程分析.abc [21.9M]
┃ ┣━━10-完成配置文件解析任务.abc [58.8M]
┃ ┣━━11-前向传播计算.abc [30.8M]
┃ ┣━━12-BottleneckCSP层计算方法.abc [33.8M]
┃ ┣━━13-SPP层计算细节分析.abc [29.2M]
┃ ┣━━14Head层流程解读.abc [29.2M]
┃ ┣━━15-上采样与拼接操作.abc [21.5M]
┃ ┣━━16-输出结果分析.abc [41.7M]
┃ ┣━━17-超参数解读.abc [35M]
┃ ┣━━18-命令行参数介绍.abc [44.3M]
┃ ┣━━19-训练流程解读.abc [46.8M]
┃ ┣━━20-各种训练策略概述.abc [38.4M]
┃ ┗━━21-模型迭代过程.abc [38.4M]
┣━━第11章 Transformer实战解读 [9.6G]
┃ ┣━━11-1 节Transformer算法解读 [557.2M]
┃ ┃ ┗━━Transformer算法解读.abc [557.2M]
┃ ┣━━11-10 节MedicalTrasnformer论文解读 [272.5M]
┃ ┃ ┣━━1-论文整体分析.abc [23.7M]
┃ ┃ ┣━━2-核心思想分析.abc [54.3M]
┃ ┃ ┣━━3-网络结构计算流程概述.abc [44.5M]
┃ ┃ ┣━━4-论文公式计算分析.abc [46.9M]
┃ ┃ ┣━━5-位置编码的作用与效果.abc [46.6M]
┃ ┃ ┗━━6-拓展应用分析.abc [56.5M]
┃ ┣━━11-11 节MedicalTransformer源码解读 [265.9M]
┃ ┃ ┣━━1-项目环境配置MedicalTransformer.abc [25.4M]
┃ ┃ ┣━━2-医学数据介绍与分析.abc [56.7M]
┃ ┃ ┣━━3-基本处理操作.abc [25.8M]
┃ ┃ ┣━━4-AxialAttention实现过程.abc [37M]
┃ ┃ ┣━━5-位置编码向量解读.abc [27.9M]
┃ ┃ ┣━━6-注意力计算过程与方法.abc [52.3M]
┃ ┃ ┗━━7-局部特征提取与计算.abc [40.9M]
┃ ┣━━11-12 节商汤LoFTR算法解读 [292M]
┃ ┃ ┣━━1-特征匹配的应用场景.abc [87.4M]
┃ ┃ ┣━━2-特征匹配的基本流程分析.abc [15.9M]
┃ ┃ ┣━━3-整体流程梳理分析.abc [16.5M]
┃ ┃ ┣━━4-CrossAttention的作用与效果.abc [15.7M]
┃ ┃ ┣━━5-transformer构建匹配特征.abc [33.8M]
┃ ┃ ┣━━6-粗粒度匹配过程与作用.abc [26M]
┃ ┃ ┣━━7-特征图拆解操作.abc [14.3M]
┃ ┃ ┣━━8-细粒度匹配的作用与方法.abc [19.9M]
┃ ┃ ┣━━9-基于期望预测最终位置.abc [23.1M]
┃ ┃ ┗━━10-总结分析.abc [39.4M]
┃ ┣━━11-13 节局部特征关键点匹配实战 [418.2M]
┃ ┃ ┣━━1-项目与参数配置解读.abc [44.5M]
┃ ┃ ┣━━2-DEMO效果演示.abc [39.6M]
┃ ┃ ┣━━3-backbone特征提取模块.abc [28.7M]
┃ ┃ ┣━━4-注意力机制的作用与效果分析.abc [31.1M]
┃ ┃ ┣━━5-特征融合模块实现方法.abc [29.4M]
┃ ┃ ┣━━6-cross关系计算方法实例.abc [29.4M]
┃ ┃ ┣━━7-粗粒度匹配过程.abc [49.8M]
┃ ┃ ┣━━8-完成基础匹配模块.abc [63.3M]
┃ ┃ ┣━━9-精细化调整方法与实例.abc [42.8M]
┃ ┃ ┣━━10-得到精细化输出结果.abc [19.4M]
┃ ┃ ┗━━11-通过期望计算最终输出.abc [40.3M]
┃ ┣━━11-14 节分割模型Maskformer系列 [776.9M]
┃ ┃ ┗━━分割模型Maskformer系列.abc [776.9M]
┃ ┣━━11-15 节Mask2former源码解读 [591.5M]
┃ ┃ ┣━━1-Backbone获取多层级特征.abc [35.8M]
┃ ┃ ┣━━2-多层级采样点初始化构建.abc [41.5M]
┃ ┃ ┣━━3-多层级输入特征序列创建方法.abc [43.8M]
┃ ┃ ┣━━4-偏移量与权重计算并转换.abc [48.8M]
┃ ┃ ┣━━5-Encoder特征构建方法实例.abc [49.8M]
┃ ┃ ┣━━6-query要预测的任务解读.abc [45.6M]
┃ ┃ ┣━━7-Decoder中的AttentionMask方法.abc [50.9M]
┃ ┃ ┣━━8-损失模块输入参数分析.abc [40.9M]
┃ ┃ ┣━━9-标签分配策略解读.abc [42.5M]
┃ ┃ ┣━━10-正样本筛选损失计算.abc [41.8M]
┃ ┃ ┣━━11-标签分类匹配结果分析.abc [62.1M]
┃ ┃ ┣━━12-最终损失计算流程.abc [52.3M]
┃ ┃ ┗━━13-汇总所有损失完成迭代.abc [35.8M]
┃ ┣━━11-16 节BEV特征空间 [876.4M]
┃ ┃ ┗━━BEV特征空间.abc [876.4M]
┃ ┣━━11-17 节BevFormer源码解读 [492.4M]
┃ ┃ ┣━━1-环境配置方法解读.abc [42.8M]
┃ ┃ ┣━━2-数据集下载与配置方法.abc [53.6M]
┃ ┃ ┣━━3-特征提取以及BEV空间初始化.abc [43.8M]
┃ ┃ ┣━━4-特征对齐与位置编码初始化.abc [43.6M]
┃ ┃ ┣━━5-Reference初始点构建.abc [37.3M]
┃ ┃ ┣━━6-BEV空间与图像空间位置对应.abc [37.7M]
┃ ┃ ┣━━7-注意力机制模块计算方法.abc [38.6M]
┃ ┃ ┣━━8-BEV空间特征构建.abc [34M]
┃ ┃ ┣━━9-Decoder要完成的任务分析.abc [34M]
┃ ┃ ┣━━10-获取当前BEV特征.abc [35.9M]
┃ ┃ ┣━━11-Decoder级联校正模块.abc [41.6M]
┃ ┃ ┗━━12-损失函数与预测可视化.abc [49.5M]
┃ ┣━━11-18 节时间序列预测 [424.1M]
┃ ┃ ┗━━时间序列预测.abc [424.1M]
┃ ┣━━11-19 节Informer时间序列源码解读 [1.4G]
┃ ┃ ┗━━Informer时间序列预测源码解读.abc [1.4G]
┃ ┣━━11-2 节视觉Transformer及其源码分析 [878.2M]
┃ ┃ ┗━━视觉Transformer及其源码分析.abc [878.2M]
┃ ┣━━11-20 节Huggingface与NLP(讲故事) [185.9M]
┃ ┃ ┗━━Huggingface与NLP(讲故事).abc [185.9M]
┃ ┣━━11-3 节VIT算法模型源码解读 [139.1M]
┃ ┃ ┣━━1-项目配置说明.abc [43.3M]
┃ ┃ ┣━━2-输入序列构建方法解读.abc [29.9M]
┃ ┃ ┣━━3-注意力机制计算.abc [28.1M]
┃ ┃ ┗━━4-输出层计算结果.abc [37.8M]
┃ ┣━━11-4 节swintransformer算法原理解析 [213.3M]
┃ ┃ ┣━━1-swintransformer整体概述.abc [14.8M]
┃ ┃ ┣━━2-要解决的问题及其优势分析.abc [22.4M]
┃ ┃ ┣━━3-一个block要完成的任务.abc [17.4M]
┃ ┃ ┣━━4-获取各窗口输入特征.abc [19.1M]
┃ ┃ ┣━━5-基于窗口的注意力机制解读.abc [29.6M]
┃ ┃ ┣━━6-窗口偏移操作的实现.abc [24.4M]
┃ ┃ ┣━━7-偏移细节分析及其计算量概述.abc [20.5M]
┃ ┃ ┣━━8-整体网络架构整合.abc [21M]
┃ ┃ ┣━━9-下采样操作实现方法.abc [22.3M]
┃ ┃ ┗━━10-分层计算方法.abc [21.8M]
┃ ┣━━11-5 节swintransformer源码解读 [288M]
┃ ┃ ┣━━1-数据与环境配置解读.abc [59.7M]
┃ ┃ ┣━━2-图像数据patch编码.abc [37.7M]
┃ ┃ ┣━━3-数据按window进行划分计算.abc [31.5M]
┃ ┃ ┣━━4-基础attention计算模块.abc [27.7M]
┃ ┃ ┣━━5-窗口位移模块细节分析.abc [36.9M]
┃ ┃ ┣━━6-patchmerge下采样操作.abc [25.3M]
┃ ┃ ┣━━7-各block计算方法解读.abc [28M]
┃ ┃ ┗━━8-输出层概述.abc [41.2M]
┃ ┣━━11-6 节基于Transformer的detr⽬标检测算法 [120.3M]
┃ ┃ ┣━━1-DETR目标检测基本思想解读.abc [19.4M]
┃ ┃ ┣━━2-整体网络架构分析.abc [31.6M]
┃ ┃ ┣━━3-位置信息初始化query向量.abc [20M]
┃ ┃ ┣━━4-注意力机制的作用方法.abc [20.9M]
┃ ┃ ┗━━5-训练过程的策略.abc [28.4M]
┃ ┣━━11-7 节detr⽬标检测源码解读 [378.4M]
┃ ┃ ┣━━1-项目环境配置解读.abc [40.4M]
┃ ┃ ┣━━2-数据处理与dataloader.abc [64.1M]
┃ ┃ ┣━━3-位置编码作用分析.abc [48M]
┃ ┃ ┣━━4-backbone特征提取模块.abc [35.6M]
┃ ┃ ┣━━5-mask与编码模块.abc [34.8M]
┃ ┃ ┣━━6-编码层作用方法.abc [42.9M]
┃ ┃ ┣━━7-Decoder层操作与计算.abc [30.2M]
┃ ┃ ┣━━8-输出预测结果.abc [41.3M]
┃ ┃ ┗━━9-损失函数与预测输出.abc [41.2M]
┃ ┣━━11-8 节DeformableDetr算法解读 [809.9M]
┃ ┃ ┗━━DeformableDetr算法解读.abc [809.9M]
┃ ┗━━11-9 节DeformableDetr物体检测源码分析 [466.5M]
┃ ┣━━1-特征提取与位置编码.abc [38.2M]
┃ ┣━━2-序列特征展开并叠加.abc [51.1M]
┃ ┣━━3-得到相对位置点编码.abc [28.8M]
┃ ┣━━4-准备Encoder编码层所需全部输入.abc [37.9M]
┃ ┣━━5-编码层中的序列分析.abc [39.7M]
┃ ┣━━6-偏移量offset计算.abc [46.1M]
┃ ┣━━7-偏移量对齐操作.abc [39.8M]
┃ ┣━━8-Encoder层完成特征对齐.abc [51.8M]
┃ ┣━━9-Decoder要完成的操作.abc [39M]
┃ ┣━━10-分类与回归输出模块.abc [49.7M]
┃ ┗━━11-预测输出结果与标签匹配模块.abc [44.3M]
┣━━第12章 图神经网络实战 [3.5G]
┃ ┣━━12-1 节图神经网络基础 [99.4M]
┃ ┃ ┣━━1-图神经网络应用领域分析.abc [26.4M]
┃ ┃ ┣━━2-图基本模块定义.abc [10.5M]
┃ ┃ ┣━━3-邻接矩阵的定义.abc [16.1M]
┃ ┃ ┣━━4-GNN中常见任务.abc [19.2M]
┃ ┃ ┣━━5-消息传递计算方法.abc [14.2M]
┃ ┃ ┗━━6-多层GCN的作用.abc [13M]
┃ ┣━━12-10 节基于图模型的时间序列预测 [1021.2M]
┃ ┃ ┗━━基于图模型的时间序列预测.abc [1021.2M]
┃ ┣━━12-11 节异构图神经网络 [754.1M]
┃ ┃ ┗━━异构图神经网络.abc [754.1M]
┃ ┣━━12-2 节图卷积GCN模型 [65.3M]
┃ ┃ ┣━━1-GCN基本模型概述.abc [13.3M]
┃ ┃ ┣━━2-图卷积的基本计算方法.abc [12.6M]
┃ ┃ ┣━━3-邻接的矩阵的变换.abc [18.4M]
┃ ┃ ┗━━4-GCN变换原理解读.abc [21.1M]
┃ ┣━━12-3 节图模型必备神器PyTorch Geometric安装与使用 [186.7M]
┃ ┃ ┣━━1-PyTorch Geometric工具包安装与配置方法.abc [45.1M]
┃ ┃ ┣━━2-数据集与邻接矩阵格式.abc [51.9M]
┃ ┃ ┣━━3-模型定义与训练方法.abc [41.9M]
┃ ┃ ┗━━4-文献引用数据集分类案例实战.abc [47.8M]
┃ ┣━━12-4 节使用PyTorch Geometric构建自己的图数据集 [268M]
┃ ┃ ┣━━1-构建数据集基本方法.abc [13.5M]
┃ ┃ ┣━━2-数据集与任务背景概述.abc [21.6M]
┃ ┃ ┣━━3-数据集基本预处理.abc [31.5M]
┃ ┃ ┣━━4-用户行为图结构创建.abc [36.7M]
┃ ┃ ┣━━5-数据集创建函数介绍.abc [34.9M]
┃ ┃ ┣━━6-网络结构定义模块.abc [36.9M]
┃ ┃ ┣━━7-TopkPooling进行下采样任务.abc [31.3M]
┃ ┃ ┣━━8-获取全局特征.abc [25.7M]
┃ ┃ ┗━━9-模型训练与总结.abc [35.9M]
┃ ┣━━12-5 节图注意力机制与序列图模型 [74.2M]
┃ ┃ ┣━━1-图注意力机制的作用与方法.abc [16.5M]
┃ ┃ ┣━━2-邻接矩阵计算图Attention.abc [21.4M]
┃ ┃ ┣━━3-序列图神经网络TGCN应用.abc [12.6M]
┃ ┃ ┗━━4-序列图神经网络细节.abc [23.7M]
┃ ┣━━12-6 节图相似度论文解读 [311.4M]
┃ ┃ ┣━━1-要完成的任务分析.abc [47.8M]
┃ ┃ ┣━━2-基本方法概述解读.abc [52.7M]
┃ ┃ ┣━━3-图模型提取全局与局部特征.abc [47.4M]
┃ ┃ ┣━━4-NTN模块的作用与效果.abc [41.1M]
┃ ┃ ┣━━5-点之间的对应关系计算.abc [51.2M]
┃ ┃ ┗━━6-结果输出与总结.abc [71.2M]
┃ ┣━━12-7 节图相似度计算实战 [216.3M]
┃ ┃ ┣━━1-数据集与任务概述.abc [18.1M]
┃ ┃ ┣━━2-图卷积特征提取模块.abc [55.9M]
┃ ┃ ┣━━3-分别计算不同Batch点的分布.abc [31.7M]
┃ ┃ ┣━━4-获得直方图特征结果.abc [21.1M]
┃ ┃ ┣━━5-图的全局特征构建.abc [31.5M]
┃ ┃ ┣━━6-NTN图相似特征提取.abc [39.3M]
┃ ┃ ┗━━7-预测得到相似度结果.abc [18.7M]
┃ ┣━━12-8 节基于图模型的轨迹估计 [448.7M]
┃ ┃ ┣━━1-数据集与标注信息解读.abc [57.5M]
┃ ┃ ┣━━2-整体三大模块分析.abc [71.8M]
┃ ┃ ┣━━3-特征工程的作用与效果.abc [41.8M]
┃ ┃ ┣━━4-传统方法与现在向量空间对比.abc [51.8M]
┃ ┃ ┣━━5-输入细节分析.abc [50M]
┃ ┃ ┣━━6-子图模块构建方法.abc [42.6M]
┃ ┃ ┣━━7-特征融合模块分析.abc [47.7M]
┃ ┃ ┗━━8-VectorNet输出层分析.abc [85.5M]
┃ ┗━━12-9 节图模型轨迹估计实战 [164.2M]
┃ ┣━━1-数据与环境配置.abc [35.4M]
┃ ┣━━2-训练数据准备.abc [27.7M]
┃ ┣━━3-Agent特征提取方法.abc [37.9M]
┃ ┣━━4-DataLoader构建图结构.abc [28.6M]
┃ ┗━━5-SubGraph与Attention模型流程.abc [34.6M]
┣━━第13章 -面向深度学习的无人驾驶实战 [4.7G]
┃ ┣━━13-1 节深度估计算法原理解读 [346.7M]
┃ ┃ ┣━━1-深度估计效果与应用.abc [98.5M]
┃ ┃ ┣━━2-kitti数据集介绍.abc [59.5M]
┃ ┃ ┣━━3-使用backbone获取层级特征.abc [22.2M]
┃ ┃ ┣━━4-差异特征计算边界信息.abc [26.5M]
┃ ┃ ┣━━5-SPP层的作用.abc [15.3M]
┃ ┃ ┣━━6-空洞卷积与ASPP.abc [19M]
┃ ┃ ┣━━7-特征拼接方法分析.abc [21.3M]
┃ ┃ ┣━━8-网络coarse-to-fine过程.abc [26.5M]
┃ ┃ ┣━━9-权重参数预处理.abc [27.5M]
┃ ┃ ┗━━10-损失计算.abc [30.5M]
┃ ┣━━13-10 节NeuralRecon项目源码解读 [379.6M]
┃ ┃ ┣━━1-Backbone得到特征图.abc [36M]
┃ ┃ ┣━━2-初始化体素位置.abc [41.5M]
┃ ┃ ┣━━3-坐标映射方法实现.abc [26.7M]
┃ ┃ ┣━━4-得到体素所对应特征图.abc [50.7M]
┃ ┃ ┣━━5-插值得到对应特征向量.abc [32.4M]
┃ ┃ ┣━━6-得到一阶段输出结果.abc [38.1M]
┃ ┃ ┣━━7-完成三个阶段预测结果.abc [45.8M]
┃ ┃ ┗━━8-项目总结.abc [108.4M]
┃ ┣━━13-11 节TSDF算法与应用 [152.8M]
┃ ┃ ┣━━1-TSDF整体概述分析.abc [23.2M]
┃ ┃ ┣━━2-合成过程DEMO演示.abc [27.6M]
┃ ┃ ┣━━3-布局初始化操作.abc [12.7M]
┃ ┃ ┣━━4-TSDF计算基本流程解读.abc [23.9M]
┃ ┃ ┣━━5-坐标转换流程分析.abc [31.1M]
┃ ┃ ┗━━6-输出结果融合更新.abc [34.2M]
┃ ┣━━13-12 节TSDF实战案例 [98.1M]
┃ ┃ ┣━━1-环境配置概述.abc [32.7M]
┃ ┃ ┣━━2-初始化与数据读取.abc [21.3M]
┃ ┃ ┗━━3-计算得到TSDF输出.abc [44.1M]
┃ ┣━━13-13 节轨迹估计算法与论文解读 [448.7M]
┃ ┃ ┣━━1-数据集与标注信息解读.abc [57.5M]
┃ ┃ ┣━━2-整体三大模块分析.abc [71.8M]
┃ ┃ ┣━━3-特征工程的作用与效果.abc [41.8M]
┃ ┃ ┣━━4-传统方法与现在向量空间对比.abc [51.8M]
┃ ┃ ┣━━5-输入细节分析.abc [50M]
┃ ┃ ┣━━6-子图模块构建方法.abc [42.6M]
┃ ┃ ┣━━7-特征融合模块分析.abc [47.7M]
┃ ┃ ┗━━8-VectorNet输出层分析.abc [85.5M]
┃ ┣━━13-14 节轨迹估计预测实战 [164.5M]
┃ ┃ ┣━━1-数据与环境配置..abc [35.4M]
┃ ┃ ┣━━2-训练数据准备.abc [27.8M]
┃ ┃ ┣━━3-Agent特征提取方法.abc [38M]
┃ ┃ ┣━━4-DataLoader构建图结构.abc [28.7M]
┃ ┃ ┗━━5-SubGraph与Attention模型流程.abc [34.7M]
┃ ┣━━13-15 节特斯拉无人驾驶解读 [716.5M]
┃ ┃ ┗━━特斯拉无人驾驶解读.abc [716.5M]
┃ ┣━━13-2 节深度估计项目实战 [546.6M]
┃ ┃ ┣━━1-项目环境配置解读.abc [52.9M]
┃ ┃ ┣━━2-数据与标签定义方法.abc [74.4M]
┃ ┃ ┣━━3-数据集dataloader制作.abc [36.8M]
┃ ┃ ┣━━4-使用backbone进行特征提取.abc [42.4M]
┃ ┃ ┣━━5-计算差异特征.abc [30.7M]
┃ ┃ ┣━━6-权重参数标准化操作.abc [42.6M]
┃ ┃ ┣━━7-网络结构ASPP层.abc [47.3M]
┃ ┃ ┣━━8-特征拼接方法解读.abc [47.7M]
┃ ┃ ┣━━9-输出深度估计结果.abc [25.5M]
┃ ┃ ┣━━10-损失函数通俗解读.abc [65.9M]
┃ ┃ ┗━━11-模型DEMO输出结果.abc [80.6M]
┃ ┣━━13-3 节车道线检测算法与论文解读 [221.3M]
┃ ┃ ┣━━1-数据标签与任务分析.abc [84.5M]
┃ ┃ ┣━━2-网络整体框架分析.abc [28.9M]
┃ ┃ ┣━━3-输出结果分析.abc [18.1M]
┃ ┃ ┣━━4-损失函数计算方法.abc [27.3M]
┃ ┃ ┗━━5-论文概述分析.abc [62.4M]
┃ ┣━━13-4 节基于深度学习的车道线检测项目实战 [463.7M]
┃ ┃ ┣━━1-车道数据与标签解读.abc [65.6M]
┃ ┃ ┣━━2-项目环境配置演示.abc [30M]
┃ ┃ ┣━━3-制作数据集dataloader.abc [54.6M]
┃ ┃ ┣━━4-车道线标签数据处理.abc [34.2M]
┃ ┃ ┣━━5-四条车道线标签位置矩阵.abc [22.3M]
┃ ┃ ┣━━6-grid设置方法.abc [41.7M]
┃ ┃ ┣━━7-完成数据与标签制作.abc [24.7M]
┃ ┃ ┣━━8-算法网络结构解读.abc [60M]
┃ ┃ ┣━━9-损失函数计算模块分析.abc [45.7M]
┃ ┃ ┣━━10-车道线规则损失函数限制.abc [44.6M]
┃ ┃ ┗━━11-DEMO制作与配置.abc [40.3M]
┃ ┣━━13-5 节商汤LoFTR算法解读 [292M]
┃ ┃ ┣━━1-特征匹配的应用场景.abc [87.4M]
┃ ┃ ┣━━2-特征匹配的基本流程分析.abc [15.9M]
┃ ┃ ┣━━3-整体流程梳理分析.abc [16.5M]
┃ ┃ ┣━━4-CrossAttention的作用与效果.abc [15.7M]
┃ ┃ ┣━━5-transformer构建匹配特征.abc [33.8M]
┃ ┃ ┣━━6-粗粒度匹配过程与作用.abc [26M]
┃ ┃ ┣━━7-特征图拆解操作.abc [14.3M]
┃ ┃ ┣━━8-细粒度匹配的作用与方法.abc [19.9M]
┃ ┃ ┣━━9-基于期望预测最终位置.abc [23.1M]
┃ ┃ ┗━━10-总结分析.abc [39.4M]
┃ ┣━━13-6 节局部特征关键点匹配实战 [418.2M]
┃ ┃ ┣━━1-项目与参数配置解读.abc [44.5M]
┃ ┃ ┣━━2-DEMO效果演示.abc [39.6M]
┃ ┃ ┣━━3-backbone特征提取模块.abc [28.7M]
┃ ┃ ┣━━4-注意力机制的作用与效果分析.abc [31.1M]
┃ ┃ ┣━━5-特征融合模块实现方法.abc [29.4M]
┃ ┃ ┣━━6-cross关系计算方法实例.abc [29.4M]
┃ ┃ ┣━━7-粗粒度匹配过程.abc [49.8M]
┃ ┃ ┣━━8-完成基础匹配模块.abc [63.3M]
┃ ┃ ┣━━9-精细化调整方法与实例.abc [42.8M]
┃ ┃ ┣━━10-得到精细化输出结果.abc [19.4M]
┃ ┃ ┗━━11-通过期望计算最终输出.abc [40.3M]
┃ ┣━━13-7 节三维重建应用与坐标系基础 [173.4M]
┃ ┃ ┣━━1-三维重建概述分析.abc [66.8M]
┃ ┃ ┣━━2-三维重建应用领域概述.abc [13.2M]
┃ ┃ ┣━━3-成像方法概述.abc [16.3M]
┃ ┃ ┣━━4-相机坐标系.abc [17.2M]
┃ ┃ ┣━━5-坐标系转换方法解读.abc [20.9M]
┃ ┃ ┣━━6-相机内外参.abc [17M]
┃ ┃ ┣━━7-通过内外参数进行坐标变换.abc [16.5M]
┃ ┃ ┗━━8-相机标定简介.abc [5.5M]
┃ ┣━━13-8 节NeuralRecon算法解读 [121.3M]
┃ ┃ ┣━━1-任务流程分析.abc [19.4M]
┃ ┃ ┣━━2-基本框架熟悉.abc [27.5M]
┃ ┃ ┣━━3-特征映射方法解读.abc [34.7M]
┃ ┃ ┣━━4-片段融合思想.abc [16.7M]
┃ ┃ ┗━━5-整体架构重构方法.abc [23M]
┃ ┗━━13-9 节NeuralRecon项目环境配置 [251.4M]
┃ ┣━━1-数据集下载与配置方法.abc [52.4M]
┃ ┣━━2-Scannet数据集内容概述.abc [37.3M]
┃ ┣━━3-TSDF标签生成方法.abc [55.3M]
┃ ┣━━4-ISSUE的作用.abc [49.2M]
┃ ┗━━5-完成依赖环境配置.abc [57.1M]
┣━━第14章 对比学习与多模态任务实战 [2.9G]
┃ ┣━━14-1 节对比学习算法与实例 [549.5M]
┃ ┃ ┗━━对比学习算法与实例.abc [549.5M]
┃ ┣━━14-2 节CLIP系列 [621M]
┃ ┃ ┗━━CLIP系列.abc [621M]
┃ ┣━━14-3 节多模态3D目标检测算法源码解读 [672.4M]
┃ ┃ ┣━━1-环境配置与数据集概述.abc [51.5M]
┃ ┃ ┣━━2-数据与标注文件介绍.abc [37.5M]
┃ ┃ ┣━━3-基本流程梳理并进入debug模式.abc [50.3M]
┃ ┃ ┣━━4-数据与图像特征提取模块.abc [58M]
┃ ┃ ┣━━5-体素索引位置获取.abc [64.7M]
┃ ┃ ┣━━6-体素特征提取方法解读.abc [37.6M]
┃ ┃ ┣━━7-体素特征计算方法分析.abc [70.7M]
┃ ┃ ┣━━8-全局体素特征提取.abc [96M]
┃ ┃ ┣━━9-多模态特征融合.abc [68.4M]
┃ ┃ ┣━━10-3D卷积特征融合.abc [56.8M]
┃ ┃ ┗━━11-输出层预测结果.abc [80.8M]
┃ ┣━━14-4 节多模态文字识别 [766M]
┃ ┃ ┗━━多模态文字识别.abc [766M]
┃ ┗━━14-5 节ANINET源码解读 [380.3M]
┃ ┣━━1-数据集与环境概述.abc [55.6M]
┃ ┣━━2-配置文件修改方法.abc [52.5M]
┃ ┣━━3-Bakbone模块得到特征.abc [42.1M]
┃ ┣━━4-视觉Transformer模块的作用.abc [46M]
┃ ┣━━5-视觉模型中的编码与解码的效果.abc [54.5M]
┃ ┣━━6-文本模型中的结构分析.abc [38.7M]
┃ ┣━━7-迭代修正模块.abc [38.1M]
┃ ┗━━8-输出层与损失计算.abc [52.8M]
┣━━第15章 x行人重识别实战 [2.1G]
┃ ┣━━15-1 节行人重识别原理及其应用 [135.4M]
┃ ┃ ┣━━1-行人重识别要解决的问题.abc [17.3M]
┃ ┃ ┣━━2-挑战与困难分析.abc [35.9M]
┃ ┃ ┣━━3-评估标准rank1指标.abc [14.1M]
┃ ┃ ┣━━4-map值计算方法.abc [15.7M]
┃ ┃ ┣━━5-triplet损失计算实例.abc [25.2M]
┃ ┃ ┗━━6-Hard-Negative方法应用.abc [27.3M]
┃ ┣━━15-2 节基于注意力机制的Reld模型论文解读 [176.8M]
┃ ┃ ┣━━1-论文整体思想及注意力机制的作用解读.abc [50.5M]
┃ ┃ ┣━━2-空间权重值计算流程分析.abc [32.9M]
┃ ┃ ┣━━3-融合空间注意力所需特征.abc [27.4M]
┃ ┃ ┗━━4-基于特征图的注意力计算.abc [66M]
┃ ┣━━15-3 节基于Attention的行人重识别项目实战 [428.2M]
┃ ┃ ┣━━1-项目环境与数据集配置.abc [49.8M]
┃ ┃ ┣━━2-参数配置与整体架构分析.abc [65.4M]
┃ ┃ ┣━━3-进入debug模式解读网络计算流程.abc [30.6M]
┃ ┃ ┣━━4-获得空间位置点之间的关系.abc [43.1M]
┃ ┃ ┣━━5-组合关系特征图.abc [39.7M]
┃ ┃ ┣━━6-计算得到位置权重值.abc [38M]
┃ ┃ ┣━━7-基于特征图的权重计算.abc [25.6M]
┃ ┃ ┣━━8-损失函数计算实例解读.abc [60.4M]
┃ ┃ ┗━━9-训练与测试模块演示.abc [75.7M]
┃ ┣━━15-4 节AAAI2020顶会算法精讲 [107.7M]
┃ ┃ ┣━━1-论文整体框架概述.abc [16.2M]
┃ ┃ ┣━━2-局部特征与全局关系计算方法.abc [15.4M]
┃ ┃ ┣━━3-特征分组方法.abc [15.1M]
┃ ┃ ┣━━4-GCP模块特征融合方法.abc [28.5M]
┃ ┃ ┣━━5-oneVsReset方法实例.abc [15.6M]
┃ ┃ ┗━━6-损失函数应用位置.abc [16.8M]
┃ ┣━━15-5 节项目实战-基于行人局部特征融合的再识别实战 [553M]
┃ ┃ ┣━━1-项目配置与数据集介绍.abc [67.7M]
┃ ┃ ┣━━2-数据源构建方法分析.abc [41.2M]
┃ ┃ ┣━━3-dataloader加载顺序解读.abc [28M]
┃ ┃ ┣━━4-debug模式解读.abc [62.4M]
┃ ┃ ┣━━5-网络计算整体流程演示.abc [30.5M]
┃ ┃ ┣━━6-特征序列构建.abc [41M]
┃ ┃ ┣━━7-GCP全局特征提取.abc [39.7M]
┃ ┃ ┣━━8-局部特征提取实例.abc [52.4M]
┃ ┃ ┣━━9-特征组合汇总.abc [49.3M]
┃ ┃ ┣━━10-得到所有分组特征结果.abc [51.2M]
┃ ┃ ┣━━11-损失函数与训练过程演示.abc [42.5M]
┃ ┃ ┗━━12-测试与验证模块.abc [47M]
┃ ┣━━15-6 节旷视研究院最新算法解读(基于图模型) [171.2M]
┃ ┃ ┣━━1-关键点位置特征构建.abc [22.4M]
┃ ┃ ┣━━2-图卷积与匹配的作用.abc [24.4M]
┃ ┃ ┣━━3-局部特征热度图计算.abc [24.8M]
┃ ┃ ┣━━4-基于图卷积构建人体拓扑关系.abc [29.8M]
┃ ┃ ┣━━5-图卷积模块实现方法.abc [27.6M]
┃ ┃ ┣━━6-图匹配在行人重识别中的作用.abc [18.1M]
┃ ┃ ┗━━7-整体算法框架分析.abc [24.1M]
┃ ┗━━15-7 节基于拓扑图的行人重识别项目实战 [553.1M]
┃ ┣━━1-数据集与环境配置概述.abc [48.1M]
┃ ┣━━2-局部特征准备方法.abc [47.7M]
┃ ┣━━3-得到一阶段热度图结果.abc [42.1M]
┃ ┣━━4-阶段监督训练.abc [78.6M]
┃ ┣━━5-初始化图卷积模型.abc [34.8M]
┃ ┣━━6-mask矩阵的作用.abc [40.1M]
┃ ┣━━7-邻接矩阵学习与更新.abc [51M]
┃ ┣━━8-基于拓扑结构组合关键点特征.abc [63.2M]
┃ ┣━━9-图匹配模块计算流程.abc [67.6M]
┃ ┗━━10-整体项目总结.abc [79.8M]
┣━━第16章 对抗生成网络实战 [3.1G]
┃ ┣━━16-1 节课程介绍 [28.6M]
┃ ┃ ┗━━课程介绍.abc [28.6M]
┃ ┣━━16-2 节对抗生成网络架构原理与实战解析 [143.2M]
┃ ┃ ┣━━1-对抗生成网络通俗解释.abc [18.4M]
┃ ┃ ┣━━2-GAN网络组成.abc [10.7M]
┃ ┃ ┣━━3-损失函数解释说明.abc [39.9M]
┃ ┃ ┣━━4-数据读取模块.abc [29.9M]
┃ ┃ ┗━━5-生成与判别网络定义.abc [44.2M]
┃ ┣━━16-3 节基于CycleGan开源项目实战图像合成 [373.7M]
┃ ┃ ┣━━1-CycleGan网络所需数据.abc [37.6M]
┃ ┃ ┣━━2-CycleGan整体网络架构.abc [21.4M]
┃ ┃ ┣━━3-PatchGan判别网络原理.abc [11.5M]
┃ ┃ ┣━━4-Cycle开源项目简介.abc [46.4M]
┃ ┃ ┣━━5-数据读取与预处理操作.abc [57.9M]
┃ ┃ ┣━━6-生成网络模块构造.abc [48.5M]
┃ ┃ ┣━━7-判别网络模块构造.abc [19.8M]
┃ ┃ ┣━━8-损失函数:identity loss计算方法.abc [37.2M]
┃ ┃ ┣━━9-生成与判别损失函数指定.abc [54.7M]
┃ ┃ ┗━━10-额外补充:VISDOM可视化配置.abc [38.7M]
┃ ┣━━16-4 节stargan论文架构解析 [362.9M]
┃ ┃ ┣━━1-stargan效果演示分析.abc [28M]
┃ ┃ ┣━━2-网络架构整体思路解读.abc [30.9M]
┃ ┃ ┣━━3-建模流程分析.abc [42.6M]
┃ ┃ ┣━━4-V1版本存在的问题及后续改进思路.abc [60.7M]
┃ ┃ ┣━━5-V2版本在整体网络架构.abc [63.7M]
┃ ┃ ┣━━6-编码器训练方法.abc [53.5M]
┃ ┃ ┣━━7-损失函数公式解析.abc [49.4M]
┃ ┃ ┗━━8-训练过程分析.abc [34.2M]
┃ ┣━━16-5 节stargan项目实战及其源码解读 [419.2M]
┃ ┃ ┣━━1-生成模块损失计算.abc [70.1M]
┃ ┃ ┣━━2-测试模块效果与实验分析.abc [30M]
┃ ┃ ┣━━3-项目配置与数据源下载.abc [21.5M]
┃ ┃ ┣━━4-测试效果演示.abc [35M]
┃ ┃ ┣━━5-项目参数解析.abc [27.6M]
┃ ┃ ┣━━6-生成器模块源码解读.abc [53.2M]
┃ ┃ ┣━━7-所有网络模块构建实例.abc [46.5M]
┃ ┃ ┣━━8-数据读取模块分析.abc [56.6M]
┃ ┃ ┣━━9-判别器损失计算.abc [32.9M]
┃ ┃ ┗━━10-损失计算详细过程.abc [45.8M]
┃ ┣━━16-6 节基于starganvc2的变声器论文原理解读 [247.7M]
┃ ┃ ┣━━1-论文整体思路与架构解读.abc [34.7M]
┃ ┃ ┣━━2-VCC2016输入数据.abc [20.8M]
┃ ┃ ┣━━3-语音特征提取.abc [30.6M]
┃ ┃ ┣━━4-生成器模型架构分析.abc [15.8M]
┃ ┃ ┣━━5-InstanceNorm的作用解读.abc [18.6M]
┃ ┃ ┣━━6-AdaIn的目的与效果.abc [13.2M]
┃ ┃ ┗━━7-判别器模块分析.abc [114M]
┃ ┣━━16-7 节starganvc2变声器项目实战及其源码解读 [518.5M]
┃ ┃ ┣━━1-数据与项目文件解读.abc [21.8M]
┃ ┃ ┣━━2-环境配置与工具包安装.abc [37.1M]
┃ ┃ ┣━━3-数据预处理与声音特征提取.abc [88.5M]
┃ ┃ ┣━━4-生成器构造模块解读.abc [41.3M]
┃ ┃ ┣━━5-下采样与上采样操作.abc [35.5M]
┃ ┃ ┣━━6-starganvc2版本标签输入分析.abc [50M]
┃ ┃ ┣━━7-生成器前向传播维度变化.abc [26.5M]
┃ ┃ ┣━━8-判别器模块解读.abc [35.2M]
┃ ┃ ┣━━9-论文损失函数.abc [100.5M]
┃ ┃ ┣━━10-源码损失计算流程.abc [34.8M]
┃ ┃ ┗━━11-测试模块-生成转换语音.abc [47.2M]
┃ ┣━━16-8 节图像超分辨率重构实战 [528.7M]
┃ ┃ ┣━━1-论文概述.abc [46.8M]
┃ ┃ ┣━━2-网络架构.abc [106.9M]
┃ ┃ ┣━━3-数据与环境配置.abc [26.9M]
┃ ┃ ┣━━4-数据加载与配置.abc [39.2M]
┃ ┃ ┣━━5-生成模块.abc [48.5M]
┃ ┃ ┣━━6-判别模块.abc [44.6M]
┃ ┃ ┣━━7-VGG特征提取网络.abc [35.9M]
┃ ┃ ┣━━8-损失函数与训练.abc [89M]
┃ ┃ ┗━━9-测试模块.abc [90.8M]
┃ ┗━━16-9 节基于GAN的图像补全实战 [591.5M]
┃ ┣━━1-.论文概述.abc [75.1M]
┃ ┣━━2-网络架构.abc [30.8M]
┃ ┣━━3- 细节设计.abc [77.7M]
┃ ┣━━4- 论文总结.abc [67.3M]
┃ ┣━━5- 数据与项目概述.abc [45.9M]
┃ ┣━━6- 参数基本设计.abc [81.8M]
┃ ┣━━7- 网络结构配置.abc [71.6M]
┃ ┣━━8- 网络迭代训练.abc [92.9M]
┃ ┗━━9- 测试模块.abc [48.4M]
┣━━第17章 强化学习实战系列 [1.1G]
┃ ┣━━17-1 节强化学习简介及其应用 [110.5M]
┃ ┃ ┣━━1-一张图通俗解释强化学习.abc [17.7M]
┃ ┃ ┣━━2-强化学习的指导依据.abc [20.2M]
┃ ┃ ┣━━3-强化学习AI游戏DEMO.abc [20.4M]
┃ ┃ ┣━━4-应用领域简介.abc [17.4M]
┃ ┃ ┣━━5-强化学习工作流程.abc [14.8M]
┃ ┃ ┗━━6-计算机眼中的状态与行为.abc [20.1M]
┃ ┣━━17-2 节PPO算法与公式推导 [193M]
┃ ┃ ┣━━1-基本情况介绍.abc [28.1M]
┃ ┃ ┣━━2-与环境交互得到所需数据.abc [23.2M]
┃ ┃ ┣━━3-要完成的目标分析.abc [24.5M]
┃ ┃ ┣━━4-策略梯度推导.abc [21.8M]
┃ ┃ ┣━━5-baseline方法.abc [18.4M]
┃ ┃ ┣━━6-OnPolicy与OffPolicy策略.abc [27.3M]
┃ ┃ ┣━━7-importance sampling的作用.abc [23.2M]
┃ ┃ ┗━━8-PPO算法整体思路解析.abc [26.6M]
┃ ┣━━17-3 节PPO实战-月球登陆器训练实例 [220M]
┃ ┃ ┣━━1-Critic的作用与效果.abc [40.1M]
┃ ┃ ┣━━2-PPO2版本公式解读.abc [31.7M]
┃ ┃ ┣━━3-参数与网络结构定义.abc [33.7M]
┃ ┃ ┣━━4-得到动作结果.abc [29M]
┃ ┃ ┣━━5-奖励获得与计算.abc [36.3M]
┃ ┃ ┗━━6-参数迭代与更新.abc [49.3M]
┃ ┣━━17-4 节Q-learning与DQN算法 [106.1M]
┃ ┃ ┣━━1-算法原理通俗解读.abc [26M]
┃ ┃ ┣━━2-目标函数与公式解析.abc [25.6M]
┃ ┃ ┣━━3-Qlearning算法实例解读.abc [16.7M]
┃ ┃ ┣━━4-Q值迭代求解.abc [22.5M]
┃ ┃ ┗━━5-DQN简介.abc [15.4M]
┃ ┣━━17-5 节DQN算法实例演示 [109M]
┃ ┃ ┣━━1-整体任务流程演示.abc [23.9M]
┃ ┃ ┣━━2-探索与action获取.abc [28.4M]
┃ ┃ ┣━━3-计算target值.abc [22.5M]
┃ ┃ ┗━━4-训练与更新.abc [34.2M]
┃ ┣━━17-6 节DQN改进与应用技巧 [94.1M]
┃ ┃ ┣━━1-DoubleDqn要解决的问题.abc [22.4M]
┃ ┃ ┣━━2-DuelingDqn改进方法.abc [19.1M]
┃ ┃ ┣━━3-Dueling整体网络架构分析.abc [21.7M]
┃ ┃ ┣━━4-MultiSetp策略.abc [8.7M]
┃ ┃ ┗━━5-连续动作处理方法.abc [22.3M]
┃ ┣━━17-7 节Actor-Critic算法分析(A3C) [93.7M]
┃ ┃ ┣━━1-AC算法回顾与知识点总结.abc [17.3M]
┃ ┃ ┣━━2-优势函数解读与分析.abc [19.9M]
┃ ┃ ┣━━3-计算流程实例.abc [17.6M]
┃ ┃ ┣━━4-A3C整体架构分析.abc [16.4M]
┃ ┃ ┗━━5-损失函数整理.abc [22.4M]
┃ ┗━━17-8 节用A3C玩转超级马里奥 [211.9M]
┃ ┣━━1-整体流程与环境配置.abc [27M]
┃ ┣━━2-启动游戏环境.abc [32.2M]
┃ ┣━━3-要计算的指标回顾.abc [37M]
┃ ┣━━4-初始化局部模型并加载参数.abc [32.2M]
┃ ┣━━5-与环境交互得到训练数据.abc [39.3M]
┃ ┗━━6-训练网络模型.abc [44.2M]
┣━━第18章 AI黑科技实例 [3.2G]
┃ ┣━━18-1 节GPT系列生成模型 [500.8M]
┃ ┃ ┗━━GPT系列.abc [500.8M]
┃ ┣━━18-2 节GPT建模与预测流程 [289.8M]
┃ ┃ ┣━━1-生成模型可以完成的任务概述.abc [28.9M]
┃ ┃ ┣━━2-数据样本生成方法.abc [72.1M]
┃ ┃ ┣━━3-训练所需参数解读.abc [57.7M]
┃ ┃ ┣━━4-模型训练过程.abc [51.5M]
┃ ┃ ┗━━5-部署与网页预测展示.abc [79.6M]
┃ ┣━━18-3 节CLIP系列 [621M]
┃ ┃ ┗━━CLIP系列.abc [621M]
┃ ┣━━18-4 节Diffusion模型解读 [826.9M]
┃ ┃ ┗━━Diffusion模型解读.abc [826.9M]
┃ ┣━━18-5 节Dalle2及其源码解读 [683.2M]
┃ ┃ ┗━━直播15:Openai Dalle2建模分析.abc [683.2M]
┃ ┗━━18-6 节ChatGPT [382.2M]
┃ ┗━━ChatGPT.abc [382.2M]
┣━━第19章 深度学习模型部署与剪枝优化实战 [3.7G]
┃ ┣━━19-1 节AIoT人工智能物联网之认识 jetson nano [317.4M]
┃ ┃ ┣━━1.1 jetson nano 硬件介绍.abc [22.1M]
┃ ┃ ┣━━1.2 jetson nano 刷机.abc [105.2M]
┃ ┃ ┣━━1.2b jetson nano 系统安装过程.abc [84.5M]
┃ ┃ ┣━━1.3 感受nano的GPU算力.abc [62.4M]
┃ ┃ ┗━━1.4 安装使用摄像头csi usb.abc [43.2M]
┃ ┣━━19-10 节模型剪枝-Network Slimming实战解读 [224.6M]
┃ ┃ ┣━━1-整体案例流程解读.abc [32.4M]
┃ ┃ ┣━━2-加入L1正则化来进行更新.abc [28.4M]
┃ ┃ ┣━━3-剪枝模块介绍.abc [31M]
┃ ┃ ┣━━4-筛选需要的特征图.abc [36.3M]
┃ ┃ ┣━━5-剪枝后模型参数赋值.abc [49.5M]
┃ ┃ ┗━━6-微调完成剪枝模型.abc [46.9M]
┃ ┣━━19-11 节Mobilenet三代网络模型架构 [304.8M]
┃ ┃ ┣━━1-模型剪枝分析.abc [22.4M]
┃ ┃ ┣━━2-常见剪枝方法介绍.abc [21.7M]
┃ ┃ ┣━━3-mobilenet简介.abc [8.6M]
┃ ┃ ┣━━4-经典卷积计算量与参数量分析.abc [13.2M]
┃ ┃ ┣━━5-深度可分离卷积的作用与效果.abc [14.3M]
┃ ┃ ┣━━6-参数与计算量的比较.abc [39.7M]
┃ ┃ ┣━━7-V1版本效果分析.abc [25M]
┃ ┃ ┣━━8-V2版本改进以及Relu激活函数的问题.abc [19.6M]
┃ ┃ ┣━━9-倒残差结构的作用.abc [17.4M]
┃ ┃ ┣━━10-V2整体架构与效果分析.abc [10.5M]
┃ ┃ ┣━━11-V3版本网络架构分析.abc [11.6M]
┃ ┃ ┣━━12-SE模块作用与效果解读.abc [31.9M]
┃ ┃ ┗━━13-代码实现mobilenetV3网络架构.abc [68.9M]
┃ ┣━━19-2 节AIoT人工智能物联网之AI 实战 [697M]
┃ ┃ ┣━━2.1 jetson-inference 入门.abc [59.7M]
┃ ┃ ┣━━2.2 docker 的安装使用.abc [86.1M]
┃ ┃ ┣━━2.3 docker中运行分类模型.abc [197.6M]
┃ ┃ ┣━━2.4 训练自己的目标检测模型准备.abc [77.7M]
┃ ┃ ┣━━2.5 训练出自己目标识别模型a.abc [109.8M]
┃ ┃ ┣━━2.5 训练出自己目标识别模型b.abc [91.4M]
┃ ┃ ┗━━2.6 转换出onnx模型,并使用.abc [74.6M]
┃ ┣━━19-3 节AIoT人工智能物联网之NVIDIA TAO 实用级的训练神器 [655.9M]
┃ ┃ ┣━━3.1 NVIDIA TAO介绍和安装.abc [74.4M]
┃ ┃ ┣━━3.2 NVIDIA TAO数据准备和环境设置.abc [74.1M]
┃ ┃ ┣━━3.3 NVIDIA TAO数据转换.abc [146.3M]
┃ ┃ ┣━━3.4 NVIDIA TAO预训练模型和训练a.abc [100.7M]
┃ ┃ ┣━━3.4 NVIDIA TAO预训练模型和训练b.abc [18.7M]
┃ ┃ ┣━━3.4 NVIDIA TAO预训练模型和训练c.abc [42.9M]
┃ ┃ ┗━━3.5 TAO剪枝在训练推理验证.abc [198.8M]
┃ ┣━━19-4 节 AIoT人工智能物联网之deepstream [743.4M]
┃ ┃ ┣━━4.1 deepstream 介绍安装.abc [108.8M]
┃ ┃ ┣━━4.2 deepstream HelloWorld.abc [51.9M]
┃ ┃ ┣━━4.3 GStreamer RTP和RTSP1.abc [90.7M]
┃ ┃ ┣━━4.3 GStreamer RTP和RTSP2.abc [138.8M]
┃ ┃ ┣━━4.4 python实现RTP和RTSP.abc [118.1M]
┃ ┃ ┣━━4.5 deepstream推理.abc [117.9M]
┃ ┃ ┗━━4.6 deepstream集成yolov4.abc [117.2M]
┃ ┣━━19-5 节pyTorch框架部署实践 [150.9M]
┃ ┃ ┣━━1-所需基本环境配置.abc [22.1M]
┃ ┃ ┣━━2-模型加载与数据预处理.abc [39.6M]
┃ ┃ ┣━━3-接收与预测模块实现.abc [37.7M]
┃ ┃ ┣━━4-效果实例演示.abc [43.3M]
┃ ┃ ┗━━5-课程简介.abc [8.2M]
┃ ┣━━19-6 节YOLO-V3物体检测部署实例 [159.1M]
┃ ┃ ┣━━1-项目所需配置文件介绍.abc [24.6M]
┃ ┃ ┣━━2-加载参数与模型权重.abc [35.6M]
┃ ┃ ┣━━3-数据预处理.abc [53.9M]
┃ ┃ ┗━━4-返回线性预测结果.abc [44.9M]
┃ ┣━━19-7 节docker实例演示 [233.2M]
┃ ┃ ┣━━1-docker简介.abc [16M]
┃ ┃ ┣━━2-docker安装与配置.abc [48.5M]
┃ ┃ ┣━━3-阿里云镜像配置.abc [27M]
┃ ┃ ┣━━4-基于docker配置pytorch环境.abc [36.5M]
┃ ┃ ┣━━5-安装演示环境所需依赖.abc [31.5M]
┃ ┃ ┣━━6-复制所需配置到容器中.abc [28.2M]
┃ ┃ ┗━━7-上传与下载配置好的项目.abc [45.5M]
┃ ┣━━19-8 节tensorflow-serving实战 [177.2M]
┃ ┃ ┣━━1-tf-serving项目获取与配置.abc [30.5M]
┃ ┃ ┣━━2-加载并启动模型服务.abc [31.3M]
┃ ┃ ┣━━3-测试模型部署效果.abc [43.4M]
┃ ┃ ┣━━4-fashion数据集获取.abc [38.6M]
┃ ┃ ┗━━5-加载fashion模型启动服务.abc [33.4M]
┃ ┗━━19-9 节模型剪枝-Network Slimming算法分析 [104.8M]
┃ ┣━━1-论文算法核心框架概述.abc [19.7M]
┃ ┣━━2-BatchNorm要解决的问题.abc [18.5M]
┃ ┣━━3-BN的本质作用.abc [22.6M]
┃ ┣━━4-额外的训练参数解读.abc [20.1M]
┃ ┗━━5-稀疏化原理与效果.abc [23.9M]
┣━━第20章 -面向医学领域的深度学习实战 [4.5G]
┃ ┣━━20-1 节卷积神经网络原理与参数解读 [225.1M]
┃ ┃ ┣━━1-卷积神经网络应用领域.abc [21.2M]
┃ ┃ ┣━━2-卷积的作用.abc [22.7M]
┃ ┃ ┣━━3-卷积特征值计算方法.abc [21.2M]
┃ ┃ ┣━━4-得到特征图表示.abc [18.2M]
┃ ┃ ┣━━5-步长与卷积核大小对结果的影响.abc [19.9M]
┃ ┃ ┣━━6-边缘填充方法.abc [17.3M]
┃ ┃ ┣━━7-特征图尺寸计算与参数共享.abc [22M]
┃ ┃ ┣━━8-池化层的作用.abc [11.3M]
┃ ┃ ┣━━9-整体网络架构.abc [17M]
┃ ┃ ┣━━10-VGG网络架构.abc [19.3M]
┃ ┃ ┣━━11-残差网络Resnet.abc [18M]
┃ ┃ ┗━━12-感受野的作用.abc [16.9M]
┃ ┣━━20-10 节基于deeplab的心脏视频数据诊断分析 [315.9M]
┃ ┃ ┣━━1-数据集与任务概述.abc [45.6M]
┃ ┃ ┣━━2-项目基本配置参数.abc [33.3M]
┃ ┃ ┣━━3-任务流程解读.abc [69.1M]
┃ ┃ ┣━━4-文献报告分析.abc [122.7M]
┃ ┃ ┣━━5-补充:视频数据源特征处理方法概述.abc [26.3M]
┃ ┃ ┗━━6-补充:R(2plus1)D处理方法分析.abc [18.9M]
┃ ┣━━20-11 节YOLO系列物体检测算法原理解读 [635.4M]
┃ ┃ ┣━━1-检测任务中阶段的意义.abc [15.2M]
┃ ┃ ┣━━2-不同阶段算法优缺点分析.abc [10.7M]
┃ ┃ ┣━━3-IOU指标计算.abc [11.7M]
┃ ┃ ┣━━4-评估所需参数计算.abc [26.2M]
┃ ┃ ┣━━5-map指标计算.abc [19.6M]
┃ ┃ ┣━━6-YOLO算法整体思路解读.abc [14.8M]
┃ ┃ ┣━━7-检测算法要得到的结果.abc [13.6M]
┃ ┃ ┣━━8-整体网络架构解读.abc [30.7M]
┃ ┃ ┣━━9-位置损失计算.abc [19M]
┃ ┃ ┣━━10-置信度误差与优缺点分析.abc [26.9M]
┃ ┃ ┣━━11-V2版本细节升级概述.abc [13.4M]
┃ ┃ ┣━━12-网络结构特点.abc [15.7M]
┃ ┃ ┣━━13-架构细节解读.abc [18.9M]
┃ ┃ ┣━━14-基于聚类来选择先验框尺寸.abc [24.2M]
┃ ┃ ┣━━15-偏移量计算方法.abc [27.6M]
┃ ┃ ┣━━16-坐标映射与还原.abc [10.1M]
┃ ┃ ┣━━17-感受野的作用.abc [28.1M]
┃ ┃ ┣━━18-特征融合改进.abc [19.2M]
┃ ┃ ┣━━19-V3版本改进概述.abc [18.3M]
┃ ┃ ┣━━20-多scale方法改进与特征融合.abc [17.1M]
┃ ┃ ┣━━21-经典变换方法对比分析.abc [10.8M]
┃ ┃ ┣━━22-残差连接方法解读.abc [18.7M]
┃ ┃ ┣━━23-整体网络模型架构分析.abc [12.9M]
┃ ┃ ┣━━24-先验框设计改进.abc [13.1M]
┃ ┃ ┣━━25-softmax层改进.abc [10.6M]
┃ ┃ ┣━━26-V4版本整体概述.abc [15.1M]
┃ ┃ ┣━━27-V4版本贡献解读.abc [10.1M]
┃ ┃ ┣━━28-数据增强策略分析.abc [24.7M]
┃ ┃ ┣━━29-DropBlock与标签平滑方法.abc [19.4M]
┃ ┃ ┣━━30-损失函数遇到的问题.abc [14.3M]
┃ ┃ ┣━━31-CIOU损失函数定义.abc [10.8M]
┃ ┃ ┣━━32-NMS细节改进.abc [16.7M]
┃ ┃ ┣━━33-SPP与CSP网络结构.abc [14.8M]
┃ ┃ ┣━━34-SAM注意力机制模块.abc [22.5M]
┃ ┃ ┣━━35-PAN模块解读.abc [20.6M]
┃ ┃ ┗━━36-激活函数与整体架构总结.abc [19.2M]
┃ ┣━━20-12 节基于YOLO5细胞检测实战 [210.5M]
┃ ┃ ┣━━1-任务与细胞数据集介绍.abc [49.8M]
┃ ┃ ┣━━2-模型与算法配置参数解读.abc [42.5M]
┃ ┃ ┣━━3-网络训练流程演示.abc [42.4M]
┃ ┃ ┣━━4-效果评估与展示.abc [32.7M]
┃ ┃ ┗━━5-细胞检测效果演示.abc [43.2M]
┃ ┣━━20-13 节知识图谱原理解读 [339.1M]
┃ ┃ ┣━━1-知识图谱通俗解读.abc [19.9M]
┃ ┃ ┣━━2-知识图谱在搜索引擎中的应用.abc [26.6M]
┃ ┃ ┣━━3-知识图谱在医疗领域应用实例.abc [102.9M]
┃ ┃ ┣━━4-金融与推荐领域的应用.abc [20.4M]
┃ ┃ ┣━━5-数据获取分析.abc [35.9M]
┃ ┃ ┣━━6-数据关系抽取分析.abc [27.3M]
┃ ┃ ┣━━7-常用NLP技术点分析.abc [22.1M]
┃ ┃ ┣━━8-graph-embedding的作用与效果.abc [26.2M]
┃ ┃ ┣━━9-金融领域图编码实例.abc [12.8M]
┃ ┃ ┣━━10-视觉领域图编码实例.abc [21M]
┃ ┃ ┗━━11-图谱知识融合与总结分析.abc [24M]
┃ ┣━━20-14 节Neo4j数据库实战 [187.3M]
┃ ┃ ┣━━1-Neo4j图数据库介绍.abc [63.5M]
┃ ┃ ┣━━2-Neo4j数据库安装流程演示.abc [27.7M]
┃ ┃ ┣━━3-可视化例子演示.abc [43.6M]
┃ ┃ ┣━━4-创建与删除操作演示.abc [25.3M]
┃ ┃ ┗━━5-数据库更改查询操作演示.abc [27.2M]
┃ ┣━━20-15 节基于知识图谱的医药问答系统实战 [449.6M]
┃ ┃ ┣━━1-项目概述与整体架构分析.abc [37M]
┃ ┃ ┣━━2-医疗数据介绍及其各字段含义.abc [62.7M]
┃ ┃ ┣━━3-任务流程概述.abc [39.7M]
┃ ┃ ┣━━4-环境配置与所需工具包安装.abc [36.4M]
┃ ┃ ┣━━5-提取数据中的关键字段信息.abc [61.3M]
┃ ┃ ┣━━6-创建关系边.abc [39.4M]
┃ ┃ ┣━━7-打造医疗知识图谱模型.abc [59.1M]
┃ ┃ ┣━━8-加载所有实体数据.abc [42.5M]
┃ ┃ ┣━━9-实体关键词字典制作.abc [31.8M]
┃ ┃ ┗━━10-完成对话系统构建.abc [39.5M]
┃ ┣━━20-16 节词向量模型与RNN网络架构 [143M]
┃ ┃ ┣━━1-词向量模型通俗解释.abc [21.7M]
┃ ┃ ┣━━2-模型整体框架.abc [28.2M]
┃ ┃ ┣━━3-训练数据构建.abc [15.9M]
┃ ┃ ┣━━4-CBOW与Skip-gram模型.abc [23.8M]
┃ ┃ ┣━━5-负采样方案.abc [29.5M]
┃ ┃ ┗━━额外补充-RNN网络模型解读.abc [23.8M]
┃ ┣━━20-17 节医学糖尿病数据命名实体识别 [235.8M]
┃ ┃ ┣━━1-数据与任务介绍.abc [22.7M]
┃ ┃ ┣━━2-整体模型架构.abc [15M]
┃ ┃ ┣━━3-数据-标签-语料库处理.abc [40M]
┃ ┃ ┣━━4-输入样本填充补齐.abc [36.2M]
┃ ┃ ┣━━5-训练网络模型.abc [40.4M]
┃ ┃ ┗━━6-医疗数据集(糖尿病)实体识别.abc [81.4M]
┃ ┣━━20-2 节PyTorch框架基本处理操作 [263.7M]
┃ ┃ ┣━━1-PyTorch实战课程简介.abc [23M]
┃ ┃ ┣━━2-PyTorch框架发展趋势简介.abc [25.2M]
┃ ┃ ┣━━3-框架安装方法(CPU与GPU版本).abc [18.6M]
┃ ┃ ┣━━4-PyTorch基本操作简介.abc [28.7M]
┃ ┃ ┣━━5-自动求导机制.abc [33.4M]
┃ ┃ ┣━━6-线性回归DEMO-数据与参数配置.abc [22.6M]
┃ ┃ ┣━━7-线性回归DEMO-训练回归模型.abc [39.4M]
┃ ┃ ┣━━8-补充:常见tensor格式.abc [19.6M]
┃ ┃ ┗━━9-补充:Hub模块简介.abc [53.1M]
┃ ┣━━20-3 节PyTorch框架必备核心模块解读 [578.3M]
┃ ┃ ┣━━1-卷积网络参数定义.abc [26.5M]
┃ ┃ ┣━━2-网络流程解读.abc [37.5M]
┃ ┃ ┣━━3-Vision模块功能解读.abc [23.5M]
┃ ┃ ┣━━4-分类任务数据集定义与配置.abc [29.7M]
┃ ┃ ┣━━5-图像增强的作用.abc [14.7M]
┃ ┃ ┣━━6-数据预处理与数据增强模块.abc [37.3M]
┃ ┃ ┣━━7-Batch数据制作.abc [43.7M]
┃ ┃ ┣━━8-迁移学习的目标.abc [11.8M]
┃ ┃ ┣━━9-迁移学习策略.abc [15.5M]
┃ ┃ ┣━━10-加载训练好的网络模型.abc [50M]
┃ ┃ ┣━━11-优化器模块配置.abc [24.6M]
┃ ┃ ┣━━12-实现训练模块.abc [33.2M]
┃ ┃ ┣━━13-训练结果与模型保存.abc [41.3M]
┃ ┃ ┣━━14-加载模型对测试数据进行预测.abc [52.8M]
┃ ┃ ┣━━15-额外补充-Resnet论文解读.abc [118M]
┃ ┃ ┗━━16-额外补充-Resnet网络架构解读.abc [18.3M]
┃ ┣━━20-4 节基于Resnet的医学数据集分类实战 [286M]
┃ ┃ ┣━━1-医学疾病数据集介绍.abc [18.9M]
┃ ┃ ┣━━2-Resnet网络架构原理分析.abc [24.8M]
┃ ┃ ┣━━3-dataloader加载数据集.abc [64.8M]
┃ ┃ ┣━━4-Resnet网络前向传播.abc [35.8M]
┃ ┃ ┣━━5-残差网络的shortcut操作.abc [47.4M]
┃ ┃ ┣━━6-特征图升维与降采样操作.abc [26.9M]
┃ ┃ ┗━━7-网络整体流程与训练演示.abc [67.5M]
┃ ┣━━20-5 节图像分割及其损失函数概述 [49.3M]
┃ ┃ ┣━━1-语义分割与实例分割概述.abc [20.3M]
┃ ┃ ┣━━2-分割任务中的目标函数定义.abc [20M]
┃ ┃ ┗━━3-MIOU评估标准.abc [9M]
┃ ┣━━20-6 节Unet系列算法讲解 [68.6M]
┃ ┃ ┣━━1-Unet网络编码与解码过程.abc [18.3M]
┃ ┃ ┣━━2-网络计算流程.abc [16.1M]
┃ ┃ ┣━━3-Unet升级版本改进.abc [15.8M]
┃ ┃ ┗━━4-后续升级版本介绍.abc [18.4M]
┃ ┣━━20-7 节unet医学细胞分割实战 [285M]
┃ ┃ ┣━━1-医学细胞数据集介绍与参数配置.abc [71.2M]
┃ ┃ ┣━━2-数据增强工具.abc [61.5M]
┃ ┃ ┣━━3-Debug模式演示网络计算流程.abc [41.4M]
┃ ┃ ┣━━4-特征融合方法演示.abc [30.1M]
┃ ┃ ┣━━5-迭代完成整个模型计算任务.abc [33.6M]
┃ ┃ ┗━━6-模型效果验证.abc [47.3M]
┃ ┣━━20-8 节deeplab系列算法 [106.5M]
┃ ┃ ┣━━1-deeplab分割算法概述.abc [13.8M]
┃ ┃ ┣━━2-空洞卷积的作用.abc [16.7M]
┃ ┃ ┣━━3-感受野的意义.abc [19.4M]
┃ ┃ ┣━━4-SPP层的作用.abc [19M]
┃ ┃ ┣━━5-ASPP特征融合策略.abc [13.5M]
┃ ┃ ┗━━6-deeplabV3Plus版本网络架构.abc [24.1M]
┃ ┗━━20-9 节基于deeplabV3+版本进行VOC分割实战 [249.8M]
┃ ┣━━1-PascalVoc数据集介绍.abc [70.1M]
┃ ┣━━2-项目参数与数据集读取.abc [60.3M]
┃ ┣━━3-网络前向传播流程.abc [33.1M]
┃ ┣━━4-ASPP层特征融合.abc [51.2M]
┃ ┗━━5-分割模型训练.abc [35M]
┣━━第21章 -自然语言处理经典案例实战 [3G]
┃ ┣━━21-1 节NLP常用工具包实战 [559.3M]
┃ ┃ ┣━━1-Python字符串处理.abc [41.3M]
┃ ┃ ┣━━2-正则表达式基本语法.abc [31M]
┃ ┃ ┣━━2-正则常用符号.abc [37.1M]
┃ ┃ ┣━━4-常用函数介绍.abc [40.1M]
┃ ┃ ┣━━5-NLTK工具包简介.abc [32.3M]
┃ ┃ ┣━━6-停用词过滤.abc [27.6M]
┃ ┃ ┣━━7-词性标注.abc [35.9M]
┃ ┃ ┣━━8-数据清洗实例.abc [41.4M]
┃ ┃ ┣━━9-Spacy工具包.abc [47.1M]
┃ ┃ ┣━━10-名字实体匹配.abc [21.4M]
┃ ┃ ┣━━11-恐怖袭击分析.abc [40.5M]
┃ ┃ ┣━━12-统计分析结果.abc [47.7M]
┃ ┃ ┣━━13-结巴分词器.abc [28.2M]
┃ ┃ ┗━━14-词云展示.abc [87.6M]
┃ ┣━━21-10 节NLP-文本特征方法对比 [270.5M]
┃ ┃ ┣━━1-任务概述.abc [37.5M]
┃ ┃ ┣━━2-词袋模型.abc [28.1M]
┃ ┃ ┣━━3-词袋模型分析.abc [63.6M]
┃ ┃ ┣━━4-TFIDF模型.abc [47.6M]
┃ ┃ ┣━━5-word2vec词向量模型.abc [54.4M]
┃ ┃ ┗━━6-深度学习模型.abc [39.3M]
┃ ┣━━21-11 节NLP-相似度模型 [267.2M]
┃ ┃ ┣━━1.任务概述.abc [13.2M]
┃ ┃ ┣━━2-数据展示.abc [22.7M]
┃ ┃ ┣━━3-正负样本制作.abc [38M]
┃ ┃ ┣━━4-数据预处理.abc [36.1M]
┃ ┃ ┣━━5-网络模型定义.abc [55.9M]
┃ ┃ ┣━━6-基于字符的训练.abc [58.9M]
┃ ┃ ┗━━7-基于句子的相似度训练.abc [42.5M]
┃ ┣━━21-12 节LSTM情感分析 [152.8M]
┃ ┃ ┣━━1-RNN网络架构.abc [19.9M]
┃ ┃ ┣━━2-LSTM网络架构.abc [17.8M]
┃ ┃ ┣━━3-案例:使用LSTM进行情感分类.abc [31M]
┃ ┃ ┣━━4-情感数据集处理.abc [33.6M]
┃ ┃ ┗━━5-基于word2vec的LSTM模型.abc [50.5M]
┃ ┣━━21-13 节机器人写唐诗 [177.5M]
┃ ┃ ┣━━1-任务概述与环境配置.abc [13.7M]
┃ ┃ ┣━━2-参数配置.abc [21.9M]
┃ ┃ ┣━━3-数据预处理模块.abc [35.4M]
┃ ┃ ┣━━4-batch数据制作.abc [28M]
┃ ┃ ┣━━5-RNN模型定义.abc [18M]
┃ ┃ ┣━━6-完成训练模块.abc [28M]
┃ ┃ ┣━━7-训练唐诗生成模型.abc [11.1M]
┃ ┃ ┗━━8-测试唐诗生成效果.abc [21.4M]
┃ ┣━━21-14 节对话机器人 [230.5M]
┃ ┃ ┣━━1-效果演示.abc [30.6M]
┃ ┃ ┣━━2-参数配置与数据加载.abc [51M]
┃ ┃ ┣━━3-数据处理.abc [42M]
┃ ┃ ┣━━4-词向量与投影.abc [38.2M]
┃ ┃ ┣━━5-seq网络.abc [30.7M]
┃ ┃ ┗━━6-网络训练.abc [38M]
┃ ┣━━21-2 节商品信息可视化与文本分析 [328M]
┃ ┃ ┣━━1-任务概述.abc [32.3M]
┃ ┃ ┣━━2-商品类别划分.abc [37.3M]
┃ ┃ ┣━━3-商品类别可视化展示.abc [41.3M]
┃ ┃ ┣━━4-描述长度对价格的影响.abc [33.7M]
┃ ┃ ┣━━5-词云展示.abc [51.9M]
┃ ┃ ┣━━6-tf-idf结果.abc [35.3M]
┃ ┃ ┣━━7-降维可视化展示.abc [39.1M]
┃ ┃ ┗━━8-聚类与主题模型.abc [57M]
┃ ┣━━21-3 节贝叶斯算法 [101.5M]
┃ ┃ ┣━━1-贝叶斯算法概述.abc [11.3M]
┃ ┃ ┣━━2-贝叶斯推导实例.abc [11.9M]
┃ ┃ ┣━━3-贝叶斯拼写纠错实例.abc [18.6M]
┃ ┃ ┣━━4-垃圾邮件过滤实例.abc [22.8M]
┃ ┃ ┗━━5-贝叶斯实现拼写检查器.abc [36.8M]
┃ ┣━━21-4 节新闻分类任务实战 [196.9M]
┃ ┃ ┣━━1-文本分析与关键词提取.abc [19.4M]
┃ ┃ ┣━━2-相似度计算.abc [19.5M]
┃ ┃ ┣━━3-新闻数据与任务简介.abc [33.2M]
┃ ┃ ┣━━4-TF-IDF关键词提取.abc [45.8M]
┃ ┃ ┣━━5-LDA建模.abc [28.1M]
┃ ┃ ┗━━6-基于贝叶斯算法进行新闻分类.abc [50.9M]
┃ ┣━━21-5 节HMM隐马尔科夫模型 [251.1M]
┃ ┃ ┣━━1-马尔科夫模型.abc [17.5M]
┃ ┃ ┣━━2-隐马尔科夫模型基本出发点.abc [18.7M]
┃ ┃ ┣━━3-组成与要解决的问题.abc [14.9M]
┃ ┃ ┣━━4-暴力求解方法.abc [28M]
┃ ┃ ┣━━5-复杂度计算.abc [15.3M]
┃ ┃ ┣━━6-前向算法.abc [36.2M]
┃ ┃ ┣━━7-前向算法求解实例.abc [33.4M]
┃ ┃ ┣━━8-Baum-Welch算法.abc [26.9M]
┃ ┃ ┣━━9-参数求解.abc [17.2M]
┃ ┃ ┗━━10-维特比算法.abc [43.1M]
┃ ┣━━21-6 节HMM工具包实战 [124.4M]
┃ ┃ ┣━━1-hmmlearn工具包.abc [19.6M]
┃ ┃ ┣━━2-工具包使用方法.abc [55.6M]
┃ ┃ ┣━━3-中文分词任务.abc [13.5M]
┃ ┃ ┗━━4-实现中文分词.abc [35.8M]
┃ ┣━━21-7 节语言模型 [129.3M]
┃ ┃ ┣━━1-开篇.abc [8.5M]
┃ ┃ ┣━━2-语言模型.abc [8.8M]
┃ ┃ ┣━━3-N-gram模型.abc [13.6M]
┃ ┃ ┣━━4-词向量.abc [13.6M]
┃ ┃ ┣━━5-神经网络模型.abc [15.9M]
┃ ┃ ┣━━6-Hierarchical Softmax.abc [15.2M]
┃ ┃ ┣━━7-CBOW模型实例.abc [18.6M]
┃ ┃ ┣━━8-CBOW求解目标.abc [8.7M]
┃ ┃ ┣━━9-梯度上升求解.abc [15.9M]
┃ ┃ ┗━━10-负采样模型.abc [10.5M]
┃ ┣━━21-8 节使用Gemsim构建词向量 [97M]
┃ ┃ ┣━━1-使用Gensim库构造词向量.abc [16.9M]
┃ ┃ ┣━━2-维基百科中文数据处理.abc [39.2M]
┃ ┃ ┣━━3-Gensim构造word2vec模型.abc [21M]
┃ ┃ ┗━━4-测试模型相似度结果.abc [20M]
┃ ┗━━21-9 节基于word2vec的分类任务 [167M]
┃ ┣━━1-影评情感分类.abc [46.9M]
┃ ┣━━2-基于词袋模型训练分类器.abc [28.1M]
┃ ┣━━3-准备word2vec输入数据.abc [24.2M]
┃ ┗━━4-使用gensim构建word2vec词向量(新).abc [67.7M]
┣━━第22章 自然语言处理必备神器Huggingface系列实战 [2.5G]
┃ ┣━━22-1 节Huggingface与NLP介绍解读 [163.6M]
┃ ┃ ┗━━第一章:Huggingface与NLP介绍解读.abc [163.6M]
┃ ┣━━22-10 节补充Huggingface数据集制作方法实例 [193.1M]
┃ ┃ ┣━━1-数据结构分析.abc [47.9M]
┃ ┃ ┣━━2-Huggingface中的预处理实例.abc [72.6M]
┃ ┃ ┗━━3-数据处理基本流程.abc [72.6M]
┃ ┣━━22-2 节Transformer工具包基本操作实例解读 [329.5M]
┃ ┃ ┣━━1-工具包与任务整体介绍.abc [33.4M]
┃ ┃ ┣━━2-NLP任务常规流程分析.abc [29.2M]
┃ ┃ ┣━━3-AttentionMask配套使用方法.abc [35.3M]
┃ ┃ ┣━━4-文本切分方法实例解读.abc [42.8M]
┃ ┃ ┣━━5-数据集与模型.abc [43M]
┃ ┃ ┣━━6-数据Dataloader封装.abc [50.2M]
┃ ┃ ┣━━7-模型训练所需配置参数.abc [37M]
┃ ┃ ┗━━8-模型训练DEMO.abc [58.7M]
┃ ┣━━22-3 节BERT系列算法解读 [150.5M]
┃ ┃ ┣━━1-BERT模型训练方法解读.abc [23.9M]
┃ ┃ ┣━━2-ALBERT基本定义.abc [38.6M]
┃ ┃ ┣━━3-ALBERT中的简化方法解读.abc [43.4M]
┃ ┃ ┣━━4-RoBerta模型训练方法解读.abc [28.5M]
┃ ┃ ┗━━5-DistilBert模型解读.abc [16.1M]
┃ ┣━━22-4 节文本标注工具与NER实例 [235M]
┃ ┃ ┣━━1-文本标注工具Doccano配置方法.abc [33M]
┃ ┃ ┣━━2-命名实体识别任务标注方法实例.abc [39.4M]
┃ ┃ ┣━━3-标注导出与BIO处理.abc [39.4M]
┃ ┃ ┣━━4-标签处理并完成对齐操作.abc [38.6M]
┃ ┃ ┣━━5-预训练模型加载与参数配置.abc [41.5M]
┃ ┃ ┗━━6-模型训练与输出结果预测.abc [43.1M]
┃ ┣━━22-5 节文本预训练模型构建实例 [175.7M]
┃ ┃ ┣━━1-预训练模型效果分析.abc [32M]
┃ ┃ ┣━━2-文本数据截断处理.abc [45.8M]
┃ ┃ ┗━━3-预训练模型自定义训练.abc [97.9M]
┃ ┣━━22-6 节GPT系列算法 [353.8M]
┃ ┃ ┣━━1-GPT系列算法概述.abc [26.5M]
┃ ┃ ┣━━2-GPT三代版本分析.abc [29.3M]
┃ ┃ ┣━━3-GPT初代版本要解决的问题.abc [31M]
┃ ┃ ┣━━4-GPT第二代版本训练策略.abc [29M]
┃ ┃ ┣━━5-采样策略与多样性.abc [28.2M]
┃ ┃ ┣━━6-GPT3的提示与生成方法.abc [74.4M]
┃ ┃ ┣━━7-应用场景CODEX分析.abc [36.5M]
┃ ┃ ┗━━8-DEMO应用演示.abc [98.8M]
┃ ┣━━22-7 节GPT训练与预测部署流程 [289.8M]
┃ ┃ ┣━━1-生成模型可以完成的任务概述.abc [28.9M]
┃ ┃ ┣━━2-数据样本生成方法.abc [72.1M]
┃ ┃ ┣━━3-训练所需参数解读.abc [57.7M]
┃ ┃ ┣━━4-模型训练过程.abc [51.5M]
┃ ┃ ┗━━5-部署与网页预测展示.abc [79.6M]
┃ ┣━━22-8 节文本摘要建模 [258.1M]
┃ ┃ ┣━━1-中文商城评价数据处理方法.abc [66.4M]
┃ ┃ ┣━━2-模型训练与测试结果.abc [108.1M]
┃ ┃ ┣━━3-文本摘要数据标注方法.abc [55.9M]
┃ ┃ ┗━━4-训练自己标注的数据并测试.abc [27.7M]
┃ ┗━━22-9 节图谱知识抽取实战 [413.5M]
┃ ┣━━1-应用场景概述分析.abc [92M]
┃ ┣━━2-数据标注格式样例分析.abc [70M]
┃ ┣━━3-数据处理与读取模块.abc [39.1M]
┃ ┣━━4-实体抽取模块分析.abc [44.3M]
┃ ┣━━5-标签与数据结构定义方法.abc [49.7M]
┃ ┣━━6-模型构建与计算流程.abc [43.1M]
┃ ┣━━7-网络模型前向计算方法.abc [32.9M]
┃ ┗━━8-关系抽取模型训练.abc [42.3M]
┣━━第23章 自然语言处理通用框架-BERT实战 [2.6G]
┃ ┣━━23-1 节自然语言处理通用框架BERT原理解读 [227.4M]
┃ ┃ ┣━━0-BERT课程简介.abc [29.8M]
┃ ┃ ┣━━1-BERT任务目标概述.abc [11.5M]
┃ ┃ ┣━━2-传统解决方案遇到的问题.abc [22.7M]
┃ ┃ ┣━━3-注意力机制的作用.abc [14.8M]
┃ ┃ ┣━━4-self-attention计算方法.abc [23.8M]
┃ ┃ ┣━━5-特征分配与softmax机制.abc [21.3M]
┃ ┃ ┣━━6-Multi-head的作用.abc [19.4M]
┃ ┃ ┣━━7-位置编码与多层堆叠.abc [16.8M]
┃ ┃ ┣━━8-transformer整体架构梳理.abc [22.4M]
┃ ┃ ┣━━9-BERT模型训练方法.abc [20.7M]
┃ ┃ ┗━━10-训练实例.abc [24.2M]
┃ ┣━━23-2 节谷歌开源项目BERT源码解读与应用实例 [574.2M]
┃ ┃ ┣━━1-BERT开源项目简介.abc [41.3M]
┃ ┃ ┣━━2-项目参数配置.abc [106.8M]
┃ ┃ ┣━━3-数据读取模块.abc [54.3M]
┃ ┃ ┣━━4-数据预处理模块.abc [40.1M]
┃ ┃ ┣━━5-tfrecord制作.abc [51.5M]
┃ ┃ ┣━━6-Embedding层的作用.abc [31M]
┃ ┃ ┣━━7-加入额外编码特征.abc [42.5M]
┃ ┃ ┣━━8-加入位置编码特征.abc [23.6M]
┃ ┃ ┣━━9-mask机制.abc [36.8M]
┃ ┃ ┣━━10-构建QKV矩阵.abc [50.8M]
┃ ┃ ┣━━11-完成Transformer模块构建.abc [40.8M]
┃ ┃ ┗━━12-训练BERT模型.abc [54.7M]
┃ ┣━━23-3 节项目实战-基于BERT的中文情感分析实战 [208.9M]
┃ ┃ ┣━━1-中文分类数据与任务概述.abc [83.5M]
┃ ┃ ┣━━2-读取处理自己的数据集.abc [53.1M]
┃ ┃ ┗━━3-训练BERT中文分类模型.abc [72.3M]
┃ ┣━━23-4 节项目实战-基于BERT的中文命名实体识别识别实战 [163M]
┃ ┃ ┣━━1-命名实体识别数据分析与任务目标.abc [30.5M]
┃ ┃ ┣━━2-NER标注数据处理与读取.abc [66.1M]
┃ ┃ ┗━━3-构建BERT与CRF模型.abc [66.5M]
┃ ┣━━23-5 节必备基础知识点-woed2vec模型通俗解读 [119.2M]
┃ ┃ ┣━━1-词向量模型通俗解释.abc [21.7M]
┃ ┃ ┣━━2-模型整体框架.abc [28.2M]
┃ ┃ ┣━━3-训练数据构建.abc [15.9M]
┃ ┃ ┣━━4-CBOW与Skip-gram模型.abc [23.8M]
┃ ┃ ┗━━5-负采样方案.abc [29.5M]
┃ ┣━━23-6 节必备基础-掌握Tensorflow如何实现word2vec模型 [223.6M]
┃ ┃ ┣━━1-数据与任务流程.abc [45.7M]
┃ ┃ ┣━━2-数据清洗.abc [27.6M]
┃ ┃ ┣━━3-batch数据制作.abc [51.5M]
┃ ┃ ┣━━4-网络训练.abc [49.1M]
┃ ┃ ┗━━5-可视化展示.abc [49.6M]
┃ ┣━━23-7 节必备基础知识点-RNN网络架构与情感分析应用实例 [882.7M]
┃ ┃ ┣━━1-RNN网络模型解读.abc [23.8M]
┃ ┃ ┣━━2-NLP应用领域与任务简介.abc [32.8M]
┃ ┃ ┣━━3-项目流程解读.abc [42.2M]
┃ ┃ ┣━━4-加载词向量特征.abc [32.3M]
┃ ┃ ┣━━5-正负样本数据读取.abc [36.8M]
┃ ┃ ┣━━6-构建LSTM网络模型.abc [46.7M]
┃ ┃ ┣━━7-训练与测试效果.abc [91.8M]
┃ ┃ ┗━━8-LSTM情感分析.abc [576.3M]
┃ ┗━━23-8 节医学糖尿病数据命名实体识别 [235.8M]
┃ ┣━━1-数据与任务介绍.abc [22.7M]
┃ ┣━━2-整体模型架构.abc [15M]
┃ ┣━━3-数据-标签-语料库处理.abc [40M]
┃ ┣━━4-输入样本填充补齐.abc [36.2M]
┃ ┣━━5-训练网络模型.abc [40.4M]
┃ ┗━━6-医疗数据集(糖尿病)实体识别.abc [81.4M]
┣━━第24章 知识图谱实战系列 [2G]
┃ ┣━━24-1 节知识图谱介绍及其应用领域分析 [205.7M]
┃ ┃ ┣━━1-知识图谱通俗解读.abc [19.9M]
┃ ┃ ┣━━2-知识图谱在搜索引擎中的应用.abc [26.6M]
┃ ┃ ┣━━3-知识图谱在医疗领域应用实例.abc [102.9M]
┃ ┃ ┣━━4-金融与推荐领域的应用.abc [20.4M]
┃ ┃ ┗━━5-数据获取分析.abc [35.9M]
┃ ┣━━24-2 节知识图谱涉及技术点分析 [133.3M]
┃ ┃ ┣━━1-数据关系抽取分析.abc [27.3M]
┃ ┃ ┣━━2-常用NLP技术点分析.abc [22.1M]
┃ ┃ ┣━━3-graph-embedding的作用与效果.abc [26.2M]
┃ ┃ ┣━━4-金融领域图编码实例.abc [12.8M]
┃ ┃ ┣━━5-视觉领域图编码实例.abc [21M]
┃ ┃ ┗━━6-图谱知识融合与总结分析.abc [24M]
┃ ┣━━24-3 节Neo4j数据库实战 [187.3M]
┃ ┃ ┣━━1-Neo4j图数据库介绍.abc [63.5M]
┃ ┃ ┣━━2-Neo4j数据库安装流程演示.abc [27.7M]
┃ ┃ ┣━━3-可视化例子演示.abc [43.6M]
┃ ┃ ┣━━4-创建与删除操作演示.abc [25.3M]
┃ ┃ ┗━━5-数据库更改查询操作演示.abc [27.2M]
┃ ┣━━24-4 节使用python操作neo4j实例 [195.7M]
┃ ┃ ┣━━1-使用Py2neo建立连接.abc [47.6M]
┃ ┃ ┣━━2-提取所需的指标信息.abc [53.2M]
┃ ┃ ┣━━3-在图中创建实体.abc [43.8M]
┃ ┃ ┗━━4-根据给定实体创建关系.abc [51M]
┃ ┣━━24-5 节基于知识图谱的医药问答系统实战 [449.6M]
┃ ┃ ┣━━1-项目概述与整体架构分析.abc [37M]
┃ ┃ ┣━━2-医疗数据介绍及其各字段含义.abc [62.7M]
┃ ┃ ┣━━3-任务流程概述.abc [39.7M]
┃ ┃ ┣━━4-环境配置与所需工具包安装.abc [36.4M]
┃ ┃ ┣━━5-提取数据中的关键字段信息.abc [61.3M]
┃ ┃ ┣━━6-创建关系边.abc [39.4M]
┃ ┃ ┣━━7-打造医疗知识图谱模型.abc [59.1M]
┃ ┃ ┣━━8-加载所有实体数据.abc [42.5M]
┃ ┃ ┣━━9-实体关键词字典制作.abc [31.8M]
┃ ┃ ┗━━10-完成对话系统构建.abc [39.5M]
┃ ┣━━24-6 节文本关系抽取实践 [330.7M]
┃ ┃ ┣━━1-关系抽取要完成的任务演示与分析.abc [18.6M]
┃ ┃ ┣━━2-LTP工具包概述介绍.abc [46.5M]
┃ ┃ ┣━━3-pyltp安装与流程演示.abc [41.8M]
┃ ┃ ┣━━4-得到分词与词性标注结果.abc [47.2M]
┃ ┃ ┣━━5-依存句法概述.abc [30.8M]
┃ ┃ ┣━━6-句法分析结果整理.abc [39.1M]
┃ ┃ ┣━━7-语义角色构建与分析.abc [54.2M]
┃ ┃ ┗━━8-设计规则完成关系抽取.abc [52.5M]
┃ ┣━━24-7 节金融平台风控模型实践 [304.4M]
┃ ┃ ┣━━1-竞赛任务目标.abc [23.8M]
┃ ┃ ┣━━2-图模型信息提取.abc [27.8M]
┃ ┃ ┣━━3-节点权重特征提取(PageRank).abc [35.6M]
┃ ┃ ┣━━4-deepwalk构建图顶点特征.abc [53.5M]
┃ ┃ ┣━━5-各项统计特征.abc [56M]
┃ ┃ ┣━━6-app安装特征.abc [37.4M]
┃ ┃ ┗━━7-图中联系人特征.abc [70.3M]
┃ ┗━━24-8 节医学糖尿病数据命名实体识别 [235.8M]
┃ ┣━━1-数据与任务介绍.abc [22.7M]
┃ ┣━━2-整体模型架构.abc [15M]
┃ ┣━━3-数据-标签-语料库处理.abc [40M]
┃ ┣━━4-输入样本填充补齐.abc [36.2M]
┃ ┣━━5-训练网络模型.abc [40.4M]
┃ ┗━━6-医疗数据集(糖尿病)实体识别.abc [81.4M]
┣━━第25章 语音识别实战系列 [2.2G]
┃ ┣━━25-1 节seq2seq序列网络模型 [102.1M]
┃ ┃ ┣━━1-序列网络模型概述分析.abc [17.3M]
┃ ┃ ┣━━2-工作原理概述.abc [9M]
┃ ┃ ┣━━3-注意力机制的作用.abc [14.8M]
┃ ┃ ┣━━4-加入attention的序列模型整体架构.abc [20.6M]
┃ ┃ ┣━━5-TeacherForcing的作用与训练策略.abc [16.6M]
┃ ┃ ┗━━6-额外补充-RNN网络模型解读.abc [23.8M]
┃ ┣━━25-2 节LAS模型语音识别实战 [339.3M]
┃ ┃ ┣━━1-数据源与环境配置.abc [32.2M]
┃ ┃ ┣━━2-语料表制作方法.abc [25.5M]
┃ ┃ ┣━━3-制作json标注数据.abc [37.9M]
┃ ┃ ┣━━4-声音数据处理模块解读.abc [62.9M]
┃ ┃ ┣━━5-Pack与Pad操作解析.abc [35.9M]
┃ ┃ ┣━━6-编码器模块整体流程.abc [31.4M]
┃ ┃ ┣━━7-加入注意力机制.abc [33.3M]
┃ ┃ ┣━━8-计算得到每个输出的attention得分.abc [36.4M]
┃ ┃ ┗━━9-解码器与训练过程演示.abc [43.8M]
┃ ┣━━25-3 节starganvc2变声器论文原理解读 [247.7M]
┃ ┃ ┣━━1-论文整体思路与架构解读.abc [34.7M]
┃ ┃ ┣━━2-VCC2016输入数据.abc [20.8M]
┃ ┃ ┣━━3-语音特征提取.abc [30.6M]
┃ ┃ ┣━━4-生成器模型架构分析.abc [15.8M]
┃ ┃ ┣━━5-InstanceNorm的作用解读.abc [18.6M]
┃ ┃ ┣━━6-AdaIn的目的与效果.abc [13.2M]
┃ ┃ ┗━━7-判别器模块分析.abc [114M]
┃ ┣━━25-4 节staeganvc2变声器源码实战 [518.5M]
┃ ┃ ┣━━1-数据与项目文件解读.abc [21.8M]
┃ ┃ ┣━━2-环境配置与工具包安装.abc [37.1M]
┃ ┃ ┣━━3-数据预处理与声音特征提取.abc [88.5M]
┃ ┃ ┣━━4-生成器构造模块解读.abc [41.3M]
┃ ┃ ┣━━5-下采样与上采样操作.abc [35.5M]
┃ ┃ ┣━━6-starganvc2版本标签输入分析.abc [50M]
┃ ┃ ┣━━7-生成器前向传播维度变化.abc [26.5M]
┃ ┃ ┣━━8-判别器模块解读.abc [35.2M]
┃ ┃ ┣━━9-论文损失函数.abc [100.5M]
┃ ┃ ┣━━10-源码损失计算流程.abc [34.8M]
┃ ┃ ┗━━11-测试模块-生成转换语音.abc [47.2M]
┃ ┣━━25-5 节语音分离ConvTasnet模型 [114.6M]
┃ ┃ ┣━━1-语音分离任务分析.abc [9.2M]
┃ ┃ ┣━━2-经典语音分离模型概述.abc [18.1M]
┃ ┃ ┣━━3-DeepClustering论文解读.abc [16.3M]
┃ ┃ ┣━━4-TasNet编码器结构分析.abc [41.6M]
┃ ┃ ┣━━5-DW卷积的作用与效果.abc [10.2M]
┃ ┃ ┗━━6-基于Mask得到分离结果.abc [19.3M]
┃ ┣━━25-6 节ConvTasnet语音分离实战 [384.9M]
┃ ┃ ┣━━1-数据准备与环境配置.abc [78M]
┃ ┃ ┣━━2-训练任务所需参数介绍.abc [27.7M]
┃ ┃ ┣━━3-DataLoader定义.abc [38M]
┃ ┃ ┣━━4-采样数据特征编码.abc [37.7M]
┃ ┃ ┣━━5编码器特征提取.abc [55M]
┃ ┃ ┣━━6-构建更大的感受区域.abc [53.5M]
┃ ┃ ┣━━7-解码得到分离后的语音.abc [52.6M]
┃ ┃ ┗━━8-测试模块所需参数.abc [42.4M]
┃ ┗━━25-7 节语音合成tacotron最新版实战 [585.9M]
┃ ┣━━1-语音合成项目所需环境配置.abc [44.6M]
┃ ┣━━2-所需数据集介绍.abc [52.7M]
┃ ┣━━3-路径配置与整体流程解读.abc [70.2M]
┃ ┣━━4-Dataloader构建数据与标签.abc [66.7M]
┃ ┣━━5-编码层要完成的任务.abc [46.4M]
┃ ┣━━6-得到编码特征向量.abc [28.6M]
┃ ┣━━7-解码器输入准备.abc [34.6M]
┃ ┣━━8-解码器流程梳理.abc [41.4M]
┃ ┣━━9-注意力机制应用方法.abc [43.7M]
┃ ┣━━10-得到加权的编码向量.abc [55.9M]
┃ ┣━━11-模型输出结果.abc [53.3M]
┃ ┗━━12-损失函数与预测.abc [48M]
┣━━第26章 推荐系统实战系列 [2.9G]
┃ ┣━━26-1 节推荐系统介绍及其应用 [134M]
┃ ┃ ┣━━1-推荐系统通俗解读.abc [17.3M]
┃ ┃ ┣━━2-推荐系统发展简介.abc [23.2M]
┃ ┃ ┣━━3-应用领域与多方位评估指标.abc [26.5M]
┃ ┃ ┣━━4-任务流程与挑战概述.abc [26.8M]
┃ ┃ ┣━━5-常用技术点分析.abc [16.5M]
┃ ┃ ┗━━6-与深度学习的结合.abc [23.7M]
┃ ┣━━26-10 节基本统计分析的电影推荐 [443.5M]
┃ ┃ ┣━━1-电影数据与环境配置.abc [64.1M]
┃ ┃ ┣━━2-数据与关键词信息展示.abc [61.3M]
┃ ┃ ┣━━3-关键词云与直方图展示.abc [46M]
┃ ┃ ┣━━4-特征可视化.abc [38.7M]
┃ ┃ ┣━━5-数据清洗概述.abc [57.3M]
┃ ┃ ┣━━6-缺失值填充方法.abc [37.2M]
┃ ┃ ┣━━7-推荐引擎构造.abc [50.9M]
┃ ┃ ┣━━8-数据特征构造.abc [36.2M]
┃ ┃ ┗━━9-得出推荐结果.abc [51.9M]
┃ ┣━━26-11 节补充-基于相似度的酒店推荐系统 [249M]
┃ ┃ ┣━━1-酒店数据与任务介绍.abc [22M]
┃ ┃ ┣━━2-文本词频统计.abc [31.4M]
┃ ┃ ┣━━3-ngram结果可视化展示.abc [53.1M]
┃ ┃ ┣━━4-文本清洗.abc [32.9M]
┃ ┃ ┣━━5-相似度计算.abc [47.6M]
┃ ┃ ┗━━6-得出推荐结果.abc [62M]
┃ ┣━━26-2 节协同过滤与矩阵分解 [129.8M]
┃ ┃ ┣━━1-协同过滤与矩阵分解简介.abc [11.3M]
┃ ┃ ┣━━2-基于用户与商品的协同过滤.abc [18.5M]
┃ ┃ ┣━━3-相似度计算与推荐实例.abc [15.2M]
┃ ┃ ┣━━4-矩阵分解的目的与效果.abc [20.7M]
┃ ┃ ┣━━5-矩阵分解中的隐向量.abc [25.1M]
┃ ┃ ┣━━6-目标函数简介.abc [13.8M]
┃ ┃ ┣━━7-隐式情况分析.abc [14.1M]
┃ ┃ ┗━━8-Embedding的作用.abc [11.1M]
┃ ┣━━26-3 节音乐推荐系统实战 [358.9M]
┃ ┃ ┣━━1-音乐推荐任务概述.abc [64.5M]
┃ ┃ ┣━━2-数据集整合.abc [53.9M]
┃ ┃ ┣━━3-基于物品的协同过滤.abc [63.1M]
┃ ┃ ┣━━4-物品相似度计算与推荐.abc [63.4M]
┃ ┃ ┣━━5-SVD矩阵分解.abc [30.8M]
┃ ┃ ┗━━6-基于矩阵分解的音乐推荐.abc [83.2M]
┃ ┣━━26-4 节知识图谱与Neo4j数据库实例 [393M]
┃ ┃ ┣━━1-知识图谱通俗解读.abc [19.9M]
┃ ┃ ┣━━2-知识图谱在搜索引擎中的应用.abc [26.6M]
┃ ┃ ┣━━3-知识图谱在医疗领域应用实例.abc [102.9M]
┃ ┃ ┣━━4-金融与推荐领域的应用.abc [20.4M]
┃ ┃ ┣━━5-数据获取分析.abc [35.9M]
┃ ┃ ┣━━6-Neo4j图数据库介绍.abc [63.5M]
┃ ┃ ┣━━7-Neo4j数据库安装流程演示.abc [27.7M]
┃ ┃ ┣━━8-可视化例子演示.abc [43.6M]
┃ ┃ ┣━━9-创建与删除操作演示.abc [25.3M]
┃ ┃ ┗━━10-数据库更改查询操作演示.abc [27.2M]
┃ ┣━━26-5 节基于知识图谱的电影推荐实战 [282.9M]
┃ ┃ ┣━━1-知识图谱推荐系统效果演示.abc [23.7M]
┃ ┃ ┣━━2-kaggle电影数据集下载与配置.abc [63.4M]
┃ ┃ ┣━━3-图谱需求与任务流程解读.abc [26.6M]
┃ ┃ ┣━━4-项目所需环境配置安装.abc [48.8M]
┃ ┃ ┣━━5-构建用户电影知识图谱.abc [61.5M]
┃ ┃ ┣━━6-图谱查询与匹配操作.abc [19.6M]
┃ ┃ ┗━━7-相似度计算与推荐引擎构建.abc [39.2M]
┃ ┣━━26-6 节点击率估计FM与DeepFM算法 [138.3M]
┃ ┃ ┣━━1-CTR估计及其经典方法概述.abc [22M]
┃ ┃ ┣━━2-高维特征带来的问题.abc [13M]
┃ ┃ ┣━━3-二项式特征的作用与挑战.abc [11.8M]
┃ ┃ ┣━━4-二阶公式推导与化简.abc [20.9M]
┃ ┃ ┣━━5-FM算法解析.abc [19.8M]
┃ ┃ ┣━━6-DeepFm整体架构解读.abc [15.2M]
┃ ┃ ┣━━7-输入层所需数据样例.abc [14.1M]
┃ ┃ ┗━━8-Embedding层的作用与总结.abc [21.5M]
┃ ┣━━26-7 节DeepFM算法实战 [344.7M]
┃ ┃ ┣━━1-数据集介绍与环境配置.abc [57.8M]
┃ ┃ ┣━━2-广告点击数据预处理实例.abc [49.2M]
┃ ┃ ┣━━3-数据处理模块Embedding层.abc [34.4M]
┃ ┃ ┣━━4-Index与Value数据制作.abc [29.3M]
┃ ┃ ┣━━5-一阶权重参数设计.abc [33.5M]
┃ ┃ ┣━━6-二阶特征构建方法.abc [28.9M]
┃ ┃ ┣━━7-特征组合方法实例分析.abc [49.5M]
┃ ┃ ┣━━8-完成FM模块计算.abc [24.6M]
┃ ┃ ┗━━9-DNN模块与训练过程.abc [37.5M]
┃ ┣━━26-8 节推荐系统常用工具包演示 [201.7M]
┃ ┃ ┣━━1-环境配置与数据集介绍.abc [35.7M]
┃ ┃ ┣━━2-电影数据集预处理分析.abc [32.8M]
┃ ┃ ┣━━3-surprise工具包基本使用.abc [36.1M]
┃ ┃ ┣━━4-模型测试集结果.abc [30.7M]
┃ ┃ ┗━━5-评估指标概述.abc [66.5M]
┃ ┗━━26-9 节基于文本数据的推荐实例 [244.9M]
┃ ┣━━1-数据与环境配置介绍.abc [19.8M]
┃ ┣━━2-数据科学相关数据介绍.abc [31.3M]
┃ ┣━━3-文本数据预处理.abc [37.4M]
┃ ┣━━4-TFIDF构建特征矩阵.abc [31.3M]
┃ ┣━━5-矩阵分解演示.abc [29M]
┃ ┣━━6-LDA主题模型效果演示.abc [53.1M]
┃ ┗━━7-推荐结果分析.abc [43M]

发表评论

后才能评论

购买后资源页面显示下载按钮和分享密码,点击后自动跳转百度云链接,输入密码后自行提取资源。

本章所有带有【尊享】和【加密】的课程均为加密课程,加密课程需要使用专门的播放器播放。

联系微信客服获取,一个授权账号可以激活三台设备,请在常用设备上登录账号。

可能资源被百度网盘黑掉,联系微信客服添加客服百度网盘好友后分享。

教程属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源