【尊享】ZX045 – 名企项目培养计划-自然语言处理算法工程师 [16.6G]
┣━━01.视频 [15.4G]
┃ ┣━━01-核心能力提升班自然语言处理方向004期 [4.6G]
┃ ┃ ┣━━1.1 语言模型与语法树 [299.5M]
┃ ┃ ┃ ┗━━1-语言模型与语法树.vep [299.5M]
┃ ┃ ┣━━2.1 爬虫、搜索引擎与 自动路径决策 [424.3M]
┃ ┃ ┃ ┗━━2-爬虫、搜索引擎与自动路径决策.vep [424.3M]
┃ ┃ ┣━━3.1 动态规划与编辑距离 [359.4M]
┃ ┃ ┃ ┗━━3-动态规划与编辑距离.vep [359.4M]
┃ ┃ ┣━━4.1 自然语言理解初步 [445.7M]
┃ ┃ ┃ ┗━━4-自然语言理解初步.vep [445.7M]
┃ ┃ ┣━━5.1 经典机器学习一 [270.8M]
┃ ┃ ┃ ┗━━5-经典机器学习一.vep [270.8M]
┃ ┃ ┣━━6.1 深度学习 [235.7M]
┃ ┃ ┃ ┗━━6-深度学习.vep [235.7M]
┃ ┃ ┣━━7.1 经典机器学习二 [277.1M]
┃ ┃ ┃ ┗━━7-经典机器学习二.vep [277.1M]
┃ ┃ ┣━━8.1 经典机器学习三:非监督、 半监督、主动学习 [284.2M]
┃ ┃ ┃ ┗━━8-经典机器学习三:非监督、半监督、主动学习.vep [284.2M]
┃ ┃ ┣━━9.1 word2vec [327.3M]
┃ ┃ ┃ ┗━━9-word2vec.vep [327.3M]
┃ ┃ ┣━━10.1 CNN卷积神经网络 [321.5M]
┃ ┃ ┃ ┗━━10-CNN卷积神经网络.vep [321.5M]
┃ ┃ ┣━━11.1 RNN循环神经网络 [330.7M]
┃ ┃ ┃ ┗━━11-RNN循环神经网络.vep [330.7M]
┃ ┃ ┣━━12.1 Transformer与BERT,大规模预训练问题 [362.7M]
┃ ┃ ┃ ┗━━12-Transformer与BERT,大规模预训练问题.vep [362.7M]
┃ ┃ ┣━━13.1 面向服务的智能客户机器人与新闻自动摘要生成 [321.5M]
┃ ┃ ┃ ┗━━13-面向服务的智能客户机器人与新闻自动摘要生成.vep [321.5M]
┃ ┃ ┗━━14.1 高级人工智能知识 [412.1M]
┃ ┃ ┗━━14-高级人工智能知识.vep [412.1M]
┃ ┣━━02-导师制名企实训班自然语言处理方向004期-项目一 [3.2G]
┃ ┃ ┣━━1.1 项目导论与中文 词向量实践 [327.7M]
┃ ┃ ┃ ┗━━项目导论与中文词向量实践.vep [327.7M]
┃ ┃ ┣━━2.1 基于Seq2Seq架构的模型搭建 [384.6M]
┃ ┃ ┃ ┗━━2.1 基于Seq2Seq架构的模型搭建.vep [384.6M]
┃ ┃ ┣━━3.1 NLG过程的优化与项目Inference [539.2M]
┃ ┃ ┃ ┗━━3.1 NLG过程的优化与项目Inference.vep [539.2M]
┃ ┃ ┣━━4.1 OOV和Word-repetition问题的改进 [379.9M]
┃ ┃ ┃ ┗━━4.1 OOV和Word-repetition问题的改进.vep [379.9M]
┃ ┃ ┣━━5.1 基于Transformer特征提取器的改进 [469.5M]
┃ ┃ ┃ ┗━━5.1 基于Transformer特征提取器的改进.vep [469.5M]
┃ ┃ ┣━━6.1 BERT在抽取式任务中的效果 [451.5M]
┃ ┃ ┃ ┗━━6.1 BERT在抽取式任务中的效果.vep [451.5M]
┃ ┃ ┣━━7.1 预训练模型在摘要任务中的改进 [349.7M]
┃ ┃ ┃ ┗━━7.1 预训练模型在摘要任务中的改进.vep [349.7M]
┃ ┃ ┗━━8.1 项目总结与回顾 [329.1M]
┃ ┃ ┗━━8.1 项目总结与回顾.vep [329.1M]
┃ ┣━━03-基于大规模预训练模型的机器阅读理解-项目二 [2.8G]
┃ ┃ ┣━━1.1 机器阅读理解发展及任务解析 [306M]
┃ ┃ ┃ ┗━━1-机器阅读理解发展及任务解析.vep [306M]
┃ ┃ ┣━━2.1 常见机器阅读理解模型(一) [307.8M]
┃ ┃ ┃ ┗━━2-常见机器阅读理解模型(一).vep [307.8M]
┃ ┃ ┣━━3.1 常见机器阅读理解模型(二) [335.6M]
┃ ┃ ┃ ┗━━3-常见机器阅读理解模型(二).vep [335.6M]
┃ ┃ ┣━━4.1 BERT与机器阅读理解 [435.5M]
┃ ┃ ┃ ┗━━4-BERT与机器阅读理解.vep [435.5M]
┃ ┃ ┣━━5.1 BERT的模型变体 [316M]
┃ ┃ ┃ ┗━━5-BERT的模型变体.vep [316M]
┃ ┃ ┣━━6.1 其它阅读理解相关模型 [372.9M]
┃ ┃ ┃ ┗━━6-其它阅读理解相关模型.vep [372.9M]
┃ ┃ ┣━━7.1 模型集成与部署 [385.4M]
┃ ┃ ┃ ┗━━7-模型集成与部署.vep [385.4M]
┃ ┃ ┗━━8.1 项目总结 [438.7M]
┃ ┃ ┗━━8-项目总结.vep [438.7M]
┃ ┗━━04-企业级任务型对话机器人-项目三 [4.8G]
┃ ┣━━1.1 智能对话系统导论 [467M]
┃ ┃ ┗━━1-智能对话系统导论.vep [467M]
┃ ┣━━2.1 使用 RASA 制作你的第一个对话机器人 [543.5M]
┃ ┃ ┗━━2-使用RASA制作你的第一个对话机器人.vep [543.5M]
┃ ┣━━3.1 深入 RASA 源码和定制化你的对话机器人 [800.7M]
┃ ┃ ┗━━3-深入RASA源码和定制化你的对话机器人.vep [800.7M]
┃ ┣━━4.1 代码课-基于 rasa 做 KBQA [492.1M]
┃ ┃ ┗━━4-代码课-基于rasa做KBQA.vep [492.1M]
┃ ┣━━5.1 自然语言理解(NLU) [442.3M]
┃ ┃ ┗━━5-自然语言理解(NLU).vep [442.3M]
┃ ┣━━6.1 HuggingFace’s Transformer和基于规则的对话状态跟踪 [449.7M]
┃ ┃ ┗━━6-HuggingFacesTransformer和基于规则的对话状态跟踪.vep [449.7M]
┃ ┣━━7.1 基于模型的对话跟踪和基于规则的Dialogue Policy [524.3M]
┃ ┃ ┗━━7-基于模型的对话跟踪和基于规则的DialoguePolicy.vep [524.3M]
┃ ┣━━8.1 代码课-NLU 和 DST 联合建模方法 [413.2M]
┃ ┃ ┗━━8-代码课-NLU和DST联合建模方法.vep [413.2M]
┃ ┣━━9.1 基于模版的对话生成和有限状态机(FSM) [459.3M]
┃ ┃ ┗━━9-基于模版的对话生成和有限状态机(FSM).vep [459.3M]
┃ ┗━━10.1 端到端的对话系统和智能对话系统在工业中 [335.3M]
┃ ┗━━10-端到端的对话系统和智能对话系统在工业中.vep [335.3M]
┣━━00.资料.zip [1.2G]
┗━━vep加密播放说明.txt [207B]