文泉课堂
- 年轻人的新知识课堂。
旗下网站
旗下产品
文泉考试
文泉题库
关注我们
文泉课堂公众号
课程
课程
登录
注册
登录
注册
动手学推荐系统——基于PyTorch的算法实现(微课视频版)(9787302606284/091753-01)
第68课时: 第三章3.4.9Transformer Decoder
查看课程
课时列表
第1课时: 第一章1.1什么是推荐系统
第2课时: 第一章1.2推荐系统的由来
第3课时: 第一章1.3推荐系统的概况
第4课时: 第一章1.4推荐算法的概况
第5课时: 第二章2.1协同过滤
第6课时: 第二章2.2.1~2.2.2CN相似度与Jacard相似度
第7课时: 第二章2.2.3cos相似度
第8课时: 第二章2.2.4Pearson相似度
第9课时: 第二章2.2.5Pearson相似度与Cos相似度之间的联系
第10课时: 第二章2.3.1UserCF
第11课时: 第二章2.3.2行为相似与内容相似的区别
第12课时: 第二章2.3.3ItemCF
第13课时: 第二章2.3.4实战:userCF
第14课时: 第二章2.3.5实战:itemCF
第15课时: 第二章2.3.6实战:标注为1~5的评分
第16课时: 第二章2.4.1~2.4.2推荐系统评估,准确率、精确率、召回率
第17课时: 第二章2.4.3推荐列表评测
第18课时: 第二章2.4.4对近邻协同过滤模型进行评测
第19课时: 第二章2.5.1User-IIF 与 Item-IUF
第20课时: 第二章2.5.2更高效地利用流行度定义近邻指标
第21课时: 第二章2.5.3自定义相似度指标的范式
第22课时: 第二章2.6.1SVD矩阵分解
第23课时: 第二章2.6.2将SVD用作推荐
第24课时: 第二章2.6.3LFM隐因子模型
第25课时: 第二章2.6.4ALS代码实现
第26课时: 第二章2.6.5推荐模型评估:MSE、RMSE、MAE
第27课时: 第二章2.6.6以深度学习端到端训练思维理解ALS
第28课时: 第二章2.6.7ALS代码实现PyTorch版
第29课时: 第二章2.7.0逻辑回归出发的推荐算法
第30课时: 第二章2.7.1逻辑回归出发的推荐算法
第31课时: 第二章2.7.2逻辑回归
第32课时: 第二章2.7.3POLY2
第33课时: 第二章2.7.4FM(上)
第34课时: 第二章2.7.4FM(下)
第35课时: 第二章2.7.5以深度学习端到端训练思维理解FM
第36课时: 第二章2.8本章总结
第37课时: 第三章3.1.0神经网络推荐算法推导范式
第38课时: 第三章3.1.1ALS MLP(上)
第39课时: 第三章3.1.1ALS MLP(下)
第40课时: 第三章3.1.2特征向量 MLP
第41课时: 第三章3.1.3结合CNN的推荐
第42课时: 第三章3.1.4结合RNN的推荐(上)
第43课时: 第三章3.1.4结合RNN的推荐(下)
第44课时: 第三章3.1.5ALS结合RNN
第45课时: 第三章3.1.6联合训练的RNN
第46课时: 第三章3.1.7小节总结
第47课时: 第三章3.2.1FNN
第48课时: 第三章3.2.2改进过后的FNN
第49课时: 第三章3.2.3WideDeep
第50课时: 第三章3.2.4DeepFM
第51课时: 第三章3.2.5AFM
第52课时: 第三章3.2.6小节总结
第53课时: 第三章3.3.1基本序列推荐模型
第54课时: 第三章3.3.2DIN与注意力计算方式(上)
第55课时: 第三章3.3.2DIN与注意力计算方式(下)
第56课时: 第三章3.3.3从PReLU到Dice激活函数
第57课时: 第三章3.3.4DIEN 模拟兴趣演化的序列网络(上)
第58课时: 第三章3.3.4DIEN 模拟兴趣演化的序列网络(下)
第59课时: 第三章3.4.0Transformer在推荐算法中的应用
第60课时: 第三章3.4.1从推荐角度初步了解Transformer
第61课时: 第三章3.4.2多头注意力与缩放点乘注意力算法
第62课时: 第三章3.4.3残差
第63课时: 第三章3.4.4Layer Normalization
第64课时: 第三章3.4.5Feed Forward前馈神经网络层
第65课时: 第三章3.4.6位置编码
第66课时: 第三章3.4.7Transformer Encoder
第67课时: 第三章3.4.8利用Transformer编码器的推荐算法 BST
第68课时: 第三章3.4.9Transformer Decoder
第69课时: 第三章3.4.10结合Transformer解码器的推荐算法推导
第70课时: 第三章3.5本章总结
第71课时: 第四章 图神经网络与推荐算法
第72课时: 第四章4.1.1~4.0.9图论基础
第73课时: 第四章4.1.10处理图的Python库推荐
第74课时: 第四章4.2.0~4.2.1基于图的基础推荐方式_链路预测 ( Link Prediction )
第75课时: 第四章4.2.2什么是路径
第76课时: 第四章4.2.3基于路径的基础链路预测
第77课时: 第四章4.2.4图游走算法 DeepWalk(上)
第78课时: 第四章4.2.4图游走算法 DeepWalk(下)
第79课时: 第四章4.2.5图游走算法 Node2Vec
第80课时: 第四章4.3.1GCN 图卷积网络(上)
第81课时: 第四章4.3.1GCN 图卷积网络(下)
第82课时: 第四章4.3.2GAT 图注意力网络
第83课时: 第四章4.3.3消息传递
第84课时: 第四章4.3.4图采样介绍
第85课时: 第四章4.3.5图采样算法:GraphSAGE
第86课时: 第四章4.3.6图采样算法:PinSAGE
第87课时: 第四章4.4.0基于图神经网络的推荐
第88课时: 第四章4.4.1利用GCN的推荐算法
第89课时: 第四章4.4.2利用GAT的推荐算法(上)
第90课时: 第四章4.4.2利用GAT的推荐算法(下)
第91课时: 第四章4.4.3图神经网络结合FM的推荐算法:GFM
第92课时: 第四章4.4.4GFM加入注意力机制的推荐算法:GAFM
第93课时: 第四章4.4.5小节总结
第95课时: 第五章 知识图谱与推荐算法
第96课时: 第五章5.1.1知识图谱定义
第97课时: 第五章5.1.2RDF 到 HRT三元组
第98课时: 第五章5.1.3知识图谱推荐算法与图神经网络推荐算法的发展脉络
第99课时: 第五章5.1.4知识图谱推荐算法的概览
第100课时: 第五章5.1.5基于知识图谱推荐的优劣势
第101课时: 第五章5.1.6Freebase数据集介绍
第102课时: 第五章5.2.0Knowledge Graph Embedding知识图谱嵌入
第103课时: 第五章5.2.1翻译距离模型TransE
第104课时: 第五章5.2.2翻译距离模型TransH(上)
第105课时: 第五章5.2.2翻译距离模型TransH(下)
第106课时: 第五章5.2.3翻译距离模型TransR
第107课时: 第五章5.2.4其他翻译距离模型
第108课时: 第五章5.2.5语义匹配模型RESCAL
第109课时: 第五章5.2.6其他语义匹配模型
第110课时: 第五章5.3.1利用知识图谱嵌入做推荐模型的基本思路
第111课时: 第五章5.3.2最简单的知识图谱推荐算法CKE
第112课时: 第五章5.3.3CKE 扩展及演化
第113课时: 第五章5.3.4加强知识图谱信息的影响:MKR
第114课时: 第五章5.3.5MKR扩展
第115课时: 第五章5.3.6针对更新频率很快的新闻场景知识图谱推荐算法:DKN
第116课时: 第五章5.4.1元路径
第117课时: 第五章5.4.2路径相似度 ( PathSim )
第118课时: 第五章5.4.3学习元路径的权重:PER(上)
第119课时: 第五章5.4.3学习元路径的权重:PER(下)
第120课时: 第五章5.4.4异构图的图游走算法:MetaPath2Vec
第121课时: 第五章5.4.5MetaPath2Vec的扩展
第122课时: 第五章5.5.1RippleNet基础思想
第123课时: 第五章5.5.2RippleNet计算过程
第124课时: 第五章5.5.3水波图采样
第125课时: 第五章5.5.4RippleNet实际操作时的注意事项与代码范例
第126课时: 第五章5.6.1最基础的基于图神经网络的知识图谱推荐算法KGCN(上)
第127课时: 第五章5.6.1最基础的基于图神经网络的知识图谱推荐算法KGCN(下)
第128课时: 第五章5.6.2KGCN的扩展 KGNN-LS
第129课时: 第五章5.6.3图注意力网络在知识图谱推荐算法中的应用KGAT
第130课时: 第五章5.6.4GFM与知识图谱的结合KGFM
第131课时: 第五章5.7本章总结
第132课时: 第六章 推荐系统的构造
第133课时: 第六章6.1.1~6.1.4推荐系统结构概览
第134课时: 第六章6.2.0预测服务部分
第135课时: 第六章6.2.1逻辑召回
第136课时: 第六章6.2.2近邻召回
第137课时: 第六章6.2.3Embedding召回
第138课时: 第六章6.2.4基于模型的召回:粗排序层
第139课时: 第六章6.2.5精排序层
第140课时: 第六章6.2.6小节总结
第141课时: 第六章6.3.1Min-Hash(上)
第142课时: 第六章6.3.1Min-Hash(下)
第143课时: 第六章6.3.2LSH
第144课时: 第六章6.3.3双塔模型 LSH召回实战
第145课时: 第六章6.4模型训练部分
第146课时: 第六章6.5.0数据处理部分
第147课时: 第六章6.5.1特征工程数据流
第148课时: 第六章6.5.2用户画像与产品画像
第149课时: 第六章6.5.3生成标注
第150课时: 第六章6.5.4负例采样
第151课时: 第六章6.5.5统计类数据流
第152课时: 第六章6.5.6批处理与流处理
第153课时: 第六章6.5.7大数据处理工具简介:Spark
第154课时: 第六章6.5.8大数据处理工具简介:Flink
第155课时: 第六章6.5.9小节总结
第156课时: 第六章6.6.0冷启动
第157课时: 第六章6.6.1用户冷启动
第158课时: 第六章6.6.2物品冷启动
第159课时: 第六章6.6.3物品冷启动到沉寂的生命周期
第160课时: 第六章6.6.4系统冷启动
第161课时: 第七章 推荐系统的评估
第162课时: 第七章7.1.1~7.1.3准确率,精确率,召回率
第163课时: 第七章7.1.4F1 – Score
第164课时: 第七章7.1.5ROC曲线
第165课时: 第七章7.1.6AUC
第166课时: 第七章7.1.7Log Loss
第167课时: 第七章7.1.8MSE、RMSE、MAE
第168课时: 第七章7.2.1TopK精确率与召回率
第169课时: 第七章7.2.2TopK测试与普通模型测试的区别
第170课时: 第七章7.2.3Mean Average Precision ( MAP )
第171课时: 第七章7.2.4Hit Ratio ( HR )
第172课时: 第七章7.2.5Mean Reciprocal Rank ( MRR )
第173课时: 第七章7.2.6NDCG
第174课时: 第七章7.2.7小节总结
第175课时: 第七章7.3.1~7.3.2点击率CTR与转化率CVR
第176课时: 第七章7.3.3覆盖率 ( Coverage )
第177课时: 第七章7.3.4多样性 ( Diversity )
第178课时: 第七章7.3.5信息熵 ( Entropy )
第179课时: 第七章7.3.6新颖度 ( Novelty )
第180课时: 第七章7.3.7惊喜度 ( Surprise )
第181课时: 第七章7.3.8小节总结
第182课时: 第七章7.4.0在线对比测试
第193课时: 第八章8.6优化推荐系统
第94课时: 第四章4.5本章总结
第195课时: 结语
第196课时: 参1
第197课时: 参2
第198课时: 参3
第199课时: 参4
第200课时: 参5
第201课时: 参6
第202课时: 参7
第203课时: 参8
第183课时: 第七章7.4.1~7.4.3AB测试与交叉测试
第184课时: 第八章 推荐工程的生命周期8.1了解数据与推荐目的
第186课时: 第八章8.2.4计算信息增益比筛选特征
第187课时: 第八章8.2.5计算皮尔逊相关系数筛选特征
第185课时: 第八章8.2~8.2.3初期的特征筛选
第188课时: 第八章8.2.6通过L1正则过滤特征
第189课时: 第八章8.2.7通过业务知识筛选特征
第190课时: 第八章8.3推荐系统结构设计
第191课时: 第八章8.4模型研发
第192课时: 第八章8.5搭建推荐系统
第194课时: 动手学推荐系统-源代码.zip
学
习
中
心
TOP