登录后体验更多功能
百战-AI算法工程师就业班 ├── 7--机器学习-无监督学习 │ ├── 2--EM算法和GMM高斯混合模型 │ │ ├── 9-通过声音文件利用GMM算法识别是谁.mp4 │ │ ├── 8-通过声音文件利用GMM算法识别性别.mp4 │ │ ├── 7-GMM前景背景分离.mp4 │ │ ├── 6-将EM算法应用到GMM中并且推导出Π的公式.mp4 │ │ ├── 5-将EM算法应用到GMM中并且推导出了μ和Σ的公式.mp4 │ │ ├── 4-Jensen不等式的应用.mp4 │ │ ├── 3-GMM参数估计Πμσ的流程.mp4 │ │ ├── 2-理解GMM高斯混合分布的对数似然函数.mp4 │ │ └── 1-单个高斯分布GM的参数估计.mp4 │ ├── 3--PCA降维算法 │ │ ├── 1-特征选择与特征映射.mp4 │ │ ├── 5-PCA的几种应用.mp4 │ │ ├── 4-SVD其实就可以去实现PCA了.mp4 │ │ ├── 3-最大投影方差推导_最小投影距离思路.mp4 │ │ └── 2-PCA的最大投影方差思路.mp4 │ └── 1--聚类系列算法 │ ├── 1-KMeans聚类流程_距离测度欧式距离和余弦距离.mp4 │ ├── 5-KMeans代码测试不同情况下的聚类效果 .mp4 │ ├── 3-KMeans的一些变形_KMeans的损失函数推导及假设.mp4 │ ├── 6-层次聚类_密度聚类_谱聚类.mp4 │ ├── 4-mini-batchKMeans_Canopy聚类_聚类评估指标.mp4 │ └── 2-距离测度欧式距离和余弦距离的场景_TFIDF.mp4 ├── 31--【加课】 强化学习【新增】 │ ├── 5--DDPG、PPO、DPPO算法 │ │ ├── 15-代码实战_DPPO_GlobalPPO和Workers交替执行.mp4 │ │ ├── 14-代码实战_DPPO_创建一个PPO和多个Worker_创建多线程.mp4 │ │ ├── 13-DPPO分布式PPO.mp4 │ │ ├── 12-代码实战_剖析PPO代码中如何体现Off-Policy的学习方式_效果展示.mp4 │ │ ├── 11-代码实战_定义PPO1和PPO2不同版本Actor的Loss计算逻辑.mp4 │ │ ├── 10-代码实战_PPO与环境整体交互_Actor与Critic网络构建.mp4 │ │ ├── 9-PPO_PPO1、TRPO、PPO2三种不同的方式解决两个分布不同的问题.mp4 │ │ ├── 8-PPO_重要性采样的问题_期望矫正但是方差还是不同带来的问题.mp4 │ │ ├── 7-PPO_通过重要性采样使得PPO可以做Off-Policy学习.mp4 │ │ ├── 6-PPO_强调AC如何输出连续型动作_区分On-Policy与Off-Policy.mp4 │ │ ├── 5-TD3_使用DoubleNetwork优化DDPG.mp4 │ │ ├── 4-代码实战_DDPG_与环境之间的互动_AC训练调整参数_效果展示.mp4 │ │ ├── 3-代码实战_DDPG_Critic网络构建_Actor网络链式求导.mp4 │ │ ├── 2-代码实战_DDPG_构建Actor和Critic四个网络_定义Critic求loss和求梯度的逻辑 .mp4 │ │ └── 1-DDPG解决DQN不能输出连续型动作的问题_DDPG如何训练Actor和Critic.mp4 │ ├── 4--Actor Critic (A3C) │ │ ├── 14-代码实战_A3C_讲解线程中worker和GlobalNet交互_代码运行效果展示.mp4 │ │ ├── 13-代码实战_A3C_讲解线程中worker和环境交互.mp4 │ │ ├── 12-代码实战_A3C_结合流程图分三点总结前面讲的代码 .mp4 │ │ ├── 11-代码实战_A3C_定义AC网络结构_定义worker拉取参数和更新全局网络参数的逻辑.mp4 │ │ ├── 10-代码实战_A3C_增加actor探索性用到熵_定义worker正太分布抽样和求梯度的逻辑.mp4 │ │ ├── 9-代码实战_A3C_定义Worker计算loss的逻辑_针对连续型的action提高actor探索性.mp4 │ │ ├── 8-代码实战_A3C_讲解Coordinator调度多线程运算.mp4 │ │ ├── 7-Pendulum环境_根据网络预测的μ和σ得到连续型的action值.mp4 │ │ ├── 6-A3C架构和训练流程.mp4 │ │ ├── 5-代码实战_详解Critic网络构建及训练.mp4 │ │ ├── 4-代码实战_Actor网络构建及训练.mp4 │ │ ├── 3-代码实战_ActorCritic与环境交互 .mp4 │ │ ├── 2-AdvantageActorCritic_共享参数和修改reward技巧.mp4 │ │ └── 1-ActorCritic原理_把PG和QLearning结合起来.mp4 │ ├── 3--Policy Gradient 策略梯度 │ │ ├── 10-策略梯度PG_同一个回合中不同的action回溯不同的TotalReward_代码实战.mp4 │ │ ├── 9-策略梯度PG_对TotalReward进行均值归一化.mp4 ... 省略 857 行 ... │ └── 1-正则化的目的防止过拟合.mp4 ├── 1--多元线性回归 │ ├── 20-Scikit-learn模块的介绍.mp4 │ ├── 3-扩展到多元线性回归.mp4 │ ├── 1-理解简单线性回归.mp4 │ ├── 22-调用Scikit-learn中的多元线性回归求解模型(下).mp4 │ ├── 14-Python开发环境版本的选择及下载.mp4 │ ├── 7-假设误差服从正太分布_最大似然估计MLE.mp4 │ ├── 17-解析解的方式求解多元线性回归_数据Xy.mp4 │ ├── 4-理解多元线性回归表达式几种写法的原因.mp4 │ ├── 8-引入正太分布的概率密度函数.mp4 │ ├── 12-推导出目标函数的导函数形式.mp4 │ ├── 2-最优解_损失函数_MSE.mp4 │ ├── 13-θ解析解的公式_是否要考虑损失函数是凸函数.mp4 │ ├── 19-解析解的方式求解多元线性回归_扩展随机种子概念_增加维度代码的变换.mp4 │ ├── 16-Pycharm创建脚本并测试python开发环境.mp4 │ ├── 15-Anaconda环境安装_Pycharm环境安装.mp4 │ ├── 6-理解回归一词_中心极限定理_正太分布和做预测.mp4 │ ├── 10-对数似然函数_推导出损失函数MSE.mp4 │ ├── 11-把目标函数按照线性代数的方式去表达.mp4 │ ├── 9-明确目标通过最大总似然求解θ.mp4 │ ├── 21-调用Scikit-learn中的多元线性回归求解模型(上) .mp4 │ ├── 18-解析解的方式求解多元线性回归_求解模型_使用模型_绘制图形.mp4 │ └── 5-理解维度这个概念.mp4 ├── 3--归一化 │ ├── 2-归一化的目的_举例子来理解做归一化和不做归一化的区别.mp4 │ ├── 4-最大值最小值归一化.mp4 │ ├── 3-归一化的副产品_有可能会提高模型的精度.mp4 │ ├── 6-代码完成标准归一化.mp4 │ ├── 5-标准归一化.mp4 │ └── 1-归一化的目的_维度之间数量级不同产生的矛盾.mp4 ├── 2--梯度下降法 │ ├── 4-梯度下降法迭代流程总结.mp4 │ ├── 10-代码实现全量梯度下降第1步和第2步.mp4 │ ├── 7-随机梯度下降_小批量梯度下降.mp4 │ ├── 11-代码实现全量梯度下降第3步和第4步.mp4 │ ├── 8-对应梯度下降法的问题和挑战.mp4 │ ├── 5-多元线性回归下的梯度下降法.mp4 │ ├── 9-轮次和批次.mp4 │ ├── 12-代码实现随机梯度下降 .mp4 │ ├── 14-代码改进保证训练数据全都能被随机取到.mp4 │ ├── 15-代码改进实现随着迭代增加动态调整学习率.mp4 │ ├── 13-代码实现小批量梯度下降.mp4 │ ├── 6-全量梯度下降.mp4 │ ├── 3-学习率设置的学问_全局最优解.mp4 │ ├── 1-梯度下降法产生的目的和原因以及思想.mp4 │ └── 2-梯度下降法公式.mp4 └── 5--Lasso回归_Ridge回归_多项式回归 ├── 12-实战保险花销预测_模型训练和评估.mp4 ├── 3-代码调用ElasticNet回归.mp4 ├── 7-实战保险花销预测_数据介绍和加载数据.mp4 ├── 11-实战保险花销预测_特征工程.mp4 ├── 1-代码调用Ridge岭回归.mp4 ├── 9-实战保险花销预测_模型训练和评估_选择非线性算法改进.mp4 ├── 4-升维的意义_多项式回归.mp4 ├── 8-实战保险花销预测_数据预处理.mp4 ├── 10-实战保险花销预测_特征选择思路.mp4 ├── 2-代码调用Lasso回归.mp4 ├── 5-多项式升维代码实战_传入不同超参数对比.mp4 └── 6-多项式升维代码实战_训练模型和评估.mp4
链接失效请留言,看到会补
请先登录后发表评论!
哈哈,不错哦!
不错的帖子!
辛苦辛苦,感谢分享