4
0
0

百战-AI算法工程师就业班|价值18980元|冲击百万年薪|完结无秘

夸克 有效
Legaoren
1月前 64

文件目录
 百战-AI算法工程师就业班
├──  7--机器学习-无监督学习
│   ├──  2--EM算法和GMM高斯混合模型
│   │   ├──  9-通过声音文件利用GMM算法识别是谁.mp4
│   │   ├──  8-通过声音文件利用GMM算法识别性别.mp4
│   │   ├──  7-GMM前景背景分离.mp4
│   │   ├──  6-将EM算法应用到GMM中并且推导出Π的公式.mp4
│   │   ├──  5-将EM算法应用到GMM中并且推导出了μ和Σ的公式.mp4
│   │   ├──  4-Jensen不等式的应用.mp4
│   │   ├──  3-GMM参数估计Πμσ的流程.mp4
│   │   ├──  2-理解GMM高斯混合分布的对数似然函数.mp4
│   │   └──  1-单个高斯分布GM的参数估计.mp4
│   ├──  3--PCA降维算法
│   │   ├──  1-特征选择与特征映射.mp4
│   │   ├──  5-PCA的几种应用.mp4
│   │   ├──  4-SVD其实就可以去实现PCA了.mp4
│   │   ├──  3-最大投影方差推导_最小投影距离思路.mp4
│   │   └──  2-PCA的最大投影方差思路.mp4
│   └──  1--聚类系列算法
│       ├──  1-KMeans聚类流程_距离测度欧式距离和余弦距离.mp4
│       ├──  5-KMeans代码测试不同情况下的聚类效果  .mp4
│       ├──  3-KMeans的一些变形_KMeans的损失函数推导及假设.mp4
│       ├──  6-层次聚类_密度聚类_谱聚类.mp4
│       ├──  4-mini-batchKMeans_Canopy聚类_聚类评估指标.mp4
│       └──  2-距离测度欧式距离和余弦距离的场景_TFIDF.mp4
├──  31--【加课】 强化学习【新增】
│   ├──  5--DDPG、PPO、DPPO算法
│   │   ├──  15-代码实战_DPPO_GlobalPPO和Workers交替执行.mp4
│   │   ├──  14-代码实战_DPPO_创建一个PPO和多个Worker_创建多线程.mp4
│   │   ├──  13-DPPO分布式PPO.mp4
│   │   ├──  12-代码实战_剖析PPO代码中如何体现Off-Policy的学习方式_效果展示.mp4
│   │   ├──  11-代码实战_定义PPO1和PPO2不同版本Actor的Loss计算逻辑.mp4
│   │   ├──  10-代码实战_PPO与环境整体交互_Actor与Critic网络构建.mp4
│   │   ├──  9-PPO_PPO1、TRPO、PPO2三种不同的方式解决两个分布不同的问题.mp4
│   │   ├──  8-PPO_重要性采样的问题_期望矫正但是方差还是不同带来的问题.mp4
│   │   ├──  7-PPO_通过重要性采样使得PPO可以做Off-Policy学习.mp4
│   │   ├──  6-PPO_强调AC如何输出连续型动作_区分On-Policy与Off-Policy.mp4
│   │   ├──  5-TD3_使用DoubleNetwork优化DDPG.mp4
│   │   ├──  4-代码实战_DDPG_与环境之间的互动_AC训练调整参数_效果展示.mp4
│   │   ├──  3-代码实战_DDPG_Critic网络构建_Actor网络链式求导.mp4
│   │   ├──  2-代码实战_DDPG_构建Actor和Critic四个网络_定义Critic求loss和求梯度的逻辑  .mp4
│   │   └──  1-DDPG解决DQN不能输出连续型动作的问题_DDPG如何训练Actor和Critic.mp4
│   ├──  4--Actor Critic (A3C)
│   │   ├──  14-代码实战_A3C_讲解线程中worker和GlobalNet交互_代码运行效果展示.mp4
│   │   ├──  13-代码实战_A3C_讲解线程中worker和环境交互.mp4
│   │   ├──  12-代码实战_A3C_结合流程图分三点总结前面讲的代码  .mp4
│   │   ├──  11-代码实战_A3C_定义AC网络结构_定义worker拉取参数和更新全局网络参数的逻辑.mp4
│   │   ├──  10-代码实战_A3C_增加actor探索性用到熵_定义worker正太分布抽样和求梯度的逻辑.mp4
│   │   ├──  9-代码实战_A3C_定义Worker计算loss的逻辑_针对连续型的action提高actor探索性.mp4
│   │   ├──  8-代码实战_A3C_讲解Coordinator调度多线程运算.mp4
│   │   ├──  7-Pendulum环境_根据网络预测的μ和σ得到连续型的action值.mp4
│   │   ├──  6-A3C架构和训练流程.mp4
│   │   ├──  5-代码实战_详解Critic网络构建及训练.mp4
│   │   ├──  4-代码实战_Actor网络构建及训练.mp4
│   │   ├──  3-代码实战_ActorCritic与环境交互  .mp4
│   │   ├──  2-AdvantageActorCritic_共享参数和修改reward技巧.mp4
│   │   └──  1-ActorCritic原理_把PG和QLearning结合起来.mp4
│   ├──  3--Policy Gradient 策略梯度
│   │   ├──  10-策略梯度PG_同一个回合中不同的action回溯不同的TotalReward_代码实战.mp4
│   │   ├──  9-策略梯度PG_对TotalReward进行均值归一化.mp4

... 省略 857 行 ...

    │   └──  1-正则化的目的防止过拟合.mp4
    ├──  1--多元线性回归
    │   ├──  20-Scikit-learn模块的介绍.mp4
    │   ├──  3-扩展到多元线性回归.mp4
    │   ├──  1-理解简单线性回归.mp4
    │   ├──  22-调用Scikit-learn中的多元线性回归求解模型(下).mp4
    │   ├──  14-Python开发环境版本的选择及下载.mp4
    │   ├──  7-假设误差服从正太分布_最大似然估计MLE.mp4
    │   ├──  17-解析解的方式求解多元线性回归_数据Xy.mp4
    │   ├──  4-理解多元线性回归表达式几种写法的原因.mp4
    │   ├──  8-引入正太分布的概率密度函数.mp4
    │   ├──  12-推导出目标函数的导函数形式.mp4
    │   ├──  2-最优解_损失函数_MSE.mp4
    │   ├──  13-θ解析解的公式_是否要考虑损失函数是凸函数.mp4
    │   ├──  19-解析解的方式求解多元线性回归_扩展随机种子概念_增加维度代码的变换.mp4
    │   ├──  16-Pycharm创建脚本并测试python开发环境.mp4
    │   ├──  15-Anaconda环境安装_Pycharm环境安装.mp4
    │   ├──  6-理解回归一词_中心极限定理_正太分布和做预测.mp4
    │   ├──  10-对数似然函数_推导出损失函数MSE.mp4
    │   ├──  11-把目标函数按照线性代数的方式去表达.mp4
    │   ├──  9-明确目标通过最大总似然求解θ.mp4
    │   ├──  21-调用Scikit-learn中的多元线性回归求解模型(上)  .mp4
    │   ├──  18-解析解的方式求解多元线性回归_求解模型_使用模型_绘制图形.mp4
    │   └──  5-理解维度这个概念.mp4
    ├──  3--归一化
    │   ├──  2-归一化的目的_举例子来理解做归一化和不做归一化的区别.mp4
    │   ├──  4-最大值最小值归一化.mp4
    │   ├──  3-归一化的副产品_有可能会提高模型的精度.mp4
    │   ├──  6-代码完成标准归一化.mp4
    │   ├──  5-标准归一化.mp4
    │   └──  1-归一化的目的_维度之间数量级不同产生的矛盾.mp4
    ├──  2--梯度下降法
    │   ├──  4-梯度下降法迭代流程总结.mp4
    │   ├──  10-代码实现全量梯度下降第1步和第2步.mp4
    │   ├──  7-随机梯度下降_小批量梯度下降.mp4
    │   ├──  11-代码实现全量梯度下降第3步和第4步.mp4
    │   ├──  8-对应梯度下降法的问题和挑战.mp4
    │   ├──  5-多元线性回归下的梯度下降法.mp4
    │   ├──  9-轮次和批次.mp4
    │   ├──  12-代码实现随机梯度下降  .mp4
    │   ├──  14-代码改进保证训练数据全都能被随机取到.mp4
    │   ├──  15-代码改进实现随着迭代增加动态调整学习率.mp4
    │   ├──  13-代码实现小批量梯度下降.mp4
    │   ├──  6-全量梯度下降.mp4
    │   ├──  3-学习率设置的学问_全局最优解.mp4
    │   ├──  1-梯度下降法产生的目的和原因以及思想.mp4
    │   └──  2-梯度下降法公式.mp4
    └──  5--Lasso回归_Ridge回归_多项式回归
        ├──  12-实战保险花销预测_模型训练和评估.mp4
        ├──  3-代码调用ElasticNet回归.mp4
        ├──  7-实战保险花销预测_数据介绍和加载数据.mp4
        ├──  11-实战保险花销预测_特征工程.mp4
        ├──  1-代码调用Ridge岭回归.mp4
        ├──  9-实战保险花销预测_模型训练和评估_选择非线性算法改进.mp4
        ├──  4-升维的意义_多项式回归.mp4
        ├──  8-实战保险花销预测_数据预处理.mp4
        ├──  10-实战保险花销预测_特征选择思路.mp4
        ├──  2-代码调用Lasso回归.mp4
        ├──  5-多项式升维代码实战_传入不同超参数对比.mp4
        └──  6-多项式升维代码实战_训练模型和评估.mp4
资源获取(回帖后可见)

链接失效请留言,看到会补

🌸 送花助力云桥计划
送满 5 朵将推送至 小云搜索,获得更多曝光
当前已获得:0 / 5 朵
送花 🌸
标记失效
失效催更
* 当主题帖被多人标记后,重新编辑主题标记会重置。
* 参与云桥计划,达标时将最多1个网盘链接携带标题推送。
* 当3人以上点击标记失效,该帖子推送贴主催更功能将被激活。

请先登录后发表评论!

最新回复 (4)
全部楼主
  • 小布丁 1月前
    0 引用 5

    哈哈,不错哦!

  • 17829284035 1月前
    0 引用 4

    不错的帖子!

  • 小可方糖镜 1月前
    0 引用 3

    不错的帖子!

  • xiaogu 1月前
    0 引用 2

    辛苦辛苦,感谢分享

返回