V
主页
编写自己的Double-DQN程序05 - 经验回放(replay memory)函数的测试
发布人
编写自己的Double-DQN程序05 - 经验回放(replay memory)函数的测试
打开封面
下载高清视频
观看高清视频
视频下载器
课程15:DQN-rl玩捕食者游戏
课程27:控制登月器的降落(A2C算法)
课程16:Double-DQN与Dueling-Network
【课件+代码】李沐大神《动手学深度学习》2024最新视频教程,比啃书高效!比刷剧还爽!(人工智能丨深度学习丨神经网络)
课程13:编写强化学习环境
鸢尾花的分类和画图(SVM)02 - 生成网格数据的函数
鸢尾花的分类和画图(SVM)03 - 决策曲线画图的函数
编写强化学习环境05 - 实体的移动函数
Double-DQN&Dueling-Network 01 - 构建卷积神经网络
AI挑战星际争霸II 02 - BurnySC2学习环境搭建
AI挑战星际争霸II 01 - 星际争霸II学习环境介绍
SVR模型对连续量的预测(SVM)01 - 理论
控制登月器的降落(A2C算法)01 - 使用A2C算法训练Agent
Double-DQN&Dueling-Network 02 - 介绍模型的结构和参数个数的计算方法
编写自己的Double-DQN程序03 - 经验回放变量(replay memory)的初始化
编写自己的Double-DQN程序15 - 演示tensorboard
编写自己的Double-DQN程序02 - 构建深度神经网络的模型
张旭老师微积分
编写强化学习环境01 — 导入依赖库
编写强化学习环境进阶02 - 环境的变量
使用keras rl编写强化学习DQN智能体玩推车立杆游戏05 - 测试使用DQN智能体
Double-DQN&Dueling-Network 03 - Double-DQN理论
使用keras rl编写强化学习DQN智能体玩推车立杆游戏01 - 安装依赖库
AI挑战星际争霸II(强化学习)01 - 初始化函数
控制登月器的降落02 - 动作空间
编写自己的Double-DQN程序07 - 批量样本的状态和Q值
编写强化学习环境进阶03 - reset函数编写
不平衡类的超平面(SVM)01 - 生成不平衡数据
编写强化学习环境进阶06 - qtable函数编写
编写自己的Double-DQN程序09 - model fit和target_model的更新
控制登月器的降落12 - Agent在250万次训练后的评估和演示
DQN-rl玩捕食者游戏05 - 构建DQNAgent
DQN-rl玩捕食者游戏07 - 训练DQNAgent
控制登月器的降落01 - stable baseline3的介绍
课程31:AI挑战星际争霸II
样本的权重设置(SVM)01 - 理论
Double-DQN&Dueling-Network 07 - 构建Dueling-Network Agent
鸢尾花的分类和画图(SVM)06 - 四个分类器模型的图示
对话AI大模型DialoGPT 06 - 编写在线翻译函数
编写强化学习环境10 - 计算奖励值