V
主页
京东 11.11 红包
强化学习 - 第十一讲 - 模型无关的策略评估 - 时序差分算法
发布人
《强化学习二十一讲》的第八课。八到十六课是第二部分,介绍没有模型的强化学习设定。 本次课程是第十一次课,介绍在模型无关的策略评估设定下的时序差分算法。 视频取材自复旦大学 大数据学院 本科专业课《人工智能》的第三个模块。 课程获得复旦大学青年教师教学比赛一等奖。 课程由复旦大学数据智能与社会计算实验室推出。 实验室主页:www.fudan-disc.com 微信公众号:复旦DISC
打开封面
下载高清视频
观看高清视频
视频下载器
《强化学习》第6章 TD时序差分算法
强化学习二十一讲(8-16合集) - 无模型的强化学习算法
【MPC+强化学习】四大名校教授精讲强化学习和模型预测控制18讲!Actor Critic模型预测控制、策略梯度方法
强化学习 - 第七讲 - 马尔可夫模型的策略迭代
强化学习 - 第四讲 - 马尔可夫决策过程的值迭代算法
这可能是我见过强化学习和模型预测控制最好的教程!四大名校教授精讲动态系统和仿真、最优控制、策略梯度方法、MPC
强化学习 - 第六讲 - 马尔可夫决策过程的策略评估
强化学习 - 第九讲 - 基于模型的强化学习方法
强化学习 - 第十讲 - 模型无关的策略评估 - 蒙特卡洛算法
强化学习二十一讲(合集1-7)- 有模型的强化学习方法 - 马尔科夫决策过程
强化学习 - 第一讲 - 序列决策问题
强化学习 - 第二讲 - 马尔可夫决策过程
强化学习 - 第十四讲 - 策略控制下的策略评估 -蒙特卡洛方法
【具身论文阅读】Diffuser: 基于diffusion的强化学习规划器
强化学习 - 第十六讲 - 无模型设定 - 策略控制的时序差分方法
强化学习二十一讲(合集17-21) - 值近似的强化学习方法
MPC+强化学习!Actor Critic模型预测控制,苏黎世大牛教授人类水平性能的自主视觉无人机演讲
强推!北京大学王树森半天就教会了我深度强化学习,原理详解+项目实战,学不会来打我!
强化学习 - 第三讲 - 马尔可夫决策过程样例
一口气学完回归算法、聚类算法、决策树、随机森林、神经网络、贝叶斯算法、支持向量机、神经网络等十二大机器学习算法!通俗易懂
强化学习 - 第二十一讲 - 值函数近似的策略控制及强化学习总结
强化学习 - 第十二讲 - 模型无关的强化学习 - 算法比较
强化学习- 第十九讲 - 值近似方法 - 值函数近似的策略评估
强化学习 - 第二十讲 - 值函数近似的策略评估 - 蒙特卡洛和时序差分
【中英字幕】强化学习和模型预测控制18讲!四大名校教授精讲模型预测控制、最优控制、强化学习入门
双热点强强联合的发文方向:Transformer+强化学习!
不愧是李宏毅老师讲的【强化学习】简直太详细了!!小白也能信手拈来,建议收藏!(人工智能|机器学习|深度学习|强化学习)
强化学习 - 第十五讲 - 策略控制下的策略提升 -蒙特卡洛方法
【强推】李宏毅深度强化学习完整版教程!简单易懂的PPO算法强化学习入门课程!近端策略优化、Transformer
大模型如何增强强化学习?简单粗暴理解大模型训练中的人类反馈强化学习RLHF!PPO算法、ChatGPT背后的数学原理
【全463集】禁止自学走弯路!环境感知、目标检测、语义分割、强化学习、决策与控制算法等八大自动驾驶核心算法一口气学完!
直观理解大模型预训练和微调!四大LLM微调方法,RLHF基于人类反馈的强化学习微调
强化学习 - 第五讲 - 期望最大搜索树中的值迭代
Transformer+强化学习成为双热点强强联合的发文方向
百万播放!看AI学习如何上下楼梯(深度强化学习)!计算机大佬带你深入学习强化学习的底层逻辑原理,真的太通俗易懂了!(人工智能、深度学习、机器学习实战、神经网络)
通俗理解大模型从预训练到微调实战!P-Tuning微调、Lora-QLora、RLHF基于人类反馈的强化学习
【共享LLM前沿】直观理解大模型预训练和微调!P-Tuning微调、Lora-QLora、RLHF基于人类反馈的强化学习微调,代码讲解
【基于深度强化学习的冠军级别无人机竞速】强化学习和模型预测控制MPC中英字幕18讲!
【强化学习实战】计算机博士花半天带你学会强化学习PPO算法/DQN算法/A3C算法原理及实战!_AI/人工智能/深度学习/强化学习
强化学习 - 第十三讲 - 策略控制的基本设定