V
主页
【一区顶刊复现】自适应强化学习机械臂固定时间轨迹跟踪控制(输入饱和不确定)
发布人
【复现】自适应强化学习的机械臂固定时间轨迹跟踪控制(输入饱和不确定) 基于自适应强化学习(RL)的输入饱和不确定机器人固定时间轨迹跟踪控制方法。 ①设计的RL控制算法采用径向基函数(RBF)神经网络(NN)实现,其中行动者神经网络用于生成控制策略,批评神经网络用于评估执行成本。 ②采用了一种新的非奇异快速终端滑模技术,保证了跟踪误差在固定时间内的收敛性,并估计了收敛时间的上界。为了解决执行器的饱和问题,设计了非线性反卷绕补偿器,实时补偿关节力矩执行器的饱和效应。 该2023年参考文献复现程度90%,且代码框架方便易懂,非常适合学习
打开封面
下载高清视频
观看高清视频
视频下载器
为什么说强化学习在近年不会被广泛应用?
零基础学习强化学习算法:ppo
【论文复现】移动机械臂协同控制(十) Gazebo无重力补偿
宇树H1 斯坦福 HumanPlus机器人 利用人类数据训练 通过强化学习 自主完成任务 | 叠衣服等 #人形机器人
分享一位大佬的FOC电机控制学习笔记(很有用)
[强化学习]自动驾驶路径规划与控制-DQN/DDPG+pure pursuit路径跟踪实现
机械臂改进自适应模糊滑模控制与三种经典控制对比仿真
秒杀波士顿动力Atlas机器人 清华叉院训练强化学习策略,小成本让H1人形机器人完成跑酷高难度动作
【论文复现】移动机械臂协同控制(二)——机械臂动态避障
使用单目相机实现机械臂对平面上物体的跟踪
发论文idea来了,强化学习+Transformer 29个创新点汇总! 再也不用担心发论文了
深度强化学习算法carla平台实战-PPO算法
15大模型全栈-强化学习08-DPO变体:IPO、KTO:无需偏好数据实现对齐
220V转24V_12V_5V开关电源设计资料
买了成品机器人,花了一周建模,准备上机
【比刷剧还爽!】太完整了!中国科学院大学和上海交大强联合的(PyTorch+深度学习+强化学习+机器学习)课程分享!快速入门极简单——人工智能_AI_神经网络
【论文复现】移动机械臂协同控制(九) ——Gazebo上实现UR5e反应式控制
我们的人形机器人不愿意使用大模型去思考。但是它很爱玩耍。[humanoid parkour learning]
【论文复现】移动机械臂协同控制(四)——UR5e_Tracer_Robot协同控制
宇树 B2-W 轮足 机器狗 遛弯 #机器狗性能
进来看看吧!零基础入门【王树森深度强化学习】完整版教程,含配套项目代码—王树森、深度强化学习、人工智能、深度学习、强化学习
傅利叶GR-1半年进阶实录:迈向具身智能下一阶段
【自制】做了一台ROS视觉辅助机械臂
【论文复现】移动机械臂协同控制( 一 )——UR5e反应式控制
B站强推!一口气学完人工智能入门到精通:机器学习+深度学习+强化学习,课程涵盖所有基础知识及项目实战,主打一个通俗易懂!
异构FPGA的HPS运行ROS2+路径规划,逻辑侧Drive-on-chip实现6轴机械臂控制
基于RBF神经网络的PID自适应参数调节控制
基于状态空间模型预测控制的四旋翼路径跟踪实现(源码+报告)
基于STM32F1和F4系列的无感FOC电机控制代码
12大模型全栈-强化学习05-RLHF实战-端到端全流程解决方案-轩辕大模型强化学习完整流程介绍(数据+奖励模型+强化学习调参经验)
Meca500 产品介绍 工业机器人通过奇异构型
控制精具身智能机械臂负载:1.5kg,极限负载<3.5kg (完成抖动不明显的全范围移动,坚持30s),静态夹持负载极限4.0kg。
固定拓扑和切换拓扑下多智能体系统的分布式动态事件触发共识控制
被PPO算法惊艳到了--自动驾驶强化学习决策规划工程-PPO算法实战
论文精读:基于可解释强化学习的投资组合策略
基于STM32实现PID控制程序
Buck Boost电路设计公式表格,输入工作规格之后,自动计算出
08大模型全栈-强化学习01-RLHF前言传统强化学习
09大模型全栈-强化学习02-RLHF前言LLM强化学习
【IROS2024】机器人移动操作