298人参与 • 2024-08-06 • vr
7.3日,我司七月在线(集ai大模型职教、应用开发、机器人解决方案为一体的科技公司)的「大模型机器人(具身智能)线下营」群里的一学员发了《open-television: teleoperation with immersive active visual feedback》这篇论文的链接[其submitted on 1 jul 2024 (v1), last revised 8 jul 2024 (this version, v2)]
我当时快速看了一遍,还是挺有价值的一个工作(与moblie aloha、humanplus最大的区别是,moblie aloha是通过主动臂遥控,humanplus则是用过影子系统遥控,而television则是远程遥控,之后机器人再自主操作),一直想做下解读来着
无奈过去一周一直在弄mamba2的解读,所以没来得及弄,但后来考虑到
故,本文来了
基于模仿学习的机器人在本博客的前几篇机器人文章中已经介绍过很多了,其中有个关键点便是数据的收集
而数据收集的其中一种重要的方式便是远程操作,它不仅提供了准确和精确的操
作演示,还提供了自然和流畅的轨迹,使学习到的策略能够推广到新的环境配置和任务中
而各种远程操作方法包括且不限于

大多数远程操作系统中有两个主要组件:执行和感知
提前说一嘴,总之,在television之前,没有系统同时提供远程控制和深度感知:操作员被迫在直接观看(需要物理存在)和rgb流(放弃深度信息)之间做出选择。 通过利用立体流媒体,television将首次在单一设置中提供了这两种功能
为了解决上述一系列问题,来自加州大学圣地亚哥分校、麻省理工学院的研究者们(xuxin cheng, jialong li, shiqi yang, ge yang, xiaolong wang,又是个华人团队)于24年7月初提出了本television
如下图所示,便是television的远程操作数据收集和学习设置

而television对允许细粒度操作的主要贡献来自感知,它结合了具有主动视觉反馈的vr系统
即在机器人头部使用单个主动立体rgb相机,配备2或3个自由度的驱动,模仿人类头部运动以观察大工作空间。 在远程操作过程中,摄像头会随着操作员的头部移动而移动,进行流
媒体传输,即如下图所示

这是因为实时、自我中心的3d观察传输到vr设备,使得人类操作员看到的是机器人看到的。 这种第一人称主动感知为远程操作和策略学习带来了好处
humanplus通过影子系统实现了人类操作员对机器人的实时控制,那television又是如何做到实时远程遥控的呢
事实上,television基于vuer [19]开发了一个网络服务器
下图便显示了机器人如何跟随人类操作员的头部、手臂和手的动作

反过来,机器人以每只眼480x640的分辨率流式传输立体视频(整个循环以60 hz的频率进行)

且过程中只考虑它们的主动感知颈部、两个7自由度的手臂和末端执行器,而其他自由度未被使用。其中,h1的每只手有6个自由度 [20],而gr-1有一个1自由度的下颚夹持器
此外,为了主动感知,设计了一个具有两个旋转自由度(偏航和俯仰)的云台,安装在h1躯干顶部,该云台由3d打印部件组装而成,并由dynamixel xl330-m288-t电机驱动 [21]
对于gr-1,使用了厂家提供的3自由度颈部(偏航、滚动和俯仰),且两个机器人都使用zed mini [22] 立体相机提供立体rgb流
对于手臂控制而言,人类手腕姿态首先转换为机器人的坐标系。 具体来说,机器人末端执行器与机器人头部之间的相对位置应与人类手腕和头部之间的相对位置相匹配,且机器人的手腕方向与人类手腕的绝对方向对齐,这些方向是在初始化apple visionpro手部追踪后端时估计的
这种对末端执行器位置和方向的差异化处理确保了当机器人的头部随人类头部移动时,机器人末端执行器的稳定性
过程中,television采用基于pinocchio[23, 24, 25]的闭环逆运动学(clik)算法来计算机器人手臂的关节角度
输入的末端执行器姿态使用se(3)群滤波器进行平滑处理,该滤波器由pinocchio的 se(3)插值实现,从而增强了ik算法的稳定性
为了进一步降低ik失败的风险,当手臂的可操作性接近其极限时,加入了关节角度偏移。 这种校正过程对末端执行器的跟踪性能影响最小,因为偏移量被投影到机器人手臂雅可比矩阵的零空间,从而在解决约束的同时保持跟踪精度
对于手部控制而言,通过dex-retargeting,一个高度通用且计算速度快的运动重定向库,人手关键点被转换为机器人关节角度命令 [anyteleop]
television的方法在灵巧手和夹持器形态上都使用了向量优化器。 向量优化器将重定向问题表述为一个优化问题 [anyteleop, dexpilot],而优化是基于用户选择的向量定义的:
在上述公式中
表示时间
时的机器人关节角度
是人手上的第
个关键点向量
使用来自关节角度
的正向运动学计算机器人手上的第
个关键点向量此外
5个向量表示手腕和每个指尖关键点之间的相对位置
另外2个向量,从拇指指尖延伸到主要指尖(食指和中指),以增强细致任务中的运动精度television和moblie aloha一样,选择 act[10]作为的模仿学习算法

但进行了两项关键修改
对于 h1,动作维度是 28(每个手臂 7 个,每只手 6 个,主动颈部 2 个);
对于gr-1,动作维度是19(每只手臂7个,每个夹爪1个,主动颈部3个)用于训练act [10] 模型的超参数详见下图(虽然这些超参数在所有基线和所有任务中大多数是一致的,但也有一些例外,包括块大小和时间加权)

提前说一嘴,在所有任务中television使用60的块大小,除了罐插入任务中,television使用100的块大小。 在television的设置中使用60的块大小有效地为机器人提供了大约一秒的记忆,与推理和动作频率60hz相对应
尽管如此,我们注意到在罐插入任务中,使用更大的块大小(对应于包含更多的历史动作)对模型执行正确的动作序列是有利的
如下图a所示,此任务涉及将随机放置在桌子上的可乐罐(红色)和雪碧罐(绿色)分类

罐子一个接一个地放在桌子上,但位置和类型(可乐或雪碧)是随机的
每一集包括连续分类10个罐子(5个雪碧和5个可乐随机)
如下图c所示,此任务涉及从桌子上拾取软饮料罐,并将它们按预定顺序小心地插入容器内的槽中

虽然和上一个任务罐子分类都涉及饮料罐的操作,但此任务要求更精确和细致的动作,因为成功的插入需要高精度
此外,此任务采用了不同的抓取策略。 在之前的罐子分类任务中,机器人只需要将罐子扔到指定区域,因此形成了一种涉及手掌和所有五个手指的抓取策略,这是一种宽容但不精确的抓取策略
在这个任务中,为了将罐子插入仅比罐子稍大的槽中(苏打罐的直径大约为5.6厘米,槽的直径大约为7.6厘米),television采用了一种更类似于捏的策略,仅使用拇指和食指,从而在罐子的放置上进行更细微的调整
这两种不同的抓取策略表明,系统能够完成具有复杂手势要求的任务(该任务的每一集都包括将所有六个罐子放入正确的槽中)
如下图d所示,此任务涉及将毛巾折叠两次

任务的区别在于它展示了系统操作柔软和顺从材料(如毛巾)的能力。 该任务的动作序列如下展开:
该任务的每一集都包括一次完整的毛巾折叠
如下图e所示,此任务是一个复合操作,涉及管子的提取和手内传递

在此任务中,一个芯片管被随机放置在分类盒内的四个槽中的一个中。目标是识别包含管子的槽,用右手提取管子,传递给左手并将管子放置在预定位置
为了成功执行这个任务,机器人需要视觉推理来辨别管子的位置信息,并且需要准确的动作协调来提取和传递管子。 这个任务的每一集包括从4个随机槽中拾取4个管子,传递到另一只手,最后放在桌子上
作者团队对television系统的关键设计选择进行了一系列消融实验,并通过真实世界的实验展示了它们的有效性
且除罐子分类(包括 h1 罐子分类和gr-1 罐子分类)外,所有任务都使用20轮人类演示进行训练

相比之下,罐子分类仅使用10轮演示,且每轮演示又包括10个(gr-1罐分类为6个)单独的罐分类操作。 因此,10轮演示下来总计包含100个单独的分类操作,提供了充足的训练数据
作者团队在 h1 和 gr-1 机器人上进行分类罐头任务。 所有其他任务仅由h1机器人执行。从下表中显示的实验结果来看,可以看到到原始的resnet骨干网络未能充分执行所有4项任务

对于can sorting而言,主要就两个步骤:先抓后放。首先,先看h1执行罐子分类(即can sorting)的效果(为方便大家接下来的理解,我july多说一句,下面,你会看到一系列分析、改进,之所以有这些分析、改进,其实都在于那个数字没到90%,^_^)
那当作者团队用上dinov2算法后,h1和gr-1在pick之后的place这第二步上的表现如何呢(为何重点看place呢,因为dinov2有深度信息,不至于像w/o stereo input pick不好,所以就重点看place的效果)
不出预料,h1的表现还好(h1的place成功率是88%),这能理解,毕竟h1在面对place这个任务时,用的算法越先进 最终place的效果越好(算法上,从w/o stereo input、resnet18到dinov2,效果上,从52%、58%到88%)
| h1 can sorting之第二步place | |
| dinov2 | 88% |
| resnet18 | 58% |
| w/o stereo input | 52% |
但为何gr-1的表现却如此之差呢(gr-1的place成功率才区区60%)?这就奇怪了,在算法变更强的前提下,dinov2的效果竟没有随之而提高(dinov2的成功率反倒还不如w/o stereo input的63%了)
| gr-1 can sorting之第二步place | |
| dinov2 | 60% |
| resnet18 | 50% |
| w/o stereo input | 63% |
h1远高于gr-1的主要原因在于,毕竟h1是灵巧手,而gr-1是夹爪,使得

正因为gr-1在抓住罐子准备分类到对应的收纳盒中时,罐子被夹持器遮挡严重,阻碍了gr-1的视线,从而使得无论用什么算法,都不好使,哪怕是最强的dinov2
而gr-1这“在place步骤上的仅仅60%的准确率”岂能忍?故接下来,得想办法彻底改进之
怎么改呢?算法上是没啥改进空间了,那非算法上呢..
功夫不负有心人,后来,如television论文附录b中所示,他们还另外做了一个实验,即为避免由于gr1的夹持器导致的视觉遮挡,故他们在gr1执行第二步place步骤时给罐子贴上了带着颜色的胶布

最终使得gr1无论用什么算法,都在放置place这个步骤上的的成功率得到显著提高(w/o stereo input从0.63提升到0.93,w. resnet18从0.50提升到0.97,dinov2的成功率直接从60%到100%),具体如下图右侧所示(从右到左看:←)

且他们又顺带看了下gr-1 罐子分类在抓取pick这个步骤上的表现(试问为何会有这个实验或分析呀,原因在于本2.2.1节开头说过的,现在place已经解决了到90%甚至超过90%的成功率了,但pick目前在各个算法之下的73% 83% 87%都还没到90%的成功率呢),发现
对于折叠衣服这个任务而言,我们来看机器人在不掉落毛巾的情况下连续执行两次折叠的能力,结果如下图左侧所示

dinov2和w. resnet18模型在执行折叠任务时均达到了100%的成功率,这种高成功率是折叠衣服这个任务具有高度的动作重复度
另一方面,w/o stereo input由于没有立体输入,所以偶尔在folding的第三阶段-move时失败(2/5次失败,即60%成功率),在这一阶段,机器人应该轻轻地将毛巾移到桌子的边缘,以便进行第二次折叠
可由于没有立体输入倾向于将手按得太重在桌子上,阻碍了毛巾的成功移动。 这种动作可能是由于使用单个rgb图像缺乏深度信息,因为这一步需要机器人根据与桌子的距离调整手部施加的力量
对于卸载这个任务而言,分别评估三个连续阶段的成功率:提取管子extract、手中传递pass和放置place
如上图右侧所示
下图比较了广角相机和我们的主动相机设置的视图

单个静态广角相机仍然难以捕捉所有的兴趣点(poi)。 必须安装多个相机 [10, 12] 或为每个任务调整相机位置
静态广角相机还捕捉到无关的信息,这如下图所示,为训练和部署带来了额外的计算成本(对训练和部署步骤各抽取100个批次,并平均其计算时间。 基线名称中的数字表示批次大小。裁剪主动从 640x480下采样到308x224,导致每个摄像头有352个图像标记。广角镜头以相同的比例下采样至588x336,导致每个摄像头有1008个图像标记。 由于rtx 4090 gpu的内存限制,对广角镜头使用了10的批量大小)

television在相同批量大小下训练速度快 2倍,并且可以在4090 gpu上容纳 4倍的数据。在推理过程中,television也快 2倍,留出足够的时间进行ik和重定向计算,以达到 60hz的部署控制频率
当使用广角图像作为输入时,推理速度较低,大约为 42帧每秒
此外,对于静态摄像头,操作员需要注视图像边缘的兴趣点,这会带来额外的不适和非直观性,因为人类使用中央(中央凹)视觉来聚焦 [34, 35]
接下来,再展示下television能够完成的更多远程操作任务



此外,系统还实现了下图所示的远程遥操作,即位于美国波士顿的操作员可以操作位
于美国圣地亚哥(大约3000英里外)的机器人

对于h1机器人的设置,与斯坦福的humanplus一致,也是使用的inspire robots的拟人手 [20]
其每只手有五根手指和12个自由度,其中6个是驱动自由度:拇指有两个驱动自由度,其余每根手指各有一个驱动自由度

下图是television的基于网络的跨平台界面,不仅可以从vr设备访问,还可以从笔记本电脑、平板电脑和手机访问

左:apple vision pro。中:meta quest。右:macbook、ipad和iphone
在vr设备上,用户可以进入沉浸式会话,开始通过手部和手腕姿态流进行远程操作。 在其他设备上,手和手腕的流媒体传输不可用,但用户仍然可以看到传输的图像,并通过在设备屏幕上拖动来控制机器人的主动颈部
继斯坦福这4个开源机器人:moblie aloha、umi、dexcap、humanplus之后「这4个开源机器人都在本博客内仔细解读过,详见该系列:」,迎来了加州大学这个television
解读完之后,感慨:1 总算有个斯坦福之外的了,2 实际落地还是得做不少改进、改造工作
您想发表意见!!点此发布评论
版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。
发表评论