在快速演进的 AI 与机器人领域,来自 @VaderResearch 在 X 上的一条线程吸引了加密社区的注意,尤其是那些投资于像 $VADER 这样的 AI 主题表情包代币的群体。就在昨天发布的这条线程深入介绍了纽约大学(NYU)和加州大学伯克利分校(UC Berkeley)关于一个名为 EgoZero 的系统的开创性研究。该创新利用第一视角视频——也就是通过智能眼镜拍摄的第一人称画面——来训练机器人完成日常任务。这很重要,因为它表明简单的人类示范可以转化为有效的机器人行为,而无需大量复杂编程。
我们来分解一下。第一视角视频是从佩戴者视角录制的影像,就像你戴着 AR 眼镜日常生活时看到的画面。EgoZero 系统将这些视频转换为基于点的 3D 表示,基本上是以一种机器人能理解的方式映射场景,聚焦在关键点上,例如手部动作与物体互动。然后,利用这些数据,系统训练出执行任务的策略(即一套规则),供配备夹爪的机器人使用。
结果如何?令人印象深刻。每项任务仅用 20 分钟的人类示范数据,机器人在 zero-shot 场景下达到了 70% 的成功率。zero-shot 意味着机器人可以立刻处理任务,即使是面对从未见过的物体,也不需要额外训练。线程中强调了七项操作任务,包括打开烤箱、把面包放到盘子上、擦写白板和折叠毛巾。线程中的视频展示了人类示范、机器人在熟悉物体上的执行,甚至在新物体上的表现,证明了系统的泛化能力。
这项研究是一个有力的证据,表明通过智能眼镜捕捉的日常人类行为可以作为可扩展的机器人学习数据。正如 @VaderResearch 所说,这“是该方法有效性的有力实证之一”。对于区块链领域的人来说,这与 AI 驱动的项目有很好的契合度。$VADER 是 VaderAI by Virtuals 生态系统在 Base 链上的表情包代币,核心围绕 AI 创新。Vader 团队发布的此类线程不仅能起到科普作用,也能为现实世界的 AI 进展如何提升 AI 聚焦的加密资产的使用场景和价值制造话题与热度。
如果你想深入了解,可以查看 arXiv 上的完整论文或访问项目网站 egozero-robot.github.io。另外还有一集由 @micoolcho 和 @chris_j_paxton 联合主持、请到研究者 @vincentjliu 与 @AdemiAdeniji 的播客,发布在 YouTube。
在表情包代币的世界里,叙事往往驱动价格,此类更新可能会激发对 $VADER 的兴趣。随着 AI 与区块链的不断交汇——比如去中心化 AI 代理或链上机器人仿真——这类技术新闻能让社区保持参与和信息灵通。敬请关注该领域的更多进展!