首尔大学搞出了大动作,用lidar 技术帮助自动驾驶车辆精准地分辨人跟物体的互动。现在的自动驾驶发展

首尔大学搞出了大动作,用LiDAR技术帮助自动驾驶车辆精准地分辨人跟物体的互动。现在的自动驾驶发展这么快,怎么让车眼准点看到路上的行人到底在干啥,成了个大难题。咱们平常在街上看人家骑自行车、推婴儿车、打雨伞,这在开车的人看来就是小菜一碟,但对于机器来说却是硬骨头。 最近,首尔大学智能感知和人工智能研究所,还有电子与计算机工程系联合弄出了个厉害的办法,给大家解了围。这主意是Daniel Sungho Jung、Dohee Cho还有Kyoung Mu Lee这些学者带头琢磨的,文章登在了2025年3月的arXiv预印本平台上,编号是arXiv:2603.16343v1。 研究团队把注意力全放在了LiDAR数据上,搞了个叫HOIL(Human-Object Interaction Learning)的框架。这个框架专门盯着人在和各种东西打交道时的姿态,尤其是在那种乱糟糟的场景里。首先得弄清楚为啥LiDAR这么重要。这玩意儿就像车的“超级眼睛”,发出激光光束去摸清楚周围的环境,变出三维地图来。哪怕外面黑咕隆咚或者下大雨它也能工作,给行车距离和深度算得特别准,绝对是开车时的得力助手。 不过现在的技术还存在两个拦路虎。头一个是“空间模糊性”,当人和物体碰上了以后,LiDAR收到的点云数据就会把人和东西混在一起;第二个是“类别不平衡”,因为手脚这些地方接触比较多但点数不多,系统很容易把这些重要的地方给漏掉。 为了把这些问题搞定,HOIL框架里藏了两样新招。第一招是“人机交互感知对比学习”(HOICL),它通过比来比去的办法帮系统在特征空间里把人身上的点和物体上的点分得清清楚楚;第二招是“接触感知的部位引导池化”(CPPool),专门盯着那些重要的接触区域去处理,给它们更多的关注。 拿Waymo数据集一测就知道效果有多好。在平均关节位置误差(MPJPE)上,HOIL跑出了48.83毫米的好成绩,比之前最厉害的DAPT少了2.76毫米;关键点正确率更是吓人,PCK-3指标做到了98.51%,PCK-5指标也有99.14%,这数据甩了别的先进方法好几条街。 这技术不光能让自动驾驶汽车更懂行人的意图去做决策、少出车祸;在智能监控、机器人合作、还有玩VR的时候都能派上大用场。 不过话说回来,HOIL现在还挺单纯,只盯着LiDAR的数据看没配合RGB图像。虽说LiDAR能把形状看得特别准,但RGB照片里有好多文字说明或者颜色标签也很关键。以后想让系统更聪明一点,可能还得用更多样化的数据来喂饱它。 总而言之,首尔大学这次算是立了个大功。解决了空间模糊和类别不平衡的难题后,HOIL给汽车和别的机器看人类行为提供了一双更可靠的眼睛。这不仅仅是技术上的突破,更是朝着更安全、更智能的未来交通迈出了坚实的一步。等到技术越来越完善的时候,咱们就能看到路上跑的车能把人类行为摸得门儿清了。