ritual:让lightact 变成“直接上手”

在里昂的创意产业中心Pôle PIXEL,有个叫LabLab的艺术实验室,他们整天琢磨新的视听体验和沉浸式互动。THÉORIZ工作室就在这里,他们要做一个叫Ritual的大型互动项目,需要在8米宽6米深的空间里弄4058乘4058像素的画面,还得把8台全高清投影机给调齐了。为了找那种直观好上手的解决方案,他们最终选了LightAct,因为这东西让“找解决方案”变成了“直接上手”,特别省心。 光是说准不准还不行,观众得直接进场就能玩。LabLab用了Augmenta的光学跟踪系统,不用提前埋信标或者铺传感器。那里面挂了一堆像神经末梢一样的小型计算机节点,盯着3D相机和激光雷达,专门把人的位置、方向、速度这些信息实时抓出来。观众一进来,系统立马就能看见他们。 LightAct这事儿还得从校准说起。Jonathan在Ritual这个项目上回忆说,哪怕0.1度的偏移都逃不过眼,用手动变形和混合工具一眨眼就能修好。这一套3D校准方案让大家对齐画面变得又快又准。随后Unity实时渲染的画面通过Spout送进LightAct,投影机再把这4058乘4058的像素魔法投射到墙上,观众转身就能触发新剧情。 除了Ritual这种秀场大戏,LabLab还排了一场实时舞蹈表演。这次他们把Notch引擎也拉进了战壕里。Notch是一款实时引擎,Jonathan说和它配合起来“播放丝滑、流程直观”。LightAct从Augmenta那里拿到TUIO和OSC数据后,一键就把人的位置信息同步到了Notch模块里,再把渲染结果映射回3D空间送去投影。更妙的是同一台服务器能同时跑好几个Notch模块,省得写脚本重新布线。 在LightAct的实时可视化窗口里,导演能边看运动物体边调参数,确保上场不出岔子。Jonathan觉得LightAct的支持特别给力,“秒级”就能回复问题。要是没这神器,Ritual的连夜排练肯定不会这么顺溜。 说到底,就是技术把“复杂”的标签给摘了,艺术才真的能自由起来。从投影机校准到多引擎协同,LightAct给了LabLab一套低门槛高弹性的流程。对于沉浸式演出来说,“观众一进场就能玩”才是最硬核的目标;而LightAct就是那个帮我们实现这一切的杠杆。