一个显示器怎么分四个屏
AI参与游戏构建已经不再是新鲜事,但用AI构建支持两人实时互动的游戏世界,这在今天成为了现实的首个例子。
以色列的Enigma Labs团队今天在X平台发布全球首款由AI生成的多人游戏——Multiverse(多重宇宙)。游戏的玩法十分科幻,车辆的漂移、撞车等动作都可以同步,操作也能实时响应,细节精细到帧数级别。不同于传统游戏,Multiverse中的一切不再由预设剧本或物理引擎控制,而是由一个AI模型实时生成,确保了两位玩家能体验到完全同步且视角一致的世界。
更重要的是,Multiverse已经全面开源,所有代码、模型、数据和文档都被放在了GitHub和Hugging Face上,甚至可以在自己的电脑上直接运行。Hugging Face CEO Clément Delangue也在X平台称赞这是他所看到的最酷的数据集。
那么这款名为Multiverse的模型是如何实现的呢?在传统AI世界模型中,玩家操作会转换为嵌入向量,再结合操作和前几帧画面,通过扩散模型预测下一帧画面。但当引入第二位玩家时,问题就复杂了,最常见的bug就是两位玩家的视角不同步,导致游戏体验卡顿。
而Multiverse正是第一款能解决这个问题的AI世界模型。无论哪位玩家发生了什么,另一个人都能实时在自己的画面中看到,没有任何延迟或逻辑冲突。为了实现这一点,Multiverse团队提出了一种聪明的方案,他们保留了核心组件,同时打破了原有的“单人预测”思路,对动作嵌入器、去噪网络、上采样器等进行了重构。他们通过通道轴堆叠的方式将两个玩家的视角“缝合”成一个画面,将他们的输入合并为一个统一的动作向量,整体作为一个“统一场景”来处理。这样做听起来虽小但技术上非常聪明。最终的画面天然同步,无需手动对齐。
为了训练模型理解协同驾驶等复杂行为,团队采用了一种折中方案,提供最近连续的4帧和额外的历史画面作为输入数据,并在互动行为上做强化训练。他们设计了一种独特的训练方法:课程式学习策略,让模型从底层开始逐步学习长周期、多轮次的互动逻辑。此外他们还巧妙地利用了一款赛车模拟游戏Gran Turismo 4的数据集进行训练并利用游戏中的HUD信息提取操作指令通过计算机视觉逐帧提取油门刹车方向盘等信息再反推出控制指令等训练完成后模型在物体持续性帧间一致性方面表现明显提升简而言之不会出现车子突然消失或者前后逻辑崩坏的情况
整个模型的构建过程只花费了大约一千五百美元左右这得益于团队的技术创新而非高额的计算资源这一多人世界模型不仅是AI玩游戏的新方式更是模拟技术的下一步它将开启一个全新的世界即一个由玩家智能体和机器人共同进化共同塑造的动态环境未来世界模型可能会像一个虚拟版的真实社会让人类与AI在其同生活形成真实感极强的动态宇宙同时拥有接近现实社会的复杂互动逻辑这无疑让人兴奋不已。
更多信息可访问以下链接:
GitHub:/EnigmaLabsAI/multiverse
Hugging Face 数据集:huggingface.co/datasets/Enigma-AI/multiplayer-racing-low-res
Hugging Face 模型:huggingface.co/Enigma-AI/multiverse
官方博客:enigma-labs.io/blog