在2024年度中国游戏产业年会上,巨人网络宣布了一项重大创新——“千影 QianYing”有声游戏生成大模型,这一举措标志着巨人网络在“游戏+AI”领域的深度布局。该模型由两大核心部分组成:游戏视频生成大模型YingGame和视频配音大模型YingSound,共同实现了有声可交互游戏视频生成的新里程碑。
“千影 QianYing”不仅展示了技术的前沿性,更预示着游戏生产方式的变革。YingGame,这一由巨人网络AI实验室携手清华大学SATLab共同研发的模型,能够生成多样化的游戏角色和动作,同时拥有强大的物理模拟特性。用户可以通过文本、图像或键盘、鼠标操作来交互控制角色动作,甚至自定义游戏角色,而无需传统的3D模型制作和引擎渲染。
另一方面,YingSound视频配音大模型由巨人网络AI实验室联合西北工业大学ASLP Lab和浙江大学研发,具备卓越的时间对齐和视频语义理解能力。它能够端到端地为各类视频,包括真实场景视频、动漫视频和游戏视频等,生成高精细度的音效,无需人工输入提示词。这一能力不仅丰富了游戏视频的听觉体验,还展示了AI在音效制作方面的广泛应用潜力。
巨人网络在发布“千影 QianYing”的同时,还启动了“千影共创计划”。该计划旨在基于大模型底座技术,对外开放模型技术、模型应用以及原创游戏项目等方面的合作共创、应用落地和人才招募。巨人网络希望通过这一计划,加速“游戏+AI”从降本增效向颠覆式创新的转化,推动游戏行业的全面发展。
今年以来,大模型技术在视频领域取得了显著进展。对于游戏行业而言,视频生成能力的突破有望替代传统的游戏生产方式,极大提高游戏发行内容的创作效率。更重要的是,这种技术所展现出的对3D模型的理解、强大的物理世界仿真能力和泛化能力,将对游戏生产管线、交互方式和游戏玩法产生深远影响。有观点认为,这将是完全由数据驱动的下一代“游戏引擎”的雏形。
巨人网络表示,“千影 QianYing”有声游戏大模型是文字描述实现游戏创造的一种可行性探索。目前,该模型仍处于技术打磨阶段,但巨人网络的AI实验室将持续推进模型能力的升级迭代,以期在未来为游戏行业带来更多惊喜和变革。