在更强大的AI及相关技术的加持下,游戏行业将出现怎样的变革?
(资料图)
4月13日周三,方正证券分析师杨晓峰发表了题为《游戏的AI革命:StableDiffusion到Nerf》的行业研究报告。
在这份报告中,方正证券表示,游戏行业能够根据现有的AI模型——GPT、Stable Diffusion以及Nerf,实现“无中生有做3D”。
GPT文本生成神器的功能已被大众所熟知,这里方正证券着重介绍了Stable Diffusion和NeRF模型。
AI生成2D作画:Stable Diffusion
据方正证券介绍,Stable Diffusion是一个文本到图像的潜在扩散模型,可以实现“文生图”功能。不过,当前的输入内容类似于程序代码,具有一定的门槛。
Stable Diffusion提供开源模型,用户可对其进行进一步训练,风格多样化。
同时,使用controlnet插件可以使Stable Diffusion生成多视角图片。
AI推动“2D到3D” :NeRF模型
NeRF,全称为Neural Radiance Fields(神经辐射场),是一项利用多视角图像重建三维场景的技术,即利用2D图片搭建3D场景。
当前基于NeRF技术构建的模型主要有谷歌的Mip-NeRF、Block-NeRF、LOLNeRF,英伟达开发的instant NGP。
据方正证券称,instant NGP可以极大的提高NeRF的效率,在某些情况下速度可以提升超过1000倍。
Instant NeRF可在单GPU(RTX3090)环境下实现秒级的3D场景生成。在高清分辨率下,合成甚至真实 场景可以在几秒内训练,幵以 60帧/秒的速度渲染。
另外,3D建模软件服务商Luma AI近期开发了NeRF相关的APP,目前已上线APP Store,极大的降低了NeRF的使用门槛:
仅需要一部手机,通过APP导引进行场景的拍摄,就可以随时随地渲染三维场景,轻松使用NeRF。
2023年3月24日,Luam获2000万美元的A轮融资,英伟达为其投资方之一。
GPT→Stable Diffusion→Nerf:无中生有做3D
据介绍,目前由文字到3D模型,存在两种路径。
AI推动降本增效使用“文生图”模型+NeRF生成3D模型,GPT在其中可以发挥重要作用。例如,使用stable diffusion+controlnet插件,生成多视角的2D图,再由NeRF形成3D建模。但由于目前文生图模型的prompt仍有一定的门槛,因此或可训练GPT,使其掌握,进而实现自然语言生成满意的多视角2D图。
使用文字生成3D模型。这一类模型往往是,文本到图像扩散模型和NeRF的结合。其原理为,先通过文本到图像的扩散模型生成2D图,再通过NeRF将2D图生成3D模型。
目前,国内常见的游戏美术制作方式有四种,分别是3渲2制作、3D 现世代制作( 传统手绘)、3D 传统次世代制作和3D次世代制作。
但总体来看,当前制作一个3D游戏角色的周期在30-45天左右,需要的步骤较多,参与的人员众多。
使用NeRF可以快速建模,从而提高效率,节省成本。
时间上,AI生成图片的速度相对手画来说,大幅度提高;而NeRF建模也可一次性完成上文中步骤的多个, 在时间上有极大的提高。
人力上,“文生图”和NeRF可以完成多个角色的工作,同时也更加快速。
本文主要观点来自方正证券杨晓峰,原文标题:《游戏的AI革命:StableDiffusion到Nerf》
杨晓峰持证编号S1220522040001
关键词: