在Live2D Cubism 3及以上版本的部分模型中,motion(动作)和expression(表情)在导出的模型中不再区分,可以将表情和动作统一作为动效进行混合处理。以Project Sekai的模型为例,其表情文件同样以motion3.json格式存储,运行时采用先应用动效、再叠加表情的渲染顺序。
而WebGAL采用的解析方式无法识别作为动效储存的表情,导致在设置时,“Live2D表情”只能留空(如图)
因此,若想要实现类似Project Sekai的live2d渲染,在目前的WebGAL版本中必须将Live2D分为两步,第一步定义动作,第二步叠加表情。
然而这引出了新的问题:如果按照上图所示开启“连续执行”,则后一步的表情将会覆盖前一步的动作,导致动作被重置,无法实现叠加。
(正确渲染:关闭“连续执行”,手动触发模型更新)

(错误渲染:开启“连续执行”)

请问是否有方法解决动效的自动混合问题?
在Live2D Cubism 3及以上版本的部分模型中,motion(动作)和expression(表情)在导出的模型中不再区分,可以将表情和动作统一作为动效进行混合处理。以Project Sekai的模型为例,其表情文件同样以motion3.json格式存储,运行时采用先应用动效、再叠加表情的渲染顺序。
而WebGAL采用的解析方式无法识别作为动效储存的表情,导致在设置时,“Live2D表情”只能留空(如图)
因此,若想要实现类似Project Sekai的live2d渲染,在目前的WebGAL版本中必须将Live2D分为两步,第一步定义动作,第二步叠加表情。
然而这引出了新的问题:如果按照上图所示开启“连续执行”,则后一步的表情将会覆盖前一步的动作,导致动作被重置,无法实现叠加。
(正确渲染:关闭“连续执行”,手动触发模型更新)


(错误渲染:开启“连续执行”)
请问是否有方法解决动效的自动混合问题?