FAQ
产品整体相关FAQ
输出的“动画曲线”是什么?
例如,它与在 Maya 的 Graph Editor 中处理的 BlendShape 权重曲线是同一种曲线。
CRI LipSync Alive 输出的唇形同步动画,会输出如下信息: “在每一帧,驱动哪个变形目标,以及驱动多少(强度/权重)。”
CSV文件中写了什么?
动画曲线文件(.csv)和日语5元音文件(.adxlip)中包含以下信息。
- 各变形目标(BlendShape)
- 其权重值
- 时间(秒)
该CSV为纯文本文件,因此无需专用库或软件也可打开查看。
我是设计师,不知道做什么才能让嘴巴动起来
请放心。它与您平时为变形目标制作动画的流程几乎相同。
- 为角色模型准备变形目标(BlendShape)
- 使用 CRI LipSync Alive 分析音频并输出 CSV
- 将从 CSV 生成的曲线分配到对应变形目标的权重上
- 与音频一起播放并调整曲线
无需另外学习专门的面部动画工作流程。
必须使用特殊的绑定(Rig)结构吗?
不需要,并不要求使用特定命名的绑定(Rig)或固定的面部结构。
- 基于 BlendShape 的绑定(Rig)
- 为每个项目/标题设计的口型结构
可以直接使用。
分析时需要事先登记变形目标吗?
不需要。 CRI LipSync Alive 仅通过音频即可分析出各变形目标对应的唇形同步动画。
由于音频分析与绑定(Rig)设计可以分离,即使在绑定尚未完全确定的阶段也能进行验证与试作。 也可以让过去制作的角色模型动起来。
CRI LipSync Alive包在哪里可以获取?
可从技术支持页面下载。
CRI LipSync Alive 使用了生成式AI吗?
没有,未使用。
虽然用于分析人类声音的分析引擎采用了机器学习技术,但动画的计算处理并未使用机器学习,而是采用了CRI独有的方法。
分析引擎所使用的学习数据,均为无版权问题的音频数据。
此外,CRI LipSync Alive 不会将要分析的音频发送到外部服务器,也不会用于AI的学习。
与CriLipsMake2相关的FAQ
不知道如何获取许可证密钥
许可证密钥会单独发送给咨询的客户。
未获取的用户请通过CRI中间件咨询页面进行咨询。
可以解析歌声吗?
可以。但需要输入仅包含人声轨道的音频数据。
如有多个人声轨道,请分别分离为不同音频文件后输入。
可以解析日语以外的语言吗?
可以。CRI LipSync Alive采用不依赖语言的解析引擎。
因此,只要输入的是人类可发音的语音,均可支持。
支持输出的变形目标种类为Mpeg4-Visemes。
会根据音量或情感表现生成唇形同步动画吗?
不会。CRI LipSync Alive无论声音如何,“あ”音都会被视为“あ”。
建议利用Vol列信息等进行处理。
另外,开发中的β版功能可根据语音抑扬自动推测嘴巴张开度。
关于-enable_auto_detection_mouth_open标志,请参阅以下页面。
输入音频数据时出现错误
如出现以下错误之一,说明音频数据格式不正确。
请在音频数据指南中确认CriLipsMake2支持的音频格式。
- "[ERROR] Failed to open wav."
- "[ERROR] Format error."
- "[ERROR] Unsupported bit depth for signed integer samples."
- "[ERROR] Unsupported bit depth for floating point samples."
- "[ERROR] Unsupported encoding."
- "[ERROR] Failed to get num samples."
- "[ERROR] Sampling rate must be equal to or greater than %d."
- "[ERROR] Sampling rate must be equal to or less than %d."