The Verge 的那篇测评
The Verge 记者 Sean Hollister 是最早拿到 Project Genie 测试资格的人之一。他的测评标题很直接:"Google's AI helped me make bad Nintendo knockoffs"。
他在文章里描述了自己用 Project Genie 生成《超级马里奥 64》、《银河战士》、《塞尔达传说》等游戏风格的世界。效果粗糙,但能认出来是什么。
这篇文章暴露了一个问题:当用户可以生成任意内容时,平台怎么处理版权和合规?
Google 的第一反应
Project Genie 上线后不久,就有用户发现某些提示词被屏蔽了。
输入"Mario"相关的描述,生成会失败或被拒绝。输入"Nintendo style",可能会被引导到其他风格。输入著名游戏的具体名称,同样会被阻止。
这是最简单的内容过滤:关键词黑名单。
关键词过滤的局限
问题是,黑名单挡不住创意绕过。
不让写"Mario"?那写"Italian plumber in a mushroom kingdom"。
不让写"Zelda"?那写"Elf boy with sword exploring ancient ruins"。
只要用户想,总能找到不触发过滤的描述方式,生成风格相似的内容。
这不是 Project Genie 特有的问题。所有生成式 AI 都面临这个困境:输入端过滤太容易绕过。
输出端审核的难度
另一种思路是审核生成的输出。如果生成的画面太像任天堂游戏,就阻止显示。
这比输入过滤难得多:
如何定义"太像"?
红色帽子加蓝色工装裤就算侵权吗?红砖配绿管道呢?金币呢?
每个元素单独看都不构成侵权,组合在一起就"感觉像马里奥"。这种判断很难自动化。
实时审核的性能压力
Genie 3 每秒生成 24 帧画面。如果每一帧都要过一遍版权检测模型,延迟会很明显。
而且版权检测模型本身也不完美,会有误报和漏报。
用户生成的二次创作
如果用户在生成的世界里加了自己的元素,这算用户作品还是 AI 作品?侵权责任怎么划分?
目前的做法
根据公开信息,Project Genie 采用了多层过滤:
输入层:关键词过滤
屏蔽明显的版权关键词。简单粗暴,但能挡住大部分"直接复制"的请求。
生成层:风格引导
模型本身可能被调整过,降低生成特定风格的倾向。这不是硬性阻止,而是让结果"不那么像"。
发布层:人工审核
如果用户要把生成的世界公开分享(remix 功能),可能会经过人工审核。
事后处理:举报机制
如果有版权方投诉,下架对应的内容。
这套体系不完美,但目前能用。问题是当用户量上去之后,人工审核会成为瓶颈。
更深层的问题
内容审核只是表面。更深的问题是:AI 能不能"模仿风格"?
如果答案是"能",那每个有独特风格的创作者都面临被模仿的风险。你的画风、你的游戏风格、你的设计语言,都可以被 AI 学走。
如果答案是"不能",那 AI 的能力会被大幅限制。不能模仿意味着不能学习,不能学习意味着不能泛化。
法律上,风格通常不受版权保护。你不能版权保护"蒸汽朋克风格"或"二次元画风"。但当 AI 可以精确模仿某个人的独特风格时,这个原则会被挑战。
对平台的建议
如果你在运营类似的生成式服务,几点考虑:
透明度
告诉用户什么能生成、什么不能生成。与其让用户猜测哪些词被屏蔽,不如公开规则。
分层发布
私人使用和公开分享可以有不同的标准。私人生成可以宽松一些,公开发布需要更严格的审核。
版权方合作
主动和大的版权方建立沟通渠道。与其等他们发律师函,不如提前协商。
技术投入
输出端审核的技术还不成熟,但值得投入研发。谁先做出准确高效的版权检测,谁就有竞争优势。
用户该怎么做
如果你在用 Project Genie 或类似工具:
了解平台规则。 每个平台的限制不同,先搞清楚边界在哪。
商业使用要谨慎。 生成的内容用于个人娱乐问题不大。用于商业项目,版权风险要自己承担。
保留原创性。 如果你基于 AI 生成的内容做二次创作,保留创作过程的记录。万一有争议,能证明哪些是你的贡献。
关注法律动态。 这个领域的法律还在形成中。今天合法的事,明天可能变成灰色地带。
结论
生成式 AI 的内容审核,比传统 UGC 平台难得多。用户不是上传现有内容,而是创造新内容。你没法提前建立一个"侵权内容库"来比对。
目前的解决方案都是临时的、不完美的。长期来看,需要技术和法律同步演进。
在那之前,平台在摸索,用户在试探,版权方在观望。这个三方博弈会持续一段时间。