论文《FactoryDecoder - 面向3D场景的AIGC工具》入选图形学顶会SIGGRAPH 2024

简介: 论文《FactoryDecoder - 面向3D场景的AIGC工具》入选图形学顶会SIGGRAPH 2024

在图形学顶会SIGGRAPH 2024上,来自阿里云的设计师向世界呈现了数字孪生场景AIGC的工具FactoryDecoder。在工作中,设计师如何基于对场景洞见,提炼出创新的机会?我们将在文本分享心得。

4c004cecd9f5f7df29d04d5cf4ec9e61.jpg



|全文约3000字,阅读需要10分钟。



场景创生 - 持续洞察才有新思路


“当前最优”,是否还能更进一步?

最开始的思考,源于工业互联网场景中基于设备数据表生成可视化应用的开发模式。从最开始的完全基于代码进行开发(Full-Code),再到低代码/无代码(Low-Code/No-Code)搭建器。先配置数据源表单,再通过拖拉拽的方式完成可视化画面构建,已经形成一个行业范式了。


彼时行业认为“拖拉拽”的体验应该是可视化应用开发的最优解。然而我们发现,行业客户的几个诉求,当时的搭建器产品还不能满足:


1. “拖拉拽”仍需要很大操作成本。对非专业设计UI的施工人员来说,拖拉拽画面元素并完成数据配置还是需要很长时间。尤其是3D类可视化搭建,更需要引入3D工程师,专业度更高,一般施工人员无法胜任。


2. 缺少画面素材。虽然有很多组件模板,但遇到没有的设备,创造一个包含数据结构的新画面组件仍然非常难。


3. 缺少交付后调整的方式。一旦熟悉工具的施工方撤场,客户想要在运维阶段做出调整,学习曲线非常陡峭,导致很多后期维护工作量。



从全代码到低代码,“当前最优”的开发体验能否更进一步,更简单,更快速?前前后后我们经历了多次探索,最后发现,平台上天然的存在一类“结构化数据”——即在数据采集阶段就完成录入的资产树结构,包含了具体设备名称,设备的配置信息,以及设备与设备关系的数据。如果能利用好这种资产编码(Asset Code),直接完成Code To Design,可以用更少的工作量,覆盖80%的可视化场景。我们基于此思路开发了第一版“资产图谱”功能。



f336e3a35f60ed426d450fe77272c8b1.jpg



基于GenAI,重构场景搭建体验

在上述基于资产编码组织的可视化中,还有几个尚待解决的问题:


1. Asset Code要求先录入所有数据才能进行可视化。有没有更简单的启动方式?


2. 如果资产的顺序有所调整,需要返回录入的表单调节,这会导致工作界面的来回切换。能否简化?


3. 如果有设备没有预制的3D设备素材,如何展示?


此时恰逢生成式AI(Generative Artificial Intelligence,后文简称GenAI)如火如荼,我们决定结合GenAI —— 包括文本生成和3D生成的能力,进一步降低3D数字孪生场景构建门槛。我们预期通过输入一段自然语言,自动生成对可视化画面的结构化表述,从而代替以往对模板的选择。并且结构化表述可以作为自然语言和画面的中介物(Intermediate),为带有随机性的生成结果提供精确调控方式。


本质上,这是一种结合基于精确规则的符号表征(Symbolic Representation)和基于统计学的分布表征(Distributed Representation)的思路,通过连接计算机语言学知识达到更好的人机交互结果。

2b69297117b2806fc12a520e4869c392.jpg


我们构建出FactoryDecoder,一种面向非3D工程专家用户的开发工具。它可以通过自然语言输入来生成和修改工厂数字孪生的可视化画面。基于通义大模型,FactoryDecoder可以解析用户对生产线的自然语言描述,并将其转化为层级化的资产编码,从而便于自动化的生成数字孪生。


此外,如果系统检测到缺乏合适的3D设备形象,它会自动调用3D生成器来生成新的设备形象。用户可以通过类似修改Markdown的方式,直接通过修改层级资产编码来调整画面上的3D设备类型,数据指向以及布局。我们评估了多个大语言模型的场景生成准确性。


我们进行了前期的专家用户调研,展示了FactoryDecoder对用户的实用价值。

b79915e31718bc45ddac7937e77d7cdc.jpg

524020ccfd36dffa7f02864fb5f99a81.jpg


SIGGRAPH是代表计算机图形学最高水平的国际性重量级盛会,也是CCF-A级顶级会议。我们的研究成果《FactoryDecoder - Expertise Free Digital Twin Generation and Modification Tool》成功入选SIGGRAPH 2024,在7月底前往美国丹佛进行Present。

b34f4ee04d61b62db829f02f9618607f.jpg



109c59328e9c919d6dfdb9e0e20307d1.png




继往开来 - SIGGRAPH总结


NVIDIA和Meta会怎么讲AI?基于神经学原理构造了25年的虚拟人长什么样?《沙丘2》的视效是怎么生产的?1960年代的计算艺术如何影响现在?—— 这些都在美国丹佛举行的全球最大的图形学会议SIGGRAPH上进行呈现。参加这次会议,收获颇多,在这里也把新的灵感分享给大家。



既有时下热点,也有持续探索

今年的Keynote演讲中,NVIDIA提到后面要往机器人,AI工厂的方向发展,而Meta表示要坚持开源和对生态的培养,以及提到了“每个人都会有一个自己的AI Agent,正如现在每个人都有自己的邮箱和个人网页一样”。

7da0df6cb8004327b2cebe19ca7c79e7.jpg


最震撼人心的Keynote来自奥克兰生物工程学院的教授Mark Sagar。从1990年到现在,25年的时间都在研究如何通过仿真神经系统和皮肤肌肉系统从底层构造栩栩如生的虚拟人。最终形成了集大成的BabyX,一个虚拟的人工智能婴儿,其可以模拟18个月大的真实婴儿的行为、情感反应以及学习能力。当婴儿和研究员互动时,系统可以展示互动行为中婴儿的视线,大脑激活的区域,记忆的激活情况,运动神经的活动等信息,这些信息是基于底层大量神经节点的仿真运算结合而成。自然而然,这种如此真实的虚拟人也涉及到虚拟人伦理和互动边界的设立。Mark和他的企业Soul Machine也进行了大量的研究和发声。

032a76f31678a2c9a12012b084913140.jpg

477edaa237fb2cf771db233e30d08348.jpg


软硬结合,百花齐放


企业展上有众多AI+CG新创企业,涉及渲染加速,素材管理,AI训练,虚拟人,3D生成等领域。


48b7f175ff189293cc578cbf9bea3341.jpg


印象比较深刻的是一些材质采样的硬件,通过扫描置入物体可以获得材质贴图,物理参数等信息用于反向仿真。同时有多家动捕新装置。


a873e0aa7dbf357434220306ed5b9199.jpg


软件层面,现场有很多虚拟人初创企业。笔者也去了NVIDIA的虚拟人动手工作坊。在一个gradio UI的控制台输入数字人的背景故事,再选定一个大模型api,就可以驱动前端的UE5数字人。可以在UE5里调节各种动作参数 - 包括外观,张嘴幅度,表情丰富度等。文档内容全面,值得工作坊组织者学习。


1aeadc7bba5d3f459c7d119f73deac5d.jpg



4951dc8e5b49fb0120789aff4ed184da.png



总结 - GenAI时代,设计没有“理所当然”


整体感受,这个会议的交流氛围和创新氛围很浓,抛却了很多浅层的不影响生产的概念呈现,进入到“真刀实枪”的“效果说话”。不管是学术界还是产业界,拿出的产出都是经过多次实验的结果,比较Solid。


笔者近半年参与通义应用层的设计工作,感受到在GenAI时代,设计没有“理所当然”,所有一切都是可以重构的。我们在日常工作中,也深入挖掘,用工程化的思路多对比分析,然后回溯到“第一性原理”的级别,比如物理学限制,看看有没有更底层的不可动摇的原因,没有的话,可以“重做”。


一个最新案例是我们对大模型流式输出的视觉效果,即“打字输出”的研究。之前通义App收到部分反馈,“速度慢”、“不流畅”“GPT的速度就很快”“Gemini的体验太流畅了”。当通义App被吐槽时,我们对“打字快慢”这个“理所当然”的表现进行重新思考,针对“打字速度是不是越快越好?”“吐字过程的什么因素会影响用户偏好?”两个研究问题深入挖掘。最后发现信息的分步透出,光标速度等因素会影响用户对“智能感”的认知。我们把探究结论落地回app的对话内,并且总结为论文发表于中国可视化大会ChinaVis 2024。



当然,这只是一个非常初期的探索,抛砖引玉。GenAI时代,设计没有“理所当然”,只有“穷尽可能”。也希望业界的设计师多多交流,共同探索。

相关文章
|
人工智能 自然语言处理 安全
【网安AIGC专题10.19】论文3代码生成:ChatGPT+自协作代码生成+角色扮演(分析员、程序员、测试员)+消融实验、用于MBPP+HumanEval数据集
【网安AIGC专题10.19】论文3代码生成:ChatGPT+自协作代码生成+角色扮演(分析员、程序员、测试员)+消融实验、用于MBPP+HumanEval数据集
252 0
|
机器学习/深度学习 人工智能 数据可视化
【网安AIGC专题10.19】论文4:大模型(CODEX 、CodeGen 、INCODER )+自动生成代码评估:改进自动化测试方法、创建测试输入生成器、探索新的评估数据集扩充方法
【网安AIGC专题10.19】论文4:大模型(CODEX 、CodeGen 、INCODER )+自动生成代码评估:改进自动化测试方法、创建测试输入生成器、探索新的评估数据集扩充方法
553 1
|
10月前
|
人工智能 自然语言处理 JavaScript
《AIGC+软件开发新范式》--09.国内唯一!通义灵码入选全球智能编码 助手使用率 TOP 榜单
在AI 热度持续上升的当下,阿里云推出AI智能编码助手—通义灵码。通义灵码是一款基于阿里云通义代码大模型打造的智能编码助手,基于海量优秀开源代数据集和编程教科书训练,为开发者带来高效、流畅的编码体验。
245 3
|
11月前
|
人工智能 安全 物联网
【网安AIGC专题】46篇前沿代码大模型论文、24篇论文阅读笔记汇总
【网安AIGC专题】46篇前沿代码大模型论文、24篇论文阅读笔记汇总
286 1
|
11月前
|
vr&ar 图形学
论文介绍:3D-SceneDreamer——基于文本驱动的3D场景生成技术
【5月更文挑战第2天】3D-SceneDreamer是一款文本驱动的3D场景生成工具,利用NeRF技术简化3D内容创作,通过文本描述创建室内及室外场景。该框架支持6-DOF摄像机轨迹,提高视角自由度。研究结合预训练的文本到图像模型解决3D数据稀缺问题,实现高质量、几何一致的场景生成。尽管面临文本描述精度和实际应用挑战,但该技术为3D场景生成带来显著进步。[论文链接](https://arxiv.org/pdf/2403.09439.pdf)
372 6
|
11月前
|
机器学习/深度学习 编解码 人工智能
CVPR 2023的46篇AIGC应用论文+部分代码汇总
CVPR 2023的46篇AIGC应用论文+部分代码汇总
949 0
|
11月前
|
机器学习/深度学习 自然语言处理 算法
19ContraBERT:顶会ICSE23 数据增强+对比学习+代码预训练模型,提升NLP模型性能与鲁棒性:处理程序变异(变量重命名)【网安AIGC专题11.15】
19ContraBERT:顶会ICSE23 数据增强+对比学习+代码预训练模型,提升NLP模型性能与鲁棒性:处理程序变异(变量重命名)【网安AIGC专题11.15】
311 1
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
16CODEIPPROMPT:顶会ICML’23 从GitHub到AI,探索代码生成的侵权风险与缓解策略的最新进展:训练数据`有限制性许可;模型微调+动态Token过滤【网安AIGC专题11.8】
16CODEIPPROMPT:顶会ICML’23 从GitHub到AI,探索代码生成的侵权风险与缓解策略的最新进展:训练数据`有限制性许可;模型微调+动态Token过滤【网安AIGC专题11.8】
183 1
|
11月前
|
自然语言处理 安全 算法
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
271 0
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
|
11月前
|
机器学习/深度学习 人工智能 安全
【网安AIGC专题】46篇前沿代码大模型论文、24篇论文阅读笔记汇总
【网安AIGC专题】46篇前沿代码大模型论文、24篇论文阅读笔记汇总
451 0

热门文章

最新文章