2024年3月15日,在第四届中国汽车人机交互创新大会上,小鹏汽车数据智能中心设计总监王承炀提到,从草稿到3D渲染、零部件再到场景,3D渲染阶段非常耗时,所以思考能否用AI工具替代这一繁琐过程。业界已有线稿直接转化为实体或3D渲染的先例,团队便尝试将其应用于汽车设计。尝试了多种AI工具组合,包括Midjourney、不同大模型和采样器。多次测试后,找到了一个能还原草图轮廓和折痕设计的最佳方案。
图片来源于网络,如有侵权,请联系删除
王承炀表示,现在只需草图即可生成高效且效果各异的图片。此外,还将此方法应用于内饰和零部件设计,同样取得了显著效果。这些AI生成的设计虽不能直接使用,但可作为优秀的设计输入和参考。王承炀主要围绕体验设计的全链路AI应用、AI赋能营销实现降本增效、造型概念设计的创意进化、未来发展趋势与反思等展开分享。
图片来源于网络,如有侵权,请联系删除
王承炀|小鹏汽车数据智能中心设计总监
以下为演讲内容整理:
当前AIGC行业发展十分成熟,可以分为上中下游,上游主要是大模型训练及新技术,中游进行各种内容产出,包括图片、视频、文案、音乐等,下游则是应用场景。近几年国内企业在AIGC的投入持续增长,AIGC被应用到越来越多的领域。
下图是小鹏汽车内部不同领域对应的设计活动。最左边是造型,有内饰、外饰、零部件、色彩等。营销和销售部门有品牌、KV、线上线下的活动设计。此外还有HMI和数据智能中心。我们需要通过数据智能中心对AI的研究赋能三个不同的设计领域。
图源:演讲嘉宾素材
要实现这一目标,基本是采用比较传统的设计思维,首先洞察有什么问题,设计流程中有什么卡点,然后看业界有怎样的技术可以解决这个问题,最后将相关技术做一个应用,去适配业务,衡量产出是否能够达到指标。整个流程形成规范后,可以在公司内部进行推广和培训。
小鹏的APP上有车控、社区、商城、售后服务及个人中心。在用户体验设计部分有一个链路是用户研究,分为定性研究和定量研究。在定性用户研究中,通常需要和用户进行访谈,将访谈录音转成文字约有五六千字,把这五六千字做成总结既困难又耗时,并且会带有个人偏见。基于此,我们通过GPTs做一些训练,脱敏后进行输入、输出的对标和优化,最终的输出总结比人工分析更快,结构化产出更优。
我们在做设计时需要对竞品进行分析,会定期跟踪不同车企APP上市的新版本功能,还会有一些新的优化改进点。此外,我们与微软进行合作,通过他们的工具可以自动模拟人类行为去浏览这些网站,然后将网站信息搜集回来做格式化,存入数据库中,最后再整理成文字,利用Copilot进行分析总结。
我们在APP上有一些图片需要产出,在做图片时首先要具备一个创意,相比于人工想创意,GPT会更加高效,再将其创意分解为提示词,用Midjourney生成相应的图片,直接应用在APP上。
AIGC赋能造型设计
在利用AIGC赋能造型设计时,我们要先进行问题的洞察。在做造型设计时通常会遇到几个问题,将草稿画成一个比较好的渲染图时,光影很难做好,如果要进行3D建模,就需要整个团队的支持,消耗时间较长,最后要将整车放入场景中进行融合也有一定挑战性。
下面将分析如何用AI加快整个设计流程。下图是从草稿到3D渲染、零部件,再到场景的流程。我们发现在3D渲染部分,从草稿输入到用PS画一个比较有光影质感的图片,再进行渲染耗时很长,因此想通过AI工具完成这部分内容。
图源:演讲嘉宾素材
业界有许多通过线稿可以直接画成一个实体,因此我们想将其运用到车上。实践过程中有许多不同的AI工具组合,我们进行了许多尝试,最终选择一个能够还原草图轮廓及折痕的设计。现在只要有草图就可以生成相关图片,效率得到了极大提升。
我们还在内饰部分进行了与零部件一样的尝试,也可以渲染出不同的效果。同样,给AI一个基础线条就可以渲染出不同的轮毂图形。这些生成的内容并不能直接使用,但可以作为一个比较好的设计输入和参考。
如果不想要草图,可以通过训练模型的方式,在Midjourney上输入相应风格的模型,做LoRa训练,将其训练成一个LoRa后,有可能能够通过AI直接用该模型,通过提示词就可以生成图片。
我们在做内饰时所生成的是双视图,上下元素基本一致,因此可以一次生成两个不同视角的内饰风格。我们还将AI工具放在内部做了一个平台,优化界面,将一些素材整理在一起,让设计师可以更方便地使用。
在设计部分还有一个需求,他们希望能够实时地将手绘的草稿直接渲染成3D的结果。对此,我们采用了ComfyUI技术,搭建自己的工作流,会对窗口进行监听。右下角是监听PS画板的窗口,能够实时进行模型运算,大约每半秒能生成一张图,每画一笔就会渲染出一个3D结果。这一功能能够让设计师较快知道草图变成3D后的效果。
图源:演讲嘉宾素材
AIGC赋能营销设计
在做营销物料时,通常难以找到较好的素材,或需要付费。此外,3D渲染花费的时间较长,费用高,还难以做得逼真。当前业界有许多一键生图的应用,将产品图与AI技术融合后可以生成相应场景,同样的原理也可以应用在车上。
车企的实拍图一般较为单调,需要通过PS丰富图片的层次感。一般实拍图的背景没有过多细节,因此我们可以通过AI进行优化,AI所生成的整个画面会更有故事感和场景感,氛围感也更好。
在我们的广州车展X9发布会上,背后的主KV由AI生成。我们首先将车的轮廓提取出来,把车的空背图P到Midjourney生成的场景上,再经过AI渲染,呈现出金色光影,最后将其放入PS进行合成,生成最终的效果图。
图源:演讲嘉宾素材
当图片质量要求不高时,我们可以一键生成。前文所提到的ComfyUI是一个工作流概念,只需要输入一张车辆的空背图和一个场景,就能生成参考图片,进行选择,最后对图片进行拓展。
在X9空间的活动中,外星场景需要通过AI生成背景,首先是生成背景,然后将车进行替换合成。该项目的车图物料是横版,但活动需要竖版,因此我们通过AI对其进行了补齐。
我们在收到车时,由于时间原因,没有人在车里,于是就想到用AI将人画进去。画人要将3D模型把人放在对应位置,输入骨架图和深度图,再通过AI把人画进去。最后我们将人物P到车里,进行合成。由于AI所生成的人在光影和颜色等细节上不太像真人,我们会通过光影重绘使其更加协调。
近期许多优质的图片模型被释放出来,Playground、Stable Cascade、Stable Diffusion 3所画的内容已经难以区分真假。在更快出图的需求下,业界有了一步到位、四步到位的Turbo或 Lightning等渲染方式,提供更快速的设计决策,画质问题可通过重绘进行提升。
(以上内容来自小鹏汽车数据智能中心设计总监王承炀于2024年3月15日在第四届中国汽车人机交互创新大会发表的《与AI同行:车企设计中的创新实践》主题演讲。)
版权声明
本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。