2026,从AI设计回到AI设计
作者:微信文章所有功能都会有的。
在2025年的最后一天,我连续被两项工具的新功能震撼到了,Stitch和Mixboard。我已经越来越多的依靠这两项工具进行设计,开脑洞,但还是经常会被它们震撼到。
于是,作为2026年第一篇,可能是一个不错的话题:2026,AI之余设计。
我从没学过设计,甚至从小到大,“艺术”都与我无缘。在二十多年里经历的各种工作中,设计和UI也都是我直接“略过”的部分。但在过去的一年多里,很多流程却越来越需要用到“设计”,或者,更客观的说,在AI的参与下。
我很难从更专业的角度评判AI输出的那些“设计”,是否在审美上是好的,但至少比我自己做的好看很多,那就够了。
于是,它们顺理成章的改变了我的工作流,无论是工具(我会持续用工具而不是应用这个词,因为我最初的目的只有一个,为自己所用)开发,还是物料制作(比如我交流时候需要用的slides,比如写文章时需要演示一些想法,概念和阶段性结果时)。
当然,如文章开始所述,感谢Google在2025年推出并且不断改进的工具:Stitch和Mixboard。
https://stitch.withgoogle.com/
https://labs.google.com/mixboard
对于工具开发而言,我已经早就习惯了这样的流程:整理想法-->Gemini Deep Think模型生成工具开发所需要的文档-->将文档交给Stitch进行UI设计-->将UI与文档交给AI Studio Build进行生成-->迭代。
1.Deep Think。在基于2.5模型的Deep Think发布后,我就写过Deep Think是我认为最适合进行项目设计的模型:深度够,细节准确,但是又能做到架构复杂度差不多刚刚好,可行性很高,相对而言,ChatGPT-5 Pro就会追求过度“完美”,从而很难落地。如今Deep Think升级到Gemini-3后,能力更强了,强到大概“人已经配不上它”的感觉。
2.将设计文档交给Stitch进行UI设计。从Stitch发布至今的半年多时间里,升级巨大,特别是前几天的一次升级,不仅可以展现Gemini-3更大的潜力,而且生态上直接跟Coding工具Jules和AI Studio Build打通了。
将Deep Think的设计文档“扔给”Stitch后,直接出了各功能页面,还可以引导用户生成更多详细页面。如下图(因为是还在开发中的工具,请原谅我使用nano banana进行了模糊处理):
即使进行了模糊处理,依然可以页面设计还是挺合理的,实际上,不仅如此,对于设计文档里提到的主要功能和元素,页面里也都体现出来了。
在最近更新之间的Stitch版本之前,这些页面可以导出到Figma,导出为html代码,或者图片格式输出。如果直接拿去vibe生成,还需要复制黏贴,再加一些改进工作。
如今,直接连AI Studio或者Jules(Google Labs的另一个Vibe Coding IDE)。在不短的一段时间里,这可能依然是只有Google才可以有的丝滑生态体验。
3.然后,然后,在AI Studio Build中,工具就直接ready了。
当然,鉴于Build的规模能力,第一个版本很多后台都是mock的,需要逐渐去完善到可实际应用,但对于Stitch到Build的丝滑操作,确实是体验的大幅提升。我又想说那句话了:除了Gemini之外,其他模型都没有用户黏性。
4.当然,对于跟Jules的连接,也尝试一下,Jules是一个挺特别而且过去几个月里改进了很多的工具,尽管它不太符合我的流程,但多样化就该是AI时不再奢侈的理想。
如上,在Stitch中提交Jules后,当前页面下是无感知的。但是当进入到Jules后,会看到后台任务正在跑着,这是Jules最大的特点。写这篇文章的时候,我还没来得及将Jules的代码下到本地运行测试(Jules直接跟Github代码仓绑定,所以需要回到传统的项目开发方式,这个是在AI时代它总显得不够丝滑的原因)。
综上,在AI Studio Build事实上已经承担了我90%以上工具开发的工作时,当前的Stitch已经成为了“黄金搭档”。
当然,写工具的目的还是为了生成结果,在“我就是自己客户”的当前状态下,设计对我而言更重要的并不在工具生成,而在“交付物”制作过程中,不仅仅是最终结果,中间过程的“头脑风暴”也同等重要。
于是,当下,很难有一项工具比Mixboard看上去更适合这个场景了。
如果把上面所述的Deep Think的设计文档扔给Mixboard,看起来更像是一些零散的元素的启发,不太像可以成品的样子。
是的,这也是这次更新之前Mixboard给人的印象。但是,也是在几天前,Mixboard加入了一项全新的功能:Transform,就是把各种零散的内容组织成一份Visual Deck。这个名字是不是很熟悉?对的,就是Notebooklm🔥出圈的slide功能。
只不过,Notebooklm的slide更多面向知识和专业研究领域,输入也是以文本为主,而Mixboard的这项功能更多是面向设计,输入也更多需要高质量图片。
如果我把前天关于Google的2025的一些内容输入给Mixboard,并且选择Transform(需要输入足够多的图片和pdf等内容,到100%解锁)。
可以选择些风格和主题(因为当时没有截图的愿意,上面截图对应的是我另一个project里的内容)。
完成后,直接点“Presentation”,可以下载pdf,也可以直接下载成图片。
风格上,还是有特点的,设计感会更强一点。当然,缺点也很明显,首先,还不支持输出中文,其次,如果作为面向专业领域的presentation,显然notebooklm还是更合适一点。
可是,2026年今天才开始,AI设计为什么就不可以在这一年里像去年的vibe coding一样,极大的改变很多人的工作流程和习惯,进而改变更多的行业呢?
也正是这样的想法使我写下了这个标题,从AI设计回到AI设计。
因为,我们对“美”的追求,是无止尽的,或许,也是没有终点的。
页:
[1]