重构生产力:aigc多模型设计流程

在 2025 年的设计语境下,单一 AI 工具已难以满足复杂的商业需求。作为一名拥有计算机背景的设计师,我构建了一套以 Gemini 3 为逻辑核心,MidjourneyStable Diffusion 为视觉两翼,即梦 为动态补充的协同工作流。

一、 逻辑中枢:Gemini 3 (智慧大脑)

一切设计的起点不是像素,而是逻辑。Gemini 3 凭借其强大的多模态理解能力,承担了“产品策略官”的角色。

  • 需求深度拆解: 我会将冗长的 PRD 或业务思维导图输入 Gemini 3。它能迅速提取核心功能点、用户痛点,并生成初步的交互链路逻辑
  • Prompt 架构自动化: 利用其逻辑推理能力,将模糊的设计意向转化为符合 MJ 或 SD 语法的结构化提词,极大降低了沟通损耗和盲目尝试的成本。

二、 审美发散:Midjourney (视觉引擎)

在视觉探索阶段,Midjourney 的审美上限决定了作品的视觉天花板。

  • 意向图 (Moodboard) 定调: 利用 MJ 快速生成不同光影、材质和构图的视觉样板,为项目建立初期的视觉基调。
  • SREF 风格引用: 通过 --sref 功能锁定品牌视觉基因,确保生成的一系列 UI 背景、插画资产在调性上高度统一,避免“风格跳戏”。

三、 像素控制:Stable Diffusion (工程还原)

对于追求“1:1 还原”的技术型设计师,Stable Diffusion (SD) 是实现精准控制的重型武器。

  • ControlNet 确定性控制: * 利用 Canny 算子锁定 UI 线稿布局,确保生成内容不偏移。
    • 利用 Depth 算子控制三维图标或场景的纵深感。
  • 局部重绘 (Inpainting): 针对生成的图像进行像素级修正。例如,在保持整体风格不变的前提下,仅修改 UI 稿件中某一个按钮的材质或光感。

四、 动态叙事:即梦 (Jimeng)

当静态视觉需要进化为动态体验时,即梦 提供了极强的本土化支持与视频生成能力。

  • 图生视频 (Image-to-Video): 将 SD 生成的高精度视觉稿导入即梦,快速生成 App 启动页动效或功能演示短视频,增加方案评审的说服力。
  • 中文语义优化: 在处理具有东方美学或特定中文业务场景时,即梦对 Prompt 的语义理解更贴合本土设计语境。

五、 我的协同工作流 (Workflow)

高效协作链路示例:

  1. 策略阶段: Gemini 3 拆解需求,输出设计策略与视觉关键词。
  2. 探索阶段: Midjourney 基于关键词生成视觉意向图,定调审美。
  3. 落地阶段: Stable Diffusion 配合 ControlNet,将意向图风格注入我设计的 UI 图。
  4. 演示阶段: 即梦将静态稿转化为 2-3s 动态交互展示。

六、 总结:

AIGC 的意义不在于取代设计师,而在于将设计师从繁琐的像素劳动中解放出来。在我的视角下,设计不再是单点的像素输出,而是对多个 AI 模型接口的参数调优与逻辑组合


这套工作流让创意探索的成本降低,让我能更专注于产品交互背后的底层逻辑。

Logo

© 2026 Siroui

Github ZCool Behance