跟着豆包AI解码AI创作逻辑与爆款密码
发布日期:2025-10-22浏览次数:
2025年10月13日,北京师范大学新闻传播学院联合豆包,将AI技术实践引入喻国明教授主讲的本科课程《全球互联网发展前沿》,为新闻传播学子带来一场兼具理论深度与实操价值的课堂创新。
喻国明教授表示,在全球互联网技术飞速迭代的背景下,新闻传播学子必须具备技术敏感度与实践创造力。与豆包的合作正是为了打破技术壁垒,让学生能直接接触、使用前沿AI工具,将技术思维融入未来的传播实践中。

课堂伊始,豆包团队以“AI创作模型的底层逻辑”为核心,开启了知识分享环节。在互动提问中,学生们踊跃分享自己接触过的AI生图生视频产品,让现场迅速沉浸在AI创作的氛围中。随后,团队通过两个关键时间节点,梳理了AI生成领域的发展脉络:2012年,吴恩达与Jeff Dean借助Google Brain的1.6万个CPU,用1000万条YouTube猫图像训练神经网络,最终生成模糊猫脸图,迈出AI生图的重要一步;2022年,AI生成作品《太空歌剧院》在美国科罗拉多州博览会数字艺术类比赛中斩获冠军,标志着AI创作正式进入大众视野。
在解析AI绘图原理时,豆包团队重点讲解了GAN(生成式对抗网络)与扩散模型两大主流技术。GAN通过“生成器”与“判别器”的对抗训练,让生成图像不断优化;扩散模型则以“先将清晰图像转化为噪声,再逆向去噪”的方式,结合文本信息逐步生成高质量图像,两种技术的对比讲解让复杂原理变得通俗易懂。同时,团队还介绍了2022年至今的多款优秀产品。

随后,豆包团队还介绍了豆包Seedream4.0模型。该模型的三大核心升级点引发师生关注:“高度特征保持”能在不同创作形态中,精准还原角色特征,让创作全程可控;“深度意图理解” 依托专家级知识储备,既能将 “天马行空” 的模糊灵感转化为具象作品,也能应对复杂专业内容生成的需求,让创意精准落地;“多图输入输出” 功能进一步拓展创作可能性,支持一次性输入多张图像进行组合、迁移、替换、衍生等复合编辑,还能一次性输出多张有内容关联的图像,成为创意脑暴、分镜创作的好帮手。
现场展示的豆包高赞爆款案例更具说服力,其中“写真人像”相关内容在平台上斩获百万级播放量,抖音、小红书上的热门图片与豆包“会唱歌”的能力,也让大家直观感受到豆包AI的传播力。豆包团队指出,“模板只是容器,能引发群体情感共鸣的内容,才是传播的关键”。

豆包团队还在课堂拆解了Prompt(提示词)的构建逻辑:从“主体+细节+风格”的基础框架,到“主体+细节+环境+风格+构图+画质”的进阶框架,一步步指导学生优化提示词。同时,豆包团队还分享了实用技巧——将心仪图片发给豆包并指令“提取prompt”,即可快速获取专业提示词,降低创作门槛。现场实操案例更让大家跃跃欲试,如“佩戴工牌的猫猫+校园课堂背景”的创作指令,展现出精准提示词对出图质量的重要性。

课堂最后进入互动创作环节。在“图生图”“文生图”两大方向下,同学们结合模板发挥创意:有人以“日常快照风格”创作“厌世小猫程序员”图像,有人以“第一人称视角”设计“秋叶拼成的小王子”场景,创作了众多充满巧思的作品。在第二轮创作中,豆包团队提出“AI时代所有内容都值得再做一次”的理念,鼓励同学们围绕季节节日、娱乐热点等主题设计模板,将AI创作与实际传播紧密结合。

此次,豆包AI走进北师大新闻传播学院课堂,不仅为师生们提供了一个接触AI前沿技术的机会,更通过理论讲解与实操互动,让大家深入理解AI创作的逻辑与价值。未来,豆包AI也将持续探索,为更多创作者提供高效、便捷的工具,助力AI创作在各领域绽放光彩。


分享到微博
分享到微信
京ICP备13009620号