作为一个有创作输出需求的打工人,我时常需要一些 AI 创作工具来辅助我剪辑视频或者创作文章,懂得都懂。。以前每次剪视频都像在走迷宫:先用 AI 生成脚本、再找 Veo3、即梦、可灵...出画面、转去 Vidu 剪片段,最后换剪映成片,文件传得像接力棒,参数调得快忘了最初要啥效果。直到试了 LiblibAI 2.0 才反应过来:原来 AI 创作早该是 "一间工作室" 的样子,而不是一堆零散的工具零件。
起初只是因为大号”数字生命卡兹克“发了这篇文章,我才知道哩布哩布竟然推出了2.0版本。
以前对Liblib的印象还停留在“国内最著名的模型开源社区””国内最大SD生态开源社区”上,我们都亲切地喊它为“哩布酱”,没想到AI时代的风还是吹到了liblib。如今的AI战场,好比是春秋战国,群雄崛起,四分五裂。
Liblib 再一次率先站出来,就像当年Liblib横空出世,一统江湖,成了中国最大的SD模型社区,也成了线上AI绘图的首选网站。这次2.0版本的推出,又让人看到了哩布哩布迈出的一大步。拥抱新时代的到来,不创新,毋宁死。
LiblibAI 2.0 直接把图片、视频、特效、资产四大模块全打通,生图后直接拖去做视频首帧,想加 "捏捏乐" 特效点一下就调用,不用再存成文件来回倒腾。
图片模型几乎集齐了所有主流AI绘图模型,MJ7、Qwen Image、F.1、Kontext + Seedream4、Nano、Midjourney、Img1…

内置 Kling、Hailuo、Vidu、WAN 等顶级视频模型。还可以一键复刻特效模板,500+ 独家专业视觉特效,让每一帧都能达到影视级品质。

最爽的是它懂创作逻辑,不是硬堆功能。新手想做个 "猫猫爆炸特效视频",不用研究该选可灵还是海螺模型,系统会自动匹配最合适的工具链,连运镜参数都给预设好了。
这事儿的核心不是 "模型变多了",而是创作流程被彻底理顺了。以前用 AI 是 "抽卡式创作",同个 prompt 在不同平台试十几次才出效果;现在更像 "流水线生产",从线稿到视频成片,所有步骤都在同一界面完成,生成的素材自动进云端资产库,下次复用直接拽出来。
有人说这不就是 "整合工具"?还真不一样。工具合集是给你一堆锤子扳手,工作室是给你一套生产线。LiblibAI 2.0 保留了 ComfyUI 工作流入口,专业选手能搭自定义节点;同时做了极简生成器,小白输句 "星空机甲少女"20 秒出 4K 图。就像同一个工作室里,新手能用预制模板,老师傅能自己改机床参数,丰俭由人。
卡兹克之前说 "AI 比游戏好玩,因为能亲手造世界"。现在 LiblibAI 2.0 把造世界的门槛拉低了 —— 不用记一堆平台地址,不用学复杂操作,打开网页就是一间全配工作室。10 月 31 日前登录还送 200 点免费算力,相当于免费用工作室设备试手。
说白了,AI 创作的终极形态从来不是 "更多工具",而是 "更少麻烦"。LiblibAI 2.0 这次没玩虚的,是真把创作者从平台切换里解放出来了。
AI时代,日新月异。善用工具,才是自身最大的核心竞争力。
不多说了,我去用它肝新文了。附上平台地址:https://www.liblib.art/