20%的杨幂+80%的泰勒长什么样?小红书风格化AI来了,可兼容SD和ControlNet
不得不说,现在拍写真真是“简单到放肆”了。
真人不用出镜,不用费心凹姿势、搞发型,只需一张本人图像,等待几秒钟,就能获得7种完全不同风格:
仔细看,造型/pose全都给你整得明明白白,并且原图直出修也不用修了。
这搁以前,不得在写真馆耗上至少整整一天,把咱和摄影师、化妆师都累个半死不活。
以上,便是一个叫做InstantIDAI的厉害之处。
除了现实写真,它还能整点“非人类的”:
比如猫头猫身,但仔细看又有你的脸部特征。
各种虚拟风格就更不用说了:
像style2,真人直接变石像。
当然,输入石像也能直接变:
对了,还能进行俩人脸融合的高能操作,看看20%的杨幂+80%的泰勒长什么样:
一张图无限高质量变身,可是叫它玩明白了。
所以,这是怎么做到的?
基于扩散模型,可与SD无缝集成
作者介绍,目前的图像风格化技术已经可以做到只需一次前向推理即可完成任务(即基于ID embedding)。
但这种技术也有问题:要么需要对众多模型参数进行广泛微调,要么与社区开发的预训练模型缺乏兼容性,要么无法保持高保真度的面部特征。
为了解决这些挑战,他们开发了InstantID。
InstantID基于扩散模型打造,其即插即用(plug-and-play)模块仅靠单张面部图像即可熟练地处理各种风格化变身,同时确实高保真度。
最值得一提的是,它可与时下流行的文本到图像预训练扩散模型无缝集成(例如SD1.5、SDXL),作为插件使用。
具体来看,InstantID由三个关键组成部分:
(1)捕获鲁棒语义人脸信息的ID embedding;
(2)具有解耦交叉注意力的轻量级适配模块,方便图像作为视觉提示;
(3)IdentityNet网络,它通过额外的空间控制对参考图像的详细特征进行编码,最终完成图像生成。
而相比业内此前的工作,InstantID有几点不同:
一是不用训练UNet,因此可以保留原始文本到图像模型的生成能力,并兼容社区中现有的预训练模型和ControlNet。
二是不需要test-time调整,因此对于特定风格,不需要收集多张图像进行微调,只需要对单个图像进行一次推断即可。
三是除了实现更好的面部保真度,也保留了文本可编辑性。如下图所示,只需几个字,即可让形象变性别、换套装、改发型以及发色。
再次强调,以上所有效果只需1张参考图像在几秒内即可完成。
如下图实验证明,多来几张参考图的作用基本不大,1张就能做得很好。
下面是一些具体对比。
比较对象是现有的免调优SOTA方法:IP-Adapter(IPA)、IP-Adapter-FaceID以及前两天腾讯刚刚出品的PhotoMaker。
可以看到,大家都挺“卷”的,效果都不赖——但仔细对比的话,PhotoMaker和IP-Adapter-FaceID保真度都不错,但文本控制能力明显差一点。
相比之下,InstantID的面孔和样式能更好地融合,在实现了更好保真度的同时,还保留了良好的文本可编辑性。
除此之外,还有与InsightFace Swapper模型的比较,你觉得哪个效果更好呢?
作者介绍
本文一共5位作者,来自神秘的InstantX团队(网上没有搜到太多信息)。
不过一作是来自小红书的Qixun Wang。
通讯作者王浩帆也是小红书的工程师,从事可控和条件内容生成(AIGC)方面的研究,是CMU’20届校友。
参考链接:
更新于:11个月前