谷歌通过AI彻底改变在线购物,推出AI服装试穿功能

近日谷歌宣布了他们新的虚拟试穿功能,允许用户看到衣服在不同体型和尺寸的真实模特身上的外观,给线上购物带了强大的影响和大大改善用户购物体验。
接下来看看这个模型是如何为Google的虚拟试妆(VTO)功能提供支持的:

使用 AI 生成试妆图像

Google虚拟试妆(VTO)功能其实已经走了很长一段路。之前的几何变形等技术可以剪切粘贴,然后使服装图像变形以适应轮廓,但即便如此,最终的图像从未完全达到目标:衣服不能现实地适应身体,而且它们有视觉缺陷,比如错位的褶皱,使衣服看起来畸形和不自然

为此Google着手构建新的VTO功能时,致力于从头开始生成服装的每个像素,以产生高质量,逼真的图像。他们找到了一种新的基于扩散的AI模型的方法。

图片[1]-葫芦娃AI-一起学AI谷歌通过AI彻底改变在线购物,推出AI服装试穿功能-葫芦娃AI-一起学AI葫芦娃AI

(VTO技术可生成高质量、逼真的图像)

 

为了理解这个模型是如何工作的,让我们首先解释扩散:

扩散是逐渐向图像添加额外像素(或“噪声”)直到无法识别的过程,然后完全消除噪声,直到原始图像以完美质量重建。像 Imagen 这样的文本到图像模型使用扩散和来自大型语言模型 (LLM) 的文本,仅根据您输入的文本生成逼真的图像。

Google决定使用扩散来解决 VTO 问题,但在扩散过程中,没有使用文本作为输入,而是使用一对图像:一个是一件衣服,另一个是一个人。每个图像都被发送到自己的神经网络(U-net),并在称为“交叉注意力”的过程中相互共享信息以生成输出:穿着衣服的人的逼真图像。这种基于图像的扩散和交叉注意力的结合构成了新的AI模型。

图片[2]-葫芦娃AI-一起学AI谷歌通过AI彻底改变在线购物,推出AI服装试穿功能-葫芦娃AI-一起学AI葫芦娃AI

(服装的虚拟试穿可让您在与您产生共鸣的真实模特身上渲染上衣)

使用谷歌的购物图数据进行培训

为了使 VTO 功能尽可能有用和逼真,Google对新的 AI 模型进行了严格的培训。但是没有像Imagen那样使用LLM对其进行训练,而是利用了Shopping Graph(购物图),这是世界上最全面的最新产品,卖家,品牌,评论和库存数据集。

使用许多对图像来训练模型,每对图像都包括一个穿着两种不同姿势的衣服的人 – 比方说,一个穿着衬衫的人侧身站立,另一个人向前站立的图像。在这种情况下,AI 模型学习将侧身姿势中的衬衫形状与向前姿势的人相匹配,反之亦然,直到它可以从各个角度生成该人身上衬衫的真实图像。为了更上一层楼,我们使用数百万对不同服装和人物的随机图像对重复了这个过程。结果使可以查看所选型号上的顶部外观。

(扩散模型将图像发送到他们自己的神经网络(U-net)以生成输出:穿着服装的人的逼真图像)

 

我们在线下商店试穿衣服时,可以立即判断它们是否适合自己。如果不是,可以将它们换成不同颜色、款式或价格点的作品,以更好地匹配自己需求。但是在线上却不行…

谷歌推出的这个AI服装试穿功能可以带来试衣间体验。希望各大电商平台以后都能够支持这种AI功能来改善线上购物体验😚

© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容