Back Stage

Se busca vestido rojo, floral y de manga corta: inteligencia artificial para ‘leer’ la moda

La computación visual permite etiquetar automáticamente miles de referencias en una plataforma web. ¿Las ventajas? Menos carritos abandonados, menos frustración y más conversión.

Iria P. Gestal

23 may 2022 - 04:44

Se busca vestido rojo, floral y de manga corta: inteligencia artificial para ‘leer’ la moda

 

 

No toda la innovación es tecnológica, pero la tecnología se ha convertido en una herramienta clave en la transformación de todos los sectores, también la moda. En esta nueva serie, patrocinada por Desigual, Modaes.es repasa los sistemas, modelos y herramientas que hoy suenan aún a ciencia ficción pero que definirán el futuro del sector.

 

 

 

 

En 2004, el psicólogo estadounidense Barry Schwartz acuñó el concepto La paradoja de la elección para referirse a que el ser humano tiende a estar más insatisfecho con sus decisiones cuantas más opciones tiene para el elegir. En moda, en ningún sitio hay más opciones que en el canal online. La inmensidad de oferta es, a la vez, su mayor ventaja respecto al brick y su mayor debilidad. Entre miles de SKUs, ¿cómo encontrar algo tan específico como un vestido rojo, de flores y de manga corta?

 

La respuesta es la inteligencia artificial. Algoritmos que, mediante deep learning, son entrenados para “leer” imágenes (computación visual) y extraer de ellas características como el largo de una prenda, el color o el fitting.

 

Después, esas cualidades se insertan en los metadatos, permitiendo que cuando un usuario busca una prenda con esas características en una página web la encuentre rápidamente. Si todas las referencias están etiquetadas correctamente, también mejora la venta cruzada: si un comprador busca una camiseta blanca, la web puede ofrecerle rápidamente otras similares, o incluso unos pantalones que vayan a juego.

 

 

 

 

La tecnología que permite este proceso existe desde la década de los sesenta, pero no comenzó a desarrollarse a escala hasta hace menos de diez años. “En primer lugar, porque hace falta un gran volumen de datos para “enseñar” al algoritmo, y las tecnologías de procesamiento y almacenamiento de datos se han abaratado mucho en los últimos ocho años; y en segundo lugar porque las redes neuronales artificiales que se emplean para la computación visual se han desarrollado mucho en los últimos años”, explica Roland Simon, cofundador de Pixyle, una compañía especializada en este tipo de soluciones.

 

La tercera razón es el crecimiento exponencial del ecommerce en los últimos años. Según datos de Google Cloud, el 94% de los usuarios que visitan una web obtienen resultados irrelevantes cuando realizan una búsqueda, y el 76% abandonan la página tras no encontrar lo que buscaban. Sólo en Estados Unidos, esto supone 300.000 millones de dólares en ventas perdidas sólo por malas experiencias en la búsqueda.

 

El proceso se divide en dos fases: en primer lugar, el algoritmo debe identificar que en esa imagen hay una prenda de ropa. Para ello, primero hay que entrenar un algoritmo. “Es como enseñar a un niño pequeño: le muestras una imagen y le dices ‘esto es un perro’; después otra, y luego otra, y al final aprende a diferenciarlo de un gato”, ejemplifica Eva García San Luis, socia responsable de Kpmg Lighthouse.

 

Ese proceso de “leer imágenes” es lo que se denomina computación visual. “La inteligencia artificial no hace más que replicar lo que puede hacer el ser humano: leer, oír, hablar, escribir o, en este caos, ver imágenes”, dice la experta.

 

 

 

 

García San Luis explica que esta tecnología, que en retail comenzó a emplearse para el márketing personalizado, tiene hoy casos de uso tan distintos como la seguridad vial, el onboarding en un banco o el peritaje en los seguros.

 

“Todas las empresas pequeñas o grandes deberían tener este tipo de herramientas”, defiende la experta, que apunta que hoy existen muchas herramientas open source que lo hacen accesible para empresas de cualquier tamaño.

 

La segunda fase es la extracción de información en base a una taxonomía previa ya definida. Primero, se establece a qué categoría pertenece la prenda (camiseta, pantalón, vestido, etc.) y, después, qué atributos tiene (color, largo, ocasión, etc.).

 

Pixyle tiene definidas sesenta categorías y más de trescientos atributos. “La taxonomía es una de las partes más complejas del proceso, sobre todo porque en moda no es homogénea”, dice Simon. En inglés, por ejemplo, una compañía puede llamarle pants a los pantalones, mientras que otra utiliza la palabra trousers.

 

“La búsqueda es uno de los caballos de batalla a la hora de diseñar una web -argumenta Javier Vello, socio responsable de distribución y consumo para EY Med-; los usuarios hacemos búsquedas desestructuradas, pero la web debe ser capaz de estructurarlo en unas etiquetas”.

 

 

 

Además, Vello apunta que tener bien identificados estos atributos de cada producto no sólo ayuda en las búsquedas, sino que también es útil para mejorar la analítica web, conociendo rápidamente, por ejemplo, qué atributos comparten las prendas que más se devuelven o las que más se abandonan en el carrito.

 

Simon reconoce que la mayor debilidad del sistema es que sólo puede extraer información de una imagen. “Depende de la información que haya en esa fotografía, si no aparece, no lo puede identificar”, apunta el ejecutivo. Por ello, es complejo identificar, por ejemplo, el material con el que está fabricada una prenda, o si un vestido tiene la espalda abierta si la fotografía está hecha de frente.

 

“Pero la tecnología está evolucionando”, recuerda Simon, que apunta que la empresa ha mejorado su algoritmo para poder reconocer elementos en fotografías generadas por usuarios, y no en un estudio, ya que las plataformas de segunda mano se han convertido en uno de sus principales clientes.

 

Prueba del creciente interés por estas soluciones es la multitud de compañías que han nacido en los últimos años especializadas en este tipo de herramientas. Pixyle fue fundada en 2017 en Países Bajos por Simon y Svetlana Kordumova, doctorada en computación visual, y trabaja para compañías como Depop.

 

 

 

 

Otra compañía que ofrece una solución similar es Vue.ai, que asegura ser líder en el sector minorista con más de 2.400 millones de etiquetas generadas para unos 480 millones de productos de moda, alimentación, electrónica o decoración.

 

La empresa sostiene que su solución aumenta un 50% las conversiones y un 58% los ingresos por usuario, y trabaja con empresas como El Corte Inglés, Mercado Libre, Diesel o ThredUp. Vue.ai es un spin off de Mad Street Den, especializada en diferentes soluciones de computación visual, que fue fundada en 2014 por Ashwini Asokan tras más de una década de experiencia en Silicon Valley.

 

Otro operador en este campo es Clarifi, fundada en 2013 por Matthew Zeiler, especialista en machine learning. La empresa está participada por fondos como CPP Investments, Nea o GV y tiene también soluciones para el sector de la aviación, la banca, el turismo o el sector público.

 

Otra compañía más joven es BrountonLab, fundada en 2017 en Israel por Michael Yurushkin y que opera en el sector del retail a través de su filial Sales Vision, con la que ofrece servicios de etiquetado, búsqueda visual y motores de recomendación.