“No tenía sentido que, en pleno siglo XXI, estuviéramos obligados a convertir en palabras aquello que estamos viendo y que la única vía para conectar con la moda fuera a través de palabras o por la navegación por categorías. Esta experiencia de compra debía evolucionar hacia una experiencia más intuitiva y gratificante”, recuerda Luis Manent, la máxima que se había marcado junto a sus socios Rodolfo Guichón, Miguel Pousa y Long Long Yu, para desarrollar Wide Eyes Technologies.
“Ahora, iniciar una búsqueda a partir de una imagen está a la orden del día. Grandes referentes del sector como H&M, Asos o Amazon, o players como Pinterest, han incorporado la opción de búsqueda por imagen para dar respuesta a las necesidades de las generaciones más modernas. Pero, en 2013, solo había tres opciones: describir el producto en Google o en los buscadores por texto de los principales ecommerce de moda, con el atenuante de que el 80% de búsquedas por texto en moda llevan a la frustración. Otra opción era ir de tiendas o navegar por las distintas categorías y páginas de productos de los ecommerce de moda de referencia. O preguntar a la persona en cuestión dónde se lo había comprado. Quizás esta sería la opción más práctica. Pero la respuesta no siempre era satisfactoria. ¿Qué pasa si es un producto de una temporada anterior?”, plantea Manent.
Gracias a Wide Eyes Technologies, una de las 50 startups españolas que forman parte de nuestra cuarta ‘Lista Emprendedores’, “los consumidores pueden al fin comprar la moda que ven en la calle con una simple captura, sin necesidad de buscar por texto o navegar por los menús o categorías de un ecommerce. Y los retailers pueden conectar fácilmente el estilo de la calle con sus productos. Así, ofrecemos el one-click revolution: Lo quiero, lo tengo”, destaca Manent.
En sus inicios tuvieron que hacer un gran trabajo de pedagogía para que los retailers apreciaran el valor y potencial de la inteligencia artificial y del reconocimiento visual. “La búsqueda por imagen la veían como una funcionalidad superflua. En 2014, lanzamos Similify, una app que fue catalogada como el ‘Shazam de la moda’, ya que permitía comprar moda a partir de una imagen. Estuvo en funcionamiento un año; el tiempo justo para ver y demostrar que la tecnología tenía sentido y, sobre todo, una gran aceptación por el público. Adicionalmente, con el boom de Instagram y de las influencers, nació la necesidad extrema de conectar las tendencias con el catálogo de productos de forma automática. Es cuando nos posicionamos como un referente SaaS de soluciones de IA para los retailers y marcas de moda. Evidentemente, había otras soluciones en el mercado. Pero no todas tenían nuestro background de años de investigación y, sobre todo, nuestra especialización en el sector de la moda. Porque no es lo mismo reconocer muebles o flores, que ropa o accesorios. En la moda, los matices importan, y mucho. O acaso, ¿todas las camisas blancas son iguales?”.
Su cartera de clientes se focaliza en Europa y EEUU. “Somos los partners de IA de los principales players de la industria de la moda, desde los líderes mundiales del fast-fashion a grandes referentes del marketplace como Privalia. Pero también damos cobertura con nuestras soluciones a startups españolas como 21 Buttons o Photoslurp”.
Entre los objetivos de la compañía está “reforzar nuestro liderazgo como empresa SaaS de IA para la industria de la moda y abrir nuevos mercados y verticales. Para ello, estamos reforzando nuestro equipo de investigación para ofrecer siempre las soluciones más avanzadas y estamos valorando abrir oficinas en EEUU”.
Hasta ahora, ha captado la atención de fondos importantes como K Fund y All Iron Ventures. “Para nuestros planes de futuro, estamos valorando el impacto y las necesidades de financiación, pero sí vamos a necesitar buscar nuevas inversiones”.