¿Dónde va tu mirada en la góndola, la vidriera o la web? Ahora lo detectan por Inteligencia Artificial #IA #consumo #eyetracking

Inteligencia Artificial y consumo

Crean una herramienta que emula el comportamiento de la mirada humana

Se llama Deep Gaze y es un motor de IA compuesto por tres redes neuronales profundas que permite testear propuestas gráficas y evaluar comunicaciones, sitios web o aplicaciones antes de lanzarlas. Todo en 5 segundos.

Cognitive Latam agencia de marketing integral especializada en el campo de la Inteligencia Artificial (IA), desarrolló Deep Gaze, una herramienta de IA que permite analizar el comportamiento, los gustos y las preferencias del consumidor a partir de su atención visual.

Lograr modelos de IA que repliquen el procesamiento cognitivo del cerebro humano es un gran logro de esta rama de la ciencia. Su combinación con la neurociencia puede determinar maneras eficientes de atraer usuarios de gran valor.

Deep Gaze es un motor de IA compuesto por dos redes neuronales profundas que se complementan entre sí para emular el comportamiento de la mirada humana frente a un estímulo visual. La herramienta permite testear propuestas gráficas y evaluar propuestas de comunicaciones antes de hacer inversiones en publicidades pagas o en testeos A/B, evaluar los sitios web de los clientes antes de lanzarlos o bien probar si los diseños UX de apps son eficientes. Todo esto se hace en tan solo 5 segundos.

“Lo que este producto reporta en apenas unos segundos es el equivalente a sesiones de eye tracking o seguimiento visual de hasta 50 personas. Nuestro modelo incorpora decenas de miles de resultados de sesiones de eye tracking para proveer un resultado accionables en una fracción de tiempo y con una precisión del 92%. Nos permite ver más allá de lo evidente”, explica Cristian Santander, CEO de Cognitive Latam.

El desarrollo es muy fácil de operar. Para empezar, no precisa de ninguna instalación previa. El interesado sube una imagen, video o archivo de sitio web. Deep Gaze emula el comportamiento del ojo humano y detecta los puntos de atención en el diseño de la imagen. A partir de allí elabora un resultado con una representación gráfica completa de fortalezas y debilidades de la imagen y los transforma en insights accionables, es decir, en acciones concretas.

Las marcas lo usan para testear los conceptos de sus sitios web, la atención de las acciones con call-to-actions o pedido de acciones a los usuarios (como comprar, registrarse, hacer click, etc); evaluar packagings de productos, banners o piezas publicitarias.

“El modelo consta de dos partes o de dos redes neuronales profundas. La primera es una red neuronal convolucional profunda que es la responsable de generar el Mapa de Prominencia Visual (Saliency Map o SAM). En segunda instancia trabaja una Attention Network o red de atención que es la encargada de identificar el orden y las pausas de la mirada humana. De esta manera, Deep Gaze capta los procesos neurocognitivos del hombre emulando la atención que le presta a un objeto o pieza de comunicación al verla”, explica Santander.

El modelado de la prominencia fue un área de investigación activa en visión por computadora durante unas dos décadas. Los modelos de vanguardia que existen hoy funcionan muy bien para predecir dónde y a qué miran las personas.

A través de sesiones de eye tracking con usuarios, Cognitive Latam logró relevar un conjunto de datos de fijación a gran escala para impulsar la investigación de la saliencia y la fijación de la pupila. Los estímulos de Deep Gaze incluyen 4000 imágenes. Son 200 imágenes de 20 categorías diferentes entre las que se pueden enumerar obras de arte, objetos, dibujos animados, ambientes interiores y exteriores, fotos en alta y baja resolución, etc.

“Analizamos algunas propiedades básicas de este conjunto de datos y comparamos algunos modelos exitosos. Nuestro conjunto de datos abre nuevos desafíos para la próxima generación de modelos de prominencia y ayuda a realizar estudios de comportamiento sobre la atención visual”, concluye el CEO de la compañía.

Print Friendly, PDF & Email

Mirá también

¿PUEDE UNA IA REEMPLAZAR A UN JURADO CREATIVO? El experimento de Epica Awards (nos quieren reemplazar :)!

¿PUEDE UNA IA REEMPLAZAR A UN JURADO CREATIVO? Los Premios Epica lo intentaron con su …

Deja un comentario