Cómo la Inteligencia Artificial y la Realidad Virtual pueden reconocer tus emociones

Uno de los puntos pendientes de las nuevas tecnologías es tener una relación más cercana con el ser humano, y traspasar la barrera que separa a la máquina de la persona. Este es uno de los retos más destacados de la tecnología, en especial de la Inteligencia Artificial.

Detectar las emociones de las personas es algo que, hasta hoy, solo podemos hacer los humanos. Sin embargo, ya se ha comenzado a trabajar en distintos modelos de Redes Neuronales que sean capaces de identificar reacciones básicas como alegría, tristeza o miedo.

Como ya hemos contado en artículos anteriores, las Redes Neuronales son un subconjunto del Machine Learning capaces de descubrir patrones complejos enterrados en grandes conjuntos de datos. Más concretamente, las Redes Neuronales Convolucionales se utilizan para el análisis de imágenes, lo que, tras mucho entrenamiento, puede derivar en el reconocimiento de emociones. Teniendo en cuenta que las expresiones faciales de los seres humanos son comunes, es comprensible que se basen en el mismo sistema de aprendizaje que el reconocimiento sencillo de imágenes.

[Tweet «Las Redes Neuronales convolucionales y el reconocimiento de las emociones humanas vía @bravent»]

Aun así, todavía queda mucho trabajo por realizar, ya que, cuando las emociones son algo más complejas o ambiguas, aún no son capaces de reconocerlas con exactitud.

Con todo esto, ¿qué pasaría si juntáramos esta tecnología con Realidad Virtual? Esto es lo que se han planteado investigadores de la Universitat Politècnica de València y la Universidad de Pisa, que están aplicando ambas tecnologías para conocer los posibles resultados de los futuros desarrollos urbanos de la población.

[Tweet «¿Qué pasa si juntamos Realidad Virtual con Inteligencia Artificial?»]

A través de la RV, se muestran entornos que todavía no se han aplicado en el mundo real a las personas, y las Redes Neuronales miden el impacto emocional que genera a través de sus expresiones faciales.

De esta manera, es posible conocer de antemano el grado de aceptación ante diferentes propuestas y facilitar el proceso de toma de decisiones. Los entornos presentados variaban en el color, la iluminación y la geometría de la sala.

Este experimento resultó exitoso en el 70% de los casos, lo que muestra que estamos yendo por el buen camino, y que para finales de la década podremos llegar incluso a reconocer las emociones a tiempo real.