Logo Yulieth Martínez

La IA no puede sentir emociones, pero es capaz de reconocerlas en una imagen

julio 11, 2025 | -

Durante años, la inteligencia artificial ha sido tema de conversación en los cafés, en los laboratorios, en los medios y también en mis propias reflexiones como consultora IT. A veces escucho frases como “la IA va a reemplazarnos a todos”, o incluso, “las máquinas van a tener emociones”. Pero si algo he comprobado tanto en mi trabajo como en mi vida personal, es que aunque la inteligencia artificial avanza a pasos de gigante, hay algo que no puede (ni debería) replicar: la experiencia emocional humana.

¿Entonces por qué decimos que “reconoce” emociones?

El reconocimiento de emociones por parte de una IA no es una cuestión de empatía, sino de patrones. Cuando un modelo entrenado con visión computacional analiza una imagen, lo que hace no es “sentir” tristeza, alegría o miedo; lo que hace es identificar rasgos, combinaciones de expresiones faciales, posturas, e incluso señales contextuales (como lágrimas, sonrisas, ojos entrecerrados, o un ceño fruncido). A partir de ahí, asigna probabilidades a lo que podría estar sintiendo la persona en la imagen.

Esto es especialmente útil en múltiples campos: desde el análisis de contenido audiovisual para marketing, hasta la detección de fatiga en conductores, pasando por aplicaciones en educación o salud mental. Incluso lo he explorado de cerca en mis propios proyectos cloud, integrando servicios cognitivos de Azure para analizar emociones en videollamadas o plataformas de aprendizaje. Y sí, da resultados sorprendentes. Pero también invita a la reflexión.

No todo lo que brilla es empatía

Una IA puede detectar tristeza en una foto, pero no sabe si esa tristeza viene de una pérdida, de una decepción o simplemente de una tarde nublada. Y esto es fundamental entenderlo, sobre todo cuando trabajamos con datos sensibles. En un mundo que cada vez nos exige más automatización, más precisión y menos errores, no podemos perder de vista que detrás de cada imagen analizada hay una historia, una vida, una subjetividad.

Desde mi experiencia como mujer ingeniera, comprometida con el bienestar y con una visión humana de la tecnología, defiendo que usemos estas herramientas con responsabilidad. La IA puede ayudarnos a ampliar nuestras capacidades, pero no a reemplazar nuestra humanidad. Y por eso mismo, cada vez que participo en el diseño o despliegue de soluciones en la nube, tengo presente una regla que para mí es clave: que la tecnología sirva para conectar, no para despersonalizar.

¿Y hacia dónde vamos?

En este momento, modelos como GPT-4o ya pueden interpretar emociones a partir de texto, voz e imagen de manera simultánea. Pueden ver una imagen tuya sonriendo, escuchar tu tono de voz animado y concluir que estás feliz. Pero aún con toda esta sofisticación, no hay una conciencia detrás de esas predicciones. No hay un “yo siento contigo”. Hay un “yo reconozco este patrón y lo clasifico como…”.

Y sin embargo, como consultora, no puedo negar que esto abre oportunidades emocionantes. Imagina una aplicación que reconozca si un adulto mayor que vive solo está en riesgo emocional. O una interfaz que adapte su nivel de dificultad al estado emocional del estudiante. O un sistema de salud que priorice a pacientes con signos visibles de angustia.

La clave está en cómo usamos esta capacidad. Porque aunque la IA no pueda sentir, nosotros sí. Y es esa sensibilidad humana la que debe seguir marcando la pauta.