¿Qué significa que una inteligencia artificial sea verdaderamente inteligente?
En una era donde el concepto de Artificial General Intelligence (AGI) gana protagonismo en medios, congresos y desarrollos tecnológicos, resulta clave revisar qué se está evaluando realmente cuando se afirma que una IA es «inteligente». Este interrogante es especialmente relevante para quienes aplican tecnologías cognitivas en el análisis de campañas y experiencias de cliente.
El artículo «How Smart is Smart? A Critical Interdisciplinary Perspective on Artificial General Intelligence» de Thomas Zoëga Ramsøy ofrece una mirada interdisciplinaria crítica que cuestiona los fundamentos conceptuales, filosóficos y metodológicos de la AGI. Lejos de sumar otra voz al optimismo generalizado, Ramsøy propone una revisión rigurosa sobre cómo se construyen las métricas que supuestamente miden inteligencia artificial.
The Chinese Room: cuando la simulación reemplaza la comprensión
Uno de los ejes centrales del texto de Ramsøy se apoya en una conocida metáfora filosófica: el experimento mental de The Chinese Room, propuesto por John Searle. En él, una persona que no comprende chino responde mensajes en ese idioma utilizando un conjunto de reglas preestablecidas. Desde el exterior, su comportamiento es indistinguible del de un hablante fluido, pero en realidad no entiende nada.
Esta metáfora ilustra con claridad cómo muchos modelos de inteligencia artificial —especialmente los basados en procesamiento de lenguaje natural— pueden generar respuestas sofisticadas sin poseer comprensión real. Simulan entender, pero lo hacen a través de correlaciones estadísticas y no por medio de procesos semánticos o cognitivos.
En este contexto, Ramsøy plantea que gran parte del desarrollo actual en IA se encuentra atrapado en una lógica de narrow optimization, es decir, optimización enfocada en rendir dentro de límites muy específicos. Los modelos son eficientes en resolver tareas definidas, pero no poseen capacidad de generalización ni introspección auténtica.
Benchmarking artificial: medir lo que no se comprende
Otro aspecto que el autor aborda con profundidad es la crítica a los métodos de evaluación utilizados para afirmar avances en AGI. Muchos de los benchmarks actuales, como el Turing Test o los denominados frontier benchmarks, no evalúan comprensión, sino la habilidad de un sistema para emitir respuestas convincentes en un contexto determinado.
En términos psicométricos, se trataría de premiar la memorización de respuestas sin evaluar procesos como razonamiento abstracto, aprendizaje flexible o transferencia entre dominios. Además, Ramsøy alerta sobre un problema metodológico serio: algunos modelos han sido entrenados con datos que contienen fragmentos de los mismos tests que luego se utilizan para validarlos. El resultado es una ilusión de progreso que carece de base científica.
Consecuencias para el marketing y la experiencia del cliente
Este debate no es únicamente técnico o filosófico. Tiene implicancias directas en la forma en que las empresas utilizan inteligencia artificial para diseñar experiencias, mensajes y estrategias comerciales.
La dependencia de modelos que simulan comprensión sin alcanzarla puede llevar a construir campañas que parecen efectivas en superficie —por ejemplo, en términos de engagement o CTR—, pero que fallan en generar una conexión auténtica con el consumidor. Los modelos actuales pueden anticipar clics, pero no capturar la resonancia emocional. Pueden replicar palabras clave, pero no generar significado real.
Frente a este escenario, integrar IA con modelos provenientes de las neurociencias y la psicometría ofrece una alternativa más sólida. El valor no reside únicamente en la capacidad de procesar grandes volúmenes de datos, sino en interpretar esos datos desde marcos conceptuales que contemplen el comportamiento humano, la atención, la motivación y la emoción.
Hacia una inteligencia más consciente de sus límites
El texto de Ramsøy no niega el potencial de la IA. Al contrario: lo potencia al exigir mayor rigor conceptual, metodológico y ético. Su propuesta no es abandonar la carrera hacia sistemas más avanzados, sino redefinir qué significa «progreso» en ese rumbo.
Desde la perspectiva de la neurociencia aplicada al marketing, este enfoque obliga a repensar cómo se diseñan herramientas, cómo se interpretan métricas y cómo se comunican los resultados de la IA a los tomadores de decisiones.
AGI no es solo una cuestión de escala computacional. Requiere una comprensión profunda de lo que entendemos por inteligencia, y eso implica revisar también los sesgos desde los cuales se desarrollan los modelos, se diseñan los tests y se venden los resultados.
Frente a un entorno saturado de promesas exageradas, el verdadero diferencial estará en construir inteligencia artificial que, sin pretender ser humana, contribuya genuinamente a entender a los humanos.