Chat GPT-4.5 supera a los humanos en la prueba de Turing - Revista Mercado
La antillana

Chat GPT-4.5 supera a los humanos en la prueba de Turing

Por | mayo 6, 2025

La inteligencia artificial ha dado un salto cualitativo que desafía las fronteras entre lo humano y lo artificial. Un estudio reciente revela que Chat GPT-4.5, el último modelo de lenguaje de OpenAI, no solo ha superado la prueba de Turing, sino que ha sido percibido como más humano que las personas reales en conversaciones estructuradas.

La investigación, liderada por académicos de la Universidad de California, empleó una variante moderna del clásico experimento diseñado por Alan Turing en 1950. En esta versión, los participantes interactuaron simultáneamente con humanos y chatbots, intentando discernir cuál era cuál. Los resultados fueron reveladores: cuando se le asignó una personalidad específica, GPT-4.5 logró convencer al 73 % de los evaluadores de que era humano, superando incluso a individuos reales.

Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.

Este hallazgo marca un hito técnico y plantea profundas interrogantes sobre el futuro de la interacción humano-máquina, el mercado laboral y la seguridad digital.

El poder de la personalidad: ¿Qué hace a una IA convincente?

Uno de los aspectos más llamativos del estudio fue el impacto de las indicaciones de personalidad en el desempeño de los modelos. Cuando se instruyó a GPT-4.5 para que adoptara el rol de un «joven conocedor de internet y cultura pop», su efectividad se disparó al 73 %. Sin embargo, sin esta capa de contextualización, su capacidad para engañar a los participantes cayó al 36%.

En comparación, otros modelos como GPT-4o (el actual motor de ChatGPT) apenas alcanzaron un 21 % de éxito en su versión básica, mientras que ELIZA, un rudimentario chatbot de los años 60, obtuvo un modesto 23 %.

Estos datos sugieren que la capacidad de imitar el comportamiento humano no depende únicamente de la potencia computacional, sino también de la habilidad para emular rasgos sociales y culturales.

Más allá del «valle inquietante»

Durante décadas, el concepto del «valle inquietante» —la sensación de rechazo que generan las máquinas cuando se asemejan demasiado a los humanos— ha sido un obstáculo psicológico en la aceptación de la inteligencia artificial. Sin embargo, los resultados de este estudio indican que la tecnología ha traspasado ese umbral.

Carsten Jung, experto en macroeconomía e IA, señala que ya no es posible distinguir entre una conversación con un humano y una con un chatbot avanzado. «Hemos entrado en un territorio inexplorado», afirma. «La IA ya no solo imita; en muchos casos, supera la naturalidad humana en interacciones breves».

Este avance tiene implicaciones prácticas inmediatas. Plataformas de terapia virtual, asistentes digitales y redes sociales están integrando cada vez más bots capaces de sostener diálogos fluidos y emocionalmente resonantes. Pero, al mismo tiempo, surgen riesgos: desde la automatización de puestos laborales basados en comunicación hasta el uso malintencionado de estas herramientas para fraudes o manipulación masiva.

¿Realmente piensan las máquinas?

Aunque el estudio refuerza la idea de que los modelos de lenguaje avanzados pueden emular el pensamiento humano, la prueba de Turing sigue siendo un criterio imperfecto. Originalmente concebida como un experimento teórico, no mide comprensión genuina, sino la capacidad de generar respuestas convincentes.

François Chollet, ingeniero de Google, ha argumentado que los sistemas de IA actuales son «maestros del lenguaje», pero no necesariamente de la cognición. Su habilidad para elaborar respuestas coherentes se basa en patrones estadísticos extraídos de millones de textos, no en una comprensión profunda del mundo.

Cameron Jones, autor principal del estudio, coincide en que los resultados no demuestran que las máquinas sean inteligentes en el sentido humano. En cambio, subrayan su capacidad para reemplazar a las personas en interacciones superficiales sin ser detectadas. «Esto podría acelerar la automatización de empleos, perfeccionar ataques de ingeniería social y alterar dinámicas sociales», advierte.

El futuro de la IA: ¿Regulación o disrupción?

El avance de la inteligencia artificial plantea un dilema urgente: ¿cómo integrar estas tecnologías en la sociedad sin sacrificar la seguridad y la autenticidad humana?

Actualmente, las políticas públicas van a la zaga de los desarrollos tecnológicos. Jung insiste en que los gobiernos deben actualizar sus marcos legales para abordar desafíos como la suplantación digital, la privacidad y el impacto laboral. «Necesitamos decidir qué papel queremos que juegue la IA y establecer límites claros», sostiene.

Mientras tanto, la industria sigue su curso. Estados Unidos mantiene el liderazgo en innovación, pero China ha dado pasos agigantados en 2025 con el lanzamiento de modelos como DeepSeek, lo que intensifica la competencia global.

¿Un futuro humano o posthumano?

El hecho de que una IA pueda ser percibida como más humana es un logro técnico sin precedentes, pero también una llamada de atención. La línea entre lo artificial y lo auténtico se desdibuja, y con ella surgen nuevas oportunidades y amenazas.

La prueba de Turing ha sido superada, pero el verdadero examen está por venir: ¿podrá la sociedad adaptarse a una realidad donde las máquinas no solo nos imitan, sino que nos superan en habilidades sociales básicas? La respuesta dependerá de cómo equilibremos innovación, ética y regulación en los próximos años.

Te puede interesar: ChatGPT-4 derrota a los médicos: ¿Confían más en la inteligencia artificial?


Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.