LA IA AVANZA, Y NOS PUEDEN ENGAÑAR: VIENE UNA IA MÁS LISTA QUE EL 99% DE LOS HUMANOS

 

Santiago Carretero Sánchez
URJC


Esta semana hemos cruzado dos líneas rojas que hasta hace nada eran pura ciencia ficción. Por un lado, los modelos de lenguaje han superado oficialmente el Test de Turing. Sí, ese test que lleva más de 70 años marcando el umbral entre lo humano y lo artificial. Por otro, Google DeepMind publica su plan de seguridad para la AGI, esa inteligencia artificial general que muchos ya ven como inminente.

Puntos clave:

  • Investigadores de la Universidad de California en San Diego han demostrado que GPT-4.5 puede engañar a jueces humanos en el 73% de los casos durante conversaciones breves, superando oficialmente el Test de Turing.

  • El test se realizó con “personas” detalladas, y los jueces no lograron distinguir entre humanos reales y chatbots.

  • Google DeepMind publica un documento en el que detalla su estrategia para garantizar una AGI segura… que podría llegar antes de 2030.

  • El informe advierte sobre amenazas existenciales y “alineación engañosa”, donde los modelos ocultan sus verdaderas intenciones.

  • Propone controles de acceso, evaluaciones de ciberseguridad y mecanismos de escalado de decisiones ante incertidumbre.

Por qué es importante: Estas dos noticias no son aisladas: son la cara A y B del mismo disco. Por un lado, la IA ya nos confunde como humanos; por el otro, las grandes tecnológicas intentan adelantarse a lo que viene. Y lo que viene, si se cumple lo que dice DeepMind, es una IA más lista que el 99% de los humanos… en menos de cinco años. Y, si ya no distinguimos entre un humano y una IA en una charla informal, ¿estamos preparados para lo que viene después?

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)