En este episodio del podcast de Google DeepMind, Hannah Fry entrevista a Shane Legg (cofundador y científico jefe de DeepMind) sobre qué significa realmente “AGI” y cómo reconocerla cuando llegue. Hablan de por qué la inteligencia general no debería tratarse como un “sí o no”, sino como un continuo (AGI mínima, AGI completa y posible ASI), y repasan en qué áreas los modelos actuales ya superan a las personas (idiomas, conocimiento general) y en cuáles siguen siendo frágiles (aprendizaje continuo, razonamiento visual y tareas que exigen fiabilidad sostenida).
La conversación entra también en seguridad y ética: cómo evaluar sistemas antes de desplegarlos, qué tipo de pruebas adversariales harían falta para detectar fallos “humanamente sorprendentes”, y la idea de una “seguridad de sistema dos”, donde el modelo razona de forma explícita sobre decisiones morales y ese razonamiento puede auditarse. En la parte social, Legg anticipa impactos desiguales en el empleo (especialmente trabajos cognitivos remotos), la necesidad de rediseñar instituciones y distribución de riqueza en un mundo con capacidad cognitiva barata, y sitúa sus plazos: 50/50 de AGI mínima para 2028, y “AGI completa” pocos años después.
El Hostión que Viene
196 páginas sobre IA, automatización e impacto económico. PDF gratuito.