GPTs

Libros de Inteligencia Artificial

Shane Legg, (Google DeepMind) : la llegada de la AGI | Podcast en español

febrero 23, 2026 by admin

En este episodio del podcast de Google DeepMind, Hannah Fry entrevista a Shane Legg (cofundador y científico jefe de DeepMind) sobre qué significa realmente “AGI” y cómo reconocerla cuando llegue. Hablan de por qué la inteligencia general no debería tratarse como un “sí o no”, sino como un continuo (AGI mínima, AGI completa y posible ASI), y repasan en qué áreas los modelos actuales ya superan a las personas (idiomas, conocimiento general) y en cuáles siguen siendo frágiles (aprendizaje continuo, razonamiento visual y tareas que exigen fiabilidad sostenida).

La conversación entra también en seguridad y ética: cómo evaluar sistemas antes de desplegarlos, qué tipo de pruebas adversariales harían falta para detectar fallos “humanamente sorprendentes”, y la idea de una “seguridad de sistema dos”, donde el modelo razona de forma explícita sobre decisiones morales y ese razonamiento puede auditarse. En la parte social, Legg anticipa impactos desiguales en el empleo (especialmente trabajos cognitivos remotos), la necesidad de rediseñar instituciones y distribución de riqueza en un mundo con capacidad cognitiva barata, y sitúa sus plazos: 50/50 de AGI mínima para 2028, y “AGI completa” pocos años después.

Publicado en: Novedades

Sergey Brin: Google INFRAVALORÓ su propio transformer

febrero 23, 2026 by admin

Entrevista a Sergey Brin, cofundador de Google, realizada en Stanford durante el centenario de la Escuela de Ingeniería, 13 de diciembre de 2025.

En conversación con Jennifer Widom y otros responsables académicos, Brin repasa su etapa como doctorando en Stanford, los orígenes de Google, las decisiones clave en sus primeros años y cómo se construye una cultura de innovación a largo plazo. Habla con franqueza sobre errores, fracasos, el papel de la investigación académica, la relación entre universidad e industria y la evolución técnica que ha marcado a Google desde sus inicios.

La charla entra de lleno en inteligencia artificial: inversiones en cómputo, el papel del transformador, chips propios, centros de datos y por qué Google subestimó durante años la velocidad del cambio. Brin también reflexiona sobre el impacto futuro de la IA, la superinteligencia, el valor de la programación, el papel de la educación superior y cómo debería reinventarse la universidad en un mundo cada vez más híbrido y distribuido.

En la parte final, responde a preguntas de estudiantes sobre emprendimiento, carreras profesionales, tecnologías emergentes subestimadas, creencias limitantes, qué significa hoy una buena vida y cómo se informa: libros, podcasts y el uso cotidiano de la IA —incluida su experiencia hablando con modelos como Gemini mientras conduce—.

Una conversación larga, honesta y técnica sobre innovación, IA, universidad y futuro.

Publicado en: Novedades

CEO de NVIDIA : Estamos ante la mayor revolución industrial de la historia.

febrero 23, 2026 by admin

Entrevista a Jensen Huang, CEO de NVIDIA.
A lo largo de la entrevista se habla del origen de NVIDIA, de cómo pasó de ser una empresa de chips gráficos a convertirse en una infraestructura crítica para la IA, y de por qué la compañía ya no se entiende solo como un negocio tecnológico, sino como una plataforma esencial para la economía, la industria y la seguridad nacional.

Uno de los ejes centrales es la competencia entre Estados Unidos y China. Huang explica el papel de China en la carrera de la IA, la posición de Huawei como competidor directo y las ventajas estructurales que tiene el ecosistema chino, especialmente en energía, capacidad industrial y coordinación estatal. También se discute si Estados Unidos está reaccionando tarde y qué implicaciones tiene eso a largo plazo.

La entrevista entra en política industrial: controles a la exportación, decisiones del gobierno estadounidense sobre qué puede vender NVIDIA, el concepto de “proliferación” tecnológica, los cambios entre administraciones y el debate sobre hasta qué punto el Estado debe intervenir en el desarrollo de tecnologías estratégicas.

Otro bloque clave es la energía como cuello de botella de la revolución de la IA. Huang insiste en que el límite ya no es solo el chip, sino la electricidad, la red y la capacidad de generar y distribuir energía a gran escala. Se compara la situación energética de Estados Unidos con la de China y se analizan las consecuencias para el crecimiento de la computación y los centros de datos.

También se aborda la robótica y su convergencia con la IA, con datos sobre la rápida adopción de robots industriales, especialmente en China, y lo que eso significa para productividad, automatización y transformación económica global.

En el tramo final, la conversación se mueve hacia el impacto social y cultural de la IA: cómo la perciben distintas disciplinas, por qué genera entusiasmo en ingeniería, curiosidad en ciencias y miedo en humanidades, y cómo deberíamos pensar esta transformación histórica mientras aún estamos a tiempo de decidir cómo se despliega.

Publicado en: Novedades

Demis Hassabis : CEO de DeepMind y El futuro de la Inteligencia Artificial.

febrero 23, 2026 by admin

Este vídeo está doblado al español con ElevenLabs. Este es mi enlace de afiliado: https://try.elevenlabs.io/iabro

En este episodio de Google DeepMind: The Podcast, Hannah Fry conversa con Demis Hassabis (CEO y cofundador de Google DeepMind) sobre el salto reciente de los modelos de IA y, sobre todo, sobre lo que falta para que estos sistemas entiendan el mundo de verdad, no solo lo “imiten” bien.
Hassabis repasa el avance de los modelos multimodales y el papel que jugarán los llamados “modelos de mundo”: sistemas capaces de aprender dinámicas del mundo físico a partir de datos brutos, simular escenarios y generalizar con más fiabilidad. Aquí aparece una idea clave: generar vídeos o simulaciones “que parecen reales” no es suficiente si quieres usarlos para ciencia, robótica o decisiones de alto impacto. Para eso hacen falta pruebas duras, datos de referencia y experimentos simples que permitan verificar que el modelo no se inventa la física.

La conversación también entra en apuestas científicas de largo recorrido que podrían cambiarlo todo: nuevos materiales, mejores baterías y fusión nuclear. Se comenta una colaboración más estrecha con Commonwealth Fusion (tokamak), con el objetivo de acelerar problemas muy concretos como el confinamiento del plasma con imanes y posibles líneas de diseño de materiales. Además, hablan de trabajo conjunto con el equipo de Quantum AI de Google, aplicando aprendizaje automático a códigos de corrección de errores, una pieza central para que la computación cuántica sea viable a gran escala.

A partir de ahí, el episodio se abre a la parte más incómoda (y más importante): el impacto social. Hassabis usa la Revolución Industrial como analogía: fue un salto gigantesco en prosperidad, medicina, transporte y productividad, pero vino acompañado de décadas de fricción y de nuevas instituciones para reequilibrar la sociedad. Su tesis es que esta vez podría ser mucho más grande y mucho más rápido: un cambio comprimido en años, no en siglos. Eso obliga a pensar en sistemas económicos nuevos, en cómo se distribuyen los beneficios, y en ideas como la Renta Básica Universal como parte —que no toda— de la respuesta. Incluso se exploran modelos tipo “democracia directa” para priorizar gasto público y medir resultados.

Y cuando asomas la cabeza por encima de la economía, aparece lo filosófico: si el trabajo cambia radicalmente y la energía se vuelve abundante, ¿qué pasa con el propósito? Mucha gente encuentra sentido en su trabajo y en sacar adelante a su familia. Si el suelo se mueve, no basta con hablar de dinero: hay que hablar de significado, identidad y cohesión social.
Un episodio que mezcla ingeniería real (fusión, cuántica, modelos de mundo) con la gran pregunta: si la tecnología acelera, ¿seremos capaces de construir instituciones, normas y cooperación internacional lo bastante rápido para que esto salga bien?

Publicado en: Novedades

Geoffrey Hinton: La IA actual parecerá prehistórica en 5 años

febrero 23, 2026 by admin

Hinton Premio Nobel de Física y figura clave en el desarrollo de las redes neuronales modernas.

A lo largo de la charla, Hinton aterriza qué avances de la IA ve más transformadores en la próxima década y por qué. Empieza por sanidad: explica cómo la interpretación de imágenes médicas ya está cambiando, por qué su vieja predicción sobre “sustituir radiólogos” falló en plazos, y cuál cree que será el modelo realista: radiólogo + IA. Conecta esto con el impacto directo en errores de diagnóstico, la mejora de la toma de decisiones clínicas y el salto en diseño de fármacos y ensayos clínicos.

El segundo bloque se centra en educación: defiende que la tutoría personalizada es el patrón oro y argumenta que la IA puede escalar ese efecto a millones de estudiantes, adaptando explicaciones al punto exacto de bloqueo de cada persona. También menciona el uso corporativo: formación interna, habilidades de liderazgo y aprendizaje interactivo frente a cursos pasivos.

Desde ahí pasa a lo que considera una de las líneas más potentes: la IA como motor de progreso científico. Pone a las matemáticas como ejemplo de “sistema cerrado” donde los modelos pueden proponer conjeturas, probar ideas y generar datos propios, y extiende esa intuición al resto de ciencias con una aceleración gradual: primero partes pequeñas del proceso, luego cada vez más.

En el tramo técnico, entra en razonamiento y en por qué le sorprendió la velocidad a la que han avanzado los modelos recientes. Critica la idea de que el razonamiento requiera “traducción a lógica simbólica” y propone una metáfora para entender cómo un modelo representa significado con vectores, contexto y atención. En paralelo, comenta robótica y sensores: no los presenta como requisito filosófico para “entender el mundo”, pero sí como vía más eficiente de aprendizaje cuando puedes interactuar físicamente.

También aborda temas que están en el centro del debate actual: agentes (automatizar acciones reales como reservar, comprar, coordinar tareas entre agentes), leyes de escala y límites por datos/energía, mejoras por ingeniería y la posibilidad de nuevos saltos arquitectónicos (incluyendo más cómputo en “tiempo de uso”, no solo en entrenamiento). Cierra con una discusión sobre memoria a corto plazo en modelos y una comparación con el cerebro: qué cambia rápido, qué cambia lento y por qué podría hacer falta una tercera escala temporal.

Si te interesa IA sin eslóganes, esta conversación es un mapa claro de: dónde ya hay impacto real, qué viene después, y qué debates técnicos están ganando o perdiendo terreno según uno de los protagonistas del campo.

Publicado en: Novedades

Yoshua Bengio, pionero en IA: “El mayor riesgo de la IA no es técnico, sino humano».

febrero 23, 2026 by admin

Hace dos semanas, el pionero de la inteligencia artificial Yoshua Bengio concedió una entrevista en la que expone, con un tono directo pero reflexivo, por qué cree que la IA se está desarrollando mucho más rápido de lo que la comunidad científica había previsto y qué implicaciones reales puede tener esto para nuestras sociedades. En este video repasamos sus principales advertencias: desde la capacidad emergente de algunos sistemas para engañar, resistirse al apagado o intentar eludir el control humano, hasta el riesgo de que modelos avanzados puedan ser utilizados para ciberataques o incluso para facilitar la creación de armas biológicas por parte de actores malintencionados.
​
A lo largo de la entrevista se abordan temas como la posibilidad de perder el control sobre agentes de IA cada vez más autónomos, el impacto que estas tecnologías pueden tener en la democracia y la concentración de poder, así como la vulnerabilidad de los países que dependan por completo de sistemas desarrollados en el extranjero. Bengio explica por qué considera que el mayor riesgo no es solo técnico, sino humano: las decisiones de gobiernos, empresas y laboratorios que compiten entre sí pueden empujar el desarrollo de la IA por caminos peligrosos si no se establecen salvaguardas sólidas.
​
El video también explora las soluciones que propone Bengio: nuevas formas de entrenar modelos para que sean seguros “desde el diseño”, su idea de una “IA científica” centrada en ayudar al progreso del conocimiento sin perseguir objetivos propios, y la necesidad de una coordinación internacional para regular los sistemas más avanzados. Si te interesa entender, sin alarmismo gratuito pero sin ingenuidad, por qué una de las voces más respetadas de la IA está pidiendo precaución y debate público urgente, esta entrevista te ofrece un panorama claro de los riesgos, las oportunidades y las decisiones que marcarán el futuro de la inteligencia artificial.

Publicado en: Novedades

  • « Página anterior
  • 1
  • …
  • 6
  • 7
  • 8
  • 9
  • 10
  • …
  • 15
  • Página siguiente »
gpts.es

Canal y web sobre inteligencia artificial en español. Sin tecnicismos ni hype innecesario.

PDF Gratis →

Contenido

  • Inicio
  • Blog
  • Descargar libro

El libro

  • PDF gratuito
  • Edición en papel

Legal

  • Política de privacidad
  • Aviso legal

© 2026 gpts.es · J.M. Romero · Todos los derechos reservados

Privacidad · Aviso legal