GPTs

Libros de Inteligencia Artificial

Elon Musk : La IA será más inteligente que cualquier humano este mismo año.

febrero 23, 2026 by admin

En este encuentro en Davos, Larry Fink (CEO de BlackRock) charla con Elon Musk en un tono sorprendentemente cercano, con bromas al principio y, enseguida, una conversación a fondo sobre lo que viene.

Hablan de IA y robótica como motor de “abundancia” (y también de sus riesgos), de por qué la energía —más que los chips— puede ser el cuello de botella, y de cómo China está acelerando con solar a una escala brutal. Musk explica por qué SpaceX apuesta por la reutilización total de cohetes para abaratar el acceso al espacio, y cómo eso podría abrir la puerta a infraestructura tecnológica fuera de la Tierra, con ventajas claras de energía y refrigeración.

También hay un tramo más personal: ciencia ficción, curiosidad por el universo, la posibilidad de vida extraterrestre, y hasta una reflexión sobre el envejecimiento y lo que significaría vivir mucho más tiempo. Cierra con un mensaje sencillo: apostar por el optimismo, incluso si te equivocas, suele mejorar la vida.

Publicado en: Novedades

Elon Musk: Singularidad, AGI, Tesla Optimus, Renta Alta Universal y mucho más.

febrero 23, 2026 by admin

En esta conversación larga y sin filtros, Elon Musk traza un mapa del “próximo tramo” de la revolución tecnológica: no el largo plazo abstracto, sino los próximos 3 a 7 años, donde la IA y la robótica pasan de promesa a infraestructura del mundo. La entrevista mezcla cronologías concretas, cuellos de botella reales (energía, chips, refrigeración, logística), y una tesis central: la transición será brusca, pero el destino puede ser abundancia si se gobierna bien.

A lo largo de casi tres horas se cruzan cinco ejes:

**1) La cronología: de AGI a la “singularidad práctica”**
Musk insiste en que ya estamos dentro del fenómeno (no “llega”, “está ocurriendo”) y que el ritmo no se puede regular con un simple interruptor. La discusión baja a tierra: mejoras algorítmicas, hardware que progresa a la vez y una aceleración que no depende de una sola empresa. El resultado, según su lectura, es un salto de capacidad año a año que cambia el significado de “competir”, “trabajar” y “planificar”.

**2) Trabajo y economía: del coste laboral al coste energético**
Aquí aparece una idea repetida: la automatización no llega como un “apagón”, sino como una sustitución incremental que, de repente, se vuelve irreversible cuando empresas “AI-first” aplastan a las que no lo son. Se habla de qué se sustituye antes (trabajo de oficina y tareas digitales) y qué queda para más tarde (moldear átomos: robótica). En paralelo, se plantea un escenario de “alto ingreso universal” o, más exactamente, de bienes y servicios universalmente accesibles por deflación y productividad extrema. No se vende como consigna política, sino como problema de estabilidad social: qué pasa durante el periodo intermedio.

**3) Energía: el bucle interno de todo**
La parte más técnica gira alrededor del verdadero limitante: no “más modelos”, sino electricidad disponible, conversión de potencia, transformadores, refrigeración líquida y capacidad de poner chips a funcionar de forma estable. Se discute por qué la energía es el cuello de botella inmediato, por qué las baterías (almacenamiento y gestión de picos) pueden duplicar el rendimiento efectivo sin construir nuevas plantas, y por qué el debate público suele ir por detrás del problema físico.

**4) EE. UU. vs. China: producción, escala y ventaja industrial**
El contraste se centra en capacidad de fabricación y despliegue (solar, baterías, vehículos eléctricos, computación). No es un bloque ideológico: es una comparación de velocidad industrial, inversión y ejecución. La entrevista pone el foco en lo que decide la carrera: infraestructura, energía, cadena de suministro, y la capacidad de activar chips a escala, no solo producirlos.

**5) Robótica humanoide y la “triple exponencial”**
Musk describe la robótica como producto de tres curvas que suben a la vez: software de IA, chips y destreza electromecánica. Con eso argumenta por qué el progreso no es lineal y por qué, cuando la base está lista, el despliegue puede volverse masivo. Se baja al terreno de casos de uso: manufactura, servicios y, de forma provocadora, medicina (robots capaces de operar con precisión superior y conocimiento compartido). La idea no es solo “un robot”, sino una flota que aprende en conjunto.

**Otros temas que aparecen con fuerza**

* Centros de datos: del mito de “más GPU” al mundo real de permisos, interconexión, turbinas, picos de carga y megabaterías.
* Espacio y Starship: reutilización rápida como punto de inflexión, reabastecimiento orbital, coste marginal, y cómo eso habilita nuevas economías (incluida computación fuera de la Tierra).
* Educación: la universidad como experiencia social, tutores personalizados por IA, y el fin del “contrato social” tradicional (estudia–título–empleo).
* Valores y seguridad: una propuesta simple y polémica como “núcleo”: verdad, curiosidad y belleza como restricciones deseables para sistemas avanzados.

**Qué te llevas del episodio**
Una visión coherente (te guste o no) de cómo se conecta todo: energía → computación → IA → robótica → productividad → reorganización social. No es una charla motivacional: es un diagnóstico duro sobre la transición y una apuesta por el escenario “Star Trek” como objetivo explícito, con el aviso de que el tramo intermedio es donde se decide casi todo.

Publicado en: Novedades

Demis Hassabis CEO de Google DeepMind ¿Qué pasará cuando la IA nos supere?

febrero 23, 2026 by admin

En este episodio especial desde Davos, Alex Kantrowitz conversa con Demis Hassabis, CEO de Google DeepMind, sobre el camino realista hacia la AGI: por qué el progreso no se está “agotando”, qué avances faltan (memoria, aprendizaje continuo, planificación), y si los modelos actuales son una pieza clave o solo una parte del sistema final.

Hablan del futuro de los productos nativos de IA en Google —agentes, búsqueda, YouTube y un “AI Inbox” que elimine el trabajo de gestionar correo—, del debate sobre burbuja y monetización, y de por qué la confianza (privacidad y seguridad) será decisiva si algún día aparecen anuncios en asistentes.

También adelantan el salto de forma: gafas inteligentes con Gemini como asistente manos libres, con prototipos y socios como Warby Parker, Gentle Monster y Samsung. Y cierran con la gran promesa: cuando los modelos superen el conocimiento humano y exploren territorio nuevo “tipo AlphaZero”, podrían acelerar descubrimientos en ciencia, materiales, energía y fármacos.

Publicado en: Novedades

Dario Amodei y Demis Hassabis : Nos quedan 2 años de normalidad

febrero 23, 2026 by admin

La entrevista gira en torno a dos preguntas: cuándo llegaremos a la IAG y qué pasa después (beneficios, riesgos, empleo y geopolítica).

Sobre el calendario, Darío mantiene una visión rápida: cree que no estamos lejos y que el gran acelerador será que los modelos se vuelvan muy buenos en programación e investigación de IA, ayudando a crear la siguiente generación de modelos y “cerrando el ciclo” de mejora. Aun así, reconoce límites que no se aceleran igual: chips, fabricación y tiempos de entrenamiento. Demis se mantiene más cauto: ve avances fuertes en áreas donde el resultado es fácil de verificar (programación, matemáticas), pero cree que en ciencias naturales es más difícil porque validar hipótesis exige experimentos y tiempo. También señala que falta algo crucial: no solo resolver problemas existentes, sino formular buenas preguntas y construir teoría o hipótesis con creatividad científica.

En la parte de “carrera”, Demis defiende que DeepMind puede volver a liderar por su base investigadora, y que el reto era recuperar foco y velocidad de despliegue a producto. Darío aborda el miedo a que los laboratorios independientes no aguanten: argumenta que, a medida que los modelos mejoran, su capacidad de generar ingresos crece muy rápido, y que si siguen haciendo los mejores modelos en su foco, el negocio puede sostenerse.

Luego se discute “cerrar el ciclo”: Demis cree que la IA será una tecnología “normal” con competencia y seguidores que alcanzan, y que el cierre completo del ciclo es incierto, especialmente cuando entra el mundo físico: robótica e IA física meten hardware “en el circuito” y frenan. Aun así, ve más plausible el efecto en programación y matemáticas.

El bloque de riesgos contrapone el optimismo sobre beneficios (curas, ciencia, comprensión del universo) con preocupaciones serias: uso malicioso individual (por ejemplo, bioterrorismo), uso por gobiernos autoritarios y el impacto económico. Darío insiste en que no es catastrofista, pero sí ve urgencia: hay que pensar ya en cómo controlar sistemas muy autónomos. Demis coincide: la tecnología es de doble uso, y la clave es tiempo y coordinación.

Sobre empleo, el moderador subraya que por ahora no se ve un impacto claro en el mercado laboral. Demis dice que a corto plazo será el patrón típico: algunos trabajos se ven afectados, pero se crean otros nuevos. Donde sí espera señales antes es en puestos júnior, prácticas y entrada, porque las herramientas ya hacen parte del trabajo; recomienda que estudiantes se vuelvan muy hábiles con estos sistemas. Darío dice algo parecido: no afirmó que el impacto ya estuviera, pero empieza a ver indicios en software y cree que podría necesitarse menos gente en niveles júnior e intermedios, y que hay que gestionarlo con cabeza.

La conversación pasa a la reacción política: temen que la ansiedad social empuje a gobiernos a medidas torpes. Demis cree que la industria debe demostrar beneficios claros (pone AlphaFold y ciencia aplicada como ejemplo), no solo prometerlos. Pero el gran condicionante es la competencia geopolítica entre Estados Unidos y China y la dificultad de coordinar estándares de seguridad.

Darío sostiene que su recomendación no cambia: no vender chips a adversarios para ganar tiempo de seguridad. Rechaza la lógica de vender para “atar” cadenas de suministro y lo compara con transferir capacidades peligrosas por incentivos económicos.

En el cierre, hablan del riesgo de IA engañosa o peligrosa: Darío explica que Anthropic investiga esto desde el inicio, incluyendo interpretabilidad mecanicista, y que el riesgo aumenta si hay carrera sin barreras de seguridad. Demis dice que el riesgo técnico es manejable si hay tiempo y cooperación; si todo se fragmenta y compite, es mucho más difícil.

Terminan con la idea de que lo clave a observar el próximo año es si avanza de verdad la IA que ayuda a construir IA (auto-mejora), y también líneas como modelos de mundo, aprendizaje continuo y robótica.

Publicado en: Novedades

Yuval Noah Harari: la IA dominará lo hecho de palabras, incluido religión, leyes y libros

febrero 23, 2026 by admin

Harari plantea que la IA no es una herramienta pasiva, sino un “agente” capaz de aprender, decidir, crear y también engañar. A partir de ahí, sostiene que el gran punto de inflexión no es solo si la IA “piensa” como nosotros, sino que ya domina el terreno de las **palabras**: puede generar textos, argumentos y relatos mejor que mucha gente, y eso afecta a todo lo que depende del lenguaje (leyes, burocracia, medios, educación e incluso religiones basadas en libros).

Según él, estamos entrando en un mundo donde una parte creciente de lo que pensamos y consumimos vendrá “escrito” por máquinas, y eso puede provocar una crisis de identidad: si nos definimos por el pensamiento verbal, la IA nos deja sin ventaja. Por eso propone que el valor humano tendrá que apoyarse más en lo no verbal: experiencia, cuerpo, emociones y una sabiduría difícil de reducir a frases.

Para explicarlo, usa la metáfora de una nueva “inmigración”: no de personas, sino de millones de sistemas de IA que cruzan fronteras digitales sin permisos, traen beneficios, pero también desplazan empleos, moldean la cultura y pueden servir a intereses de empresas o potencias extranjeras.

Y remata con una pregunta política urgente para los líderes: si esas IA van a actuar en la práctica como “alguien” (operar negocios, abrir cuentas, demandar, influir), ¿se les va a reconocer algún tipo de personalidad jurídica? Y si la respuesta es no, ¿cómo se frena eso en un mundo interconectado?

Publicado en: Novedades

Alex Karp, CEO de Palantir: Software con IA para defensa

febrero 23, 2026 by admin

Alex Karp (CEO de Palantir) explica una idea simple: la IA solo importa cuando funciona en el mundo real. No en una demo. En condiciones sucias, con datos incompletos, con restricciones legales, con gente que se equivoca y con un adversario intentando romperte el sistema.

La charla empieza con el marco: estamos en un cambio tecnológico que va a afectar cómo trabajan las empresas, cómo deciden los gobiernos y cómo se gestiona la seguridad nacional. Y la pregunta no es “qué puede hacer la IA”, sino si nuestras instituciones están listas para adoptarla sin romper cosas por el camino.

Karp entra directo por defensa. Dice que, históricamente, muchas tecnologías importantes nacieron en el ámbito militar porque ahí no puedes fingir: o funciona o te cuesta caro. Y lo que está pasando ahora con la IA en seguridad es parecido. El problema real, según él, no es “tener un modelo”, sino desplegar sistemas que operen en entornos hostiles: sin buena conectividad, con interferencias, con datos que no se pueden compartir, con decisiones que deben quedar justificadas y auditables.

Pone un ejemplo práctico: mover un dron no es “de A a B”. Primero tienes que decidir a dónde va, con qué objetivo, y con qué datos. Tienes que hacerlo sin filtrar información al enemigo, controlando quién toca qué, y respetando reglas operativas y éticas. Y luego la guerra cambia: el rival empieza a interferir comunicaciones, y el sistema tiene que adaptarse en tiempo real. Su punto: el valor está en la capa que organiza datos, coordina decisiones y aguanta cuando todo se degrada.

Después hace el puente al mundo civil. Dice que empresas como aseguradoras, bancos u hospitales no son otra cosa que sistemas de información: reciben datos, los ordenan y deciden. Ahí la IA puede dar ventaja, pero solo si está encajada dentro de una estructura del negocio. Si compras un “LLM” y lo enchufas, no sirve para tareas reguladas o críticas: no es lo bastante preciso, no es controlable y no es trazable. Lo que hace falta es una capa que conecte modelos con datos internos, reglas y procesos reales.

Da un caso concreto: hospitales. Habla de un cuello de botella típico: admisión, triaje e intake. Falta personal, hay presión y márgenes bajos. Si aceleras y ordenas ese flujo, puedes reducir esperas, evitar errores, y en algunos casos salvar vidas. Y añade un argumento polémico: si todo queda registrado y estructurado, también puedes auditar decisiones y detectar sesgos o injusticias con más claridad.

Luego aparece el tema de adopción. Karp dice que no es un problema de interés: la demanda va por delante. El freno es ejecución: formación, seguridad, talento escaso, y desconfianza porque muchas empresas ya han probado “IA” y les ha fallado. Según él, cuando algo funciona de verdad, se vende casi solo; el cuello de botella pasa a ser desplegarlo, entrenar equipos y escalarlo.

En empleo, su mensaje es incómodo para el relato típico. Cree que la tecnología va a revalorizar trabajos técnicos y vocacionales: gente que no viene de élites universitarias puede volverse clave si está en el sitio correcto. Y critica que el sistema actual mida talento solo por credenciales. Insinúa que parte del trabajo “de oficina” cambiará fuerte, y que habrá que encontrar nuevas formas de detectar aptitudes reales.

Y el cierre es geopolítico: ve a Estados Unidos y China como los dos actores que están consiguiendo aplicar esto a escala, de formas diferentes. A Europa la ve con un problema estructural de adopción y sin líderes que lo digan sin anestesia. Y para el mundo en desarrollo, predice “bolsillos” de éxito: comunidades e instituciones que aguanten la carga despegarán; las que solo aparentan capacidad se romperán y tendrán que reconstruir desde lo básico.

La idea final de la entrevista: no es una charla sobre “IA futurista”. Es una charla sobre poder operativo. Sobre quién consigue convertir datos y modelos en decisiones fiables bajo presión. Y si eso se consolida, no solo cambia empresas: cambia Estados, ejércitos y la posición de cada región en el mundo.

Publicado en: Novedades

  • « Página anterior
  • 1
  • 2
  • 3
  • 4
  • 5
  • …
  • 15
  • Página siguiente »
gpts.es

Canal y web sobre inteligencia artificial en español. Sin tecnicismos ni hype innecesario.

PDF Gratis →

Contenido

  • Inicio
  • Blog
  • Descargar libro

El libro

  • PDF gratuito
  • Edición en papel

Legal

  • Política de privacidad
  • Aviso legal

© 2026 gpts.es · J.M. Romero · Todos los derechos reservados

Privacidad · Aviso legal