GPTs

Libros de Inteligencia Artificial

Alex Karp, CEO de Palantir: Software con IA para defensa

febrero 23, 2026 by admin

Alex Karp (CEO de Palantir) explica una idea simple: la IA solo importa cuando funciona en el mundo real. No en una demo. En condiciones sucias, con datos incompletos, con restricciones legales, con gente que se equivoca y con un adversario intentando romperte el sistema.

La charla empieza con el marco: estamos en un cambio tecnológico que va a afectar cómo trabajan las empresas, cómo deciden los gobiernos y cómo se gestiona la seguridad nacional. Y la pregunta no es “qué puede hacer la IA”, sino si nuestras instituciones están listas para adoptarla sin romper cosas por el camino.

Karp entra directo por defensa. Dice que, históricamente, muchas tecnologías importantes nacieron en el ámbito militar porque ahí no puedes fingir: o funciona o te cuesta caro. Y lo que está pasando ahora con la IA en seguridad es parecido. El problema real, según él, no es “tener un modelo”, sino desplegar sistemas que operen en entornos hostiles: sin buena conectividad, con interferencias, con datos que no se pueden compartir, con decisiones que deben quedar justificadas y auditables.

Pone un ejemplo práctico: mover un dron no es “de A a B”. Primero tienes que decidir a dónde va, con qué objetivo, y con qué datos. Tienes que hacerlo sin filtrar información al enemigo, controlando quién toca qué, y respetando reglas operativas y éticas. Y luego la guerra cambia: el rival empieza a interferir comunicaciones, y el sistema tiene que adaptarse en tiempo real. Su punto: el valor está en la capa que organiza datos, coordina decisiones y aguanta cuando todo se degrada.

Después hace el puente al mundo civil. Dice que empresas como aseguradoras, bancos u hospitales no son otra cosa que sistemas de información: reciben datos, los ordenan y deciden. Ahí la IA puede dar ventaja, pero solo si está encajada dentro de una estructura del negocio. Si compras un “LLM” y lo enchufas, no sirve para tareas reguladas o críticas: no es lo bastante preciso, no es controlable y no es trazable. Lo que hace falta es una capa que conecte modelos con datos internos, reglas y procesos reales.

Da un caso concreto: hospitales. Habla de un cuello de botella típico: admisión, triaje e intake. Falta personal, hay presión y márgenes bajos. Si aceleras y ordenas ese flujo, puedes reducir esperas, evitar errores, y en algunos casos salvar vidas. Y añade un argumento polémico: si todo queda registrado y estructurado, también puedes auditar decisiones y detectar sesgos o injusticias con más claridad.

Luego aparece el tema de adopción. Karp dice que no es un problema de interés: la demanda va por delante. El freno es ejecución: formación, seguridad, talento escaso, y desconfianza porque muchas empresas ya han probado “IA” y les ha fallado. Según él, cuando algo funciona de verdad, se vende casi solo; el cuello de botella pasa a ser desplegarlo, entrenar equipos y escalarlo.

En empleo, su mensaje es incómodo para el relato típico. Cree que la tecnología va a revalorizar trabajos técnicos y vocacionales: gente que no viene de élites universitarias puede volverse clave si está en el sitio correcto. Y critica que el sistema actual mida talento solo por credenciales. Insinúa que parte del trabajo “de oficina” cambiará fuerte, y que habrá que encontrar nuevas formas de detectar aptitudes reales.

Y el cierre es geopolítico: ve a Estados Unidos y China como los dos actores que están consiguiendo aplicar esto a escala, de formas diferentes. A Europa la ve con un problema estructural de adopción y sin líderes que lo digan sin anestesia. Y para el mundo en desarrollo, predice “bolsillos” de éxito: comunidades e instituciones que aguanten la carga despegarán; las que solo aparentan capacidad se romperán y tendrán que reconstruir desde lo básico.

La idea final de la entrevista: no es una charla sobre “IA futurista”. Es una charla sobre poder operativo. Sobre quién consigue convertir datos y modelos en decisiones fiables bajo presión. Y si eso se consolida, no solo cambia empresas: cambia Estados, ejércitos y la posición de cada región en el mundo.

Publicado en: Novedades

¿Podría ChatGPT ser consciente? | Roger Penrose, Max Tegmark, Sabrina Pasterski

febrero 23, 2026 by admin

En la charla discuten cuándo tendría sentido decir que una computadora es consciente y no solo que actúa como si lo fuera.

Empiezan con un experimento mental: el público escucha a Max desde una pantalla; si al final revelaran que no era Max, sino una IA imitándolo, ¿cambiaría la valoración de su intervención? La idea es separar la calidad de los argumentos del hecho de atribuirle o no consciencia al “sujeto” que habla.

Max defiende que, en principio, podría construirse una máquina consciente porque tanto nosotros como cualquier máquina somos materia organizada. Pero insiste en no mezclar consciencia con inteligencia: una máquina puede ser muy capaz sin que por eso haya consciencia. Critica dos posturas comunes: negar el problema (“la consciencia es humo”) y afirmarlo con certeza absoluta (“una máquina jamás será consciente”).

Sabrina separa dos preguntas: cómo diseñar sistemas que parezcan conscientes para nosotros (por ejemplo, combinando lenguaje, percepción y memoria), y si el hardware importa: tal vez el cerebro tenga propiedades físicas relevantes que no estamos replicando. Ahí entran los microtúbulos y la duda de si basta “software sobre silicio”.

Penrose lleva el debate a la física: sostiene que la mecánica cuántica no está completa porque no explica del todo cómo aparece el mundo clásico, y rechaza la idea de que el colapso dependa de que alguien observe. Propone más bien que la consciencia, si está conectada con algo profundo, podría depender de la física real detrás del colapso, que aún no entendemos.

Max introduce otra vía: la consciencia como un tipo específico de procesamiento de información, especialmente con bucles de retroalimentación. Y añade el argumento de la decoherencia: en un entorno como el cerebro, los efectos cuánticos coherentes se degradan extremadamente rápido, lo que hace difícil que la consciencia dependa de una “computación cuántica” sostenida tal como suele imaginarse.

Luego pasan a la pregunta clave: ¿qué contaría como evidencia de consciencia en una IA? Coinciden en que no basta con que una IA lo afirme. Harían falta principios verificables que conecten estructuras o dinámicas físicas/informacionales con consciencia, y que se puedan poner a prueba primero en humanos con predicciones que puedan fallar.

Cierran con un enfoque normativo: no existe “la IA” como una cosa única; hay muchas arquitecturas posibles. La pregunta relevante no es solo qué puede existir, sino qué queremos construir: herramientas potentes que mejoren la vida, en lugar de fantasías de “dios digital” que reemplaza decisiones humanas.

Publicado en: Novedades

Sam Altman CEO de OpenAI : Llegan las EMPRESAS 100% IA

febrero 23, 2026 by admin

Entrevista a Sam Altman (OpenAI).

La tesis central es clara: el salto decisivo de la IA no vendrá solo de modelos más potentes, sino de agentes que usan el ordenador. Navegan, editan documentos, ejecutan tareas y operan dentro de herramientas reales.

Altman explica que son primer design partner de Codex y lo define como el mayor cambio que ha visto en IA en años. Da un ejemplo operativo: un producto interno (“AI Defense”) pasará en semanas a tener todo el código generado con Codex. Para él, esto marca un umbral. Los modelos ya estaban listos; ahora la interfaz y el empaquetado permiten convertir capacidad en productividad. Es un “momento ChatGPT”, pero aplicado al trabajo real.

Sobre el límite superior, apunta a empresas “full-AI”: organizaciones donde la IA no es un apoyo, sino el núcleo que construye software complejo y coordina acciones en el mundo para sostener la operación.

La idea clave se resume así: código + uso general del ordenador. Dar a un agente acceso a navegador, sesiones y apps desbloquea resultados muy potentes, pero abre problemas de seguridad. Tras probarlo, reconoce que tuvo que reorganizar su setup (incluso usar dos portátiles) para convivir con esa potencia sin perder control.

Extiende el enfoque a todo el trabajo de conocimiento. No solo programar: investigar en la web, preparar documentos, coordinar pasos y ejecutar tareas de oficina. Esto cambia el rol humano: menos ejecución directa; más delegar, supervisar y corregir.

Plantea también un posible futuro “social”: muchos agentes interactuando en nombre de usuarios, colaborando entre sí, encontrando información y generando ideas. No fija formato, pero anticipa algo muy distinto a las redes actuales.

Al hablar de frenos, distingue entre lo obvio y lo no obvio.
Obvio: energía, hardware, compute e infraestructura.
No obvio: el choque entre seguridad y acceso a datos frente a la utilidad real de los agentes. Falta un paradigma nuevo de permisos y control. Además, el software actual no está pensado para uso humano-agente: incluso tareas simples rompen flujos. Ejemplo: un agente usando Slack puede marcar hilos como leídos y alterar señales. Conclusión: habrá que rediseñar productos, roles y cuentas, e incluso reescribir software pensando primero en agentes.

Otra barrera es el “always-on”: agentes escuchando reuniones o viendo la pantalla para aportar valor. Choca con hardware, permisos y marcos legales no preparados para ese nivel de observación y memoria.

En adopción empresarial, diagnostica un capability overhang: la brecha entre lo que la IA ya permite y lo poco que se absorbe. Aunque algunos productos crecen rápido, la integración profunda va lenta. Su consejo a CIOs y CISOs: preparar la empresa para incorporar compañeros de trabajo IA, resolviendo seguridad y acceso a contexto. Quien no lo haga quedará en desventaja. Lección de producto: tratar al agente como teammate, no como herramienta.

En infraestructura, anticipa modelos más capaces y más baratos por tarea, con demanda creciente. Compara la IA con la electricidad: la demanda depende de precio y calidad; si es barata y potente, el uso se dispara.

En negocio, describe dos pilares actuales (ChatGPT y APIs) y la expansión de Codex, con futuro en dispositivos y robots. Observa alta disposición a pagar por suscripciones, posible publicidad con cautela, y una oferta para empresas tipo AI cloud subscription (seguridad, contexto, múltiples agentes, licencias y APIs). A futuro, no descarta participar en el upside de avances científicos que requieran inversiones masivas.

Cierra con vientos a favor y riesgos. A favor: los modelos mejorarán rápido y habilitan nuevas construcciones. En contra: riesgos macro (inestabilidad global, cadenas de suministro). Sobre el “10x”, lo expresa como sensación: a final de año podría sentirse un salto grande en los problemas que pasan de imposibles a resolubles.

Publicado en: Novedades

CEO de NVIDIA: La fábrica de IA y de Disney a Netflix, de Mercedes a Tesla

febrero 23, 2026 by admin

En el Cisco AI Summit, el CEO de Cisco (Chuck Robbins) entrevista a Jensen Huang, fundador y CEO de NVIDIA, en una charla pública.

Jensen explica que estamos entrando en una nueva era de computación: pasamos de programar con reglas explícitas a sistemas que entienden la intención, razonan, planifican y usan herramientas. Recomienda a las empresas empezar dejando que la gente experimente con IA sin obsesionarse al principio con el ROI, pero aplicándola donde realmente mueve la aguja. Defiende que la gran oportunidad es transformar cualquier compañía en una “empresa tecnológica”, porque lo digital escala como “electrones” frente a las limitaciones de lo físico. También señala que la próxima ola será la IA física, capaz de entender causalidad y el mundo real, y remarca la importancia de la privacidad: a veces conviene construir en local, porque las preguntas que haces pueden valer más que las respuestas.

Publicado en: Novedades

Peter Steinberger (creador de OpenClaw): El 80% de las aplicaciones desaparecerán.

febrero 23, 2026 by admin

Entrevista con Peter Steinberger, creador de OpenClaw, un agente personal de IA de código abierto que se ejecuta en tu propio ordenador y se ha viralizado con miles de estrellas en GitHub.

Hablan de por qué explotó (control local del PC, acceso a tus archivos y “memoria”), de cómo sorprende al descubrir y conectar datos olvidados, y del salto hacia interacciones bot-a-bot e incluso bots que coordinan a humanos para tareas en el mundo real. Steinberger cuenta su “momento aha” cuando el agente resolvió un problema por su cuenta (convertir y transcribir un audio usando herramientas disponibles) y defiende una filosofía pragmática: priorizar CLIs y flujos simples frente a integraciones más pesadas, además de dotar al agente de personalidad y valores mediante archivos locales. También discuten cómo los agentes podrían hacer que muchas apps de gestión de datos pierdan sentido y por qué la propiedad de la memoria/datos será el principal campo de batalla.

Publicado en: Novedades

Terence Tao presenta SAIR: La revolución de la IA científica ya está aquí

febrero 23, 2026 by admin

Terrence Tao vuelve para hablar de cómo la inteligencia artificial puede transformar la investigación científica y, en especial, las matemáticas. Explica por qué cofundó SAIR y qué objetivos persigue esta iniciativa: integrar nuevas herramientas en los flujos de trabajo de la ciencia de forma útil y responsable. También comenta el gran problema actual de estos sistemas —su falta de fiabilidad— y por qué las matemáticas tienen una ventaja: la posibilidad de verificar resultados con demostraciones formales y asistentes de prueba.

A lo largo de la conversación se habla de los hitos que aún faltan: creatividad que no dependa de la literatura previa, aprendizaje continuo realmente estable, y una colaboración más integrada, no solo “abrir un chat cuando te atascas”. Además, reflexionan sobre por qué la investigación no va de respuestas inmediatas, cómo los modelos pueden “cumplir objetivos” de manera demasiado literal, y qué malentendidos suele tener el público sobre el uso de la inteligencia artificial en ciencia.

Publicado en: Novedades

  • « Página anterior
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • …
  • 15
  • Página siguiente »
gpts.es

Canal y web sobre inteligencia artificial en español. Sin tecnicismos ni hype innecesario.

PDF Gratis →

Contenido

  • Inicio
  • Blog
  • Descargar libro

El libro

  • PDF gratuito
  • Edición en papel

Legal

  • Política de privacidad
  • Aviso legal

© 2026 gpts.es · J.M. Romero · Todos los derechos reservados

Privacidad · Aviso legal