GPTs

Libros de Inteligencia Artificial

Yuval Noah Harari: la IA dominará lo hecho de palabras, incluido religión, leyes y libros

febrero 23, 2026 by admin

Harari plantea que la IA no es una herramienta pasiva, sino un “agente” capaz de aprender, decidir, crear y también engañar. A partir de ahí, sostiene que el gran punto de inflexión no es solo si la IA “piensa” como nosotros, sino que ya domina el terreno de las **palabras**: puede generar textos, argumentos y relatos mejor que mucha gente, y eso afecta a todo lo que depende del lenguaje (leyes, burocracia, medios, educación e incluso religiones basadas en libros).

Según él, estamos entrando en un mundo donde una parte creciente de lo que pensamos y consumimos vendrá “escrito” por máquinas, y eso puede provocar una crisis de identidad: si nos definimos por el pensamiento verbal, la IA nos deja sin ventaja. Por eso propone que el valor humano tendrá que apoyarse más en lo no verbal: experiencia, cuerpo, emociones y una sabiduría difícil de reducir a frases.

Para explicarlo, usa la metáfora de una nueva “inmigración”: no de personas, sino de millones de sistemas de IA que cruzan fronteras digitales sin permisos, traen beneficios, pero también desplazan empleos, moldean la cultura y pueden servir a intereses de empresas o potencias extranjeras.

Y remata con una pregunta política urgente para los líderes: si esas IA van a actuar en la práctica como “alguien” (operar negocios, abrir cuentas, demandar, influir), ¿se les va a reconocer algún tipo de personalidad jurídica? Y si la respuesta es no, ¿cómo se frena eso en un mundo interconectado?

Publicado en: Novedades

Dario Amodei y Demis Hassabis : Nos quedan 2 años de normalidad

febrero 23, 2026 by admin

La entrevista gira en torno a dos preguntas: cuándo llegaremos a la IAG y qué pasa después (beneficios, riesgos, empleo y geopolítica).

Sobre el calendario, Darío mantiene una visión rápida: cree que no estamos lejos y que el gran acelerador será que los modelos se vuelvan muy buenos en programación e investigación de IA, ayudando a crear la siguiente generación de modelos y “cerrando el ciclo” de mejora. Aun así, reconoce límites que no se aceleran igual: chips, fabricación y tiempos de entrenamiento. Demis se mantiene más cauto: ve avances fuertes en áreas donde el resultado es fácil de verificar (programación, matemáticas), pero cree que en ciencias naturales es más difícil porque validar hipótesis exige experimentos y tiempo. También señala que falta algo crucial: no solo resolver problemas existentes, sino formular buenas preguntas y construir teoría o hipótesis con creatividad científica.

En la parte de “carrera”, Demis defiende que DeepMind puede volver a liderar por su base investigadora, y que el reto era recuperar foco y velocidad de despliegue a producto. Darío aborda el miedo a que los laboratorios independientes no aguanten: argumenta que, a medida que los modelos mejoran, su capacidad de generar ingresos crece muy rápido, y que si siguen haciendo los mejores modelos en su foco, el negocio puede sostenerse.

Luego se discute “cerrar el ciclo”: Demis cree que la IA será una tecnología “normal” con competencia y seguidores que alcanzan, y que el cierre completo del ciclo es incierto, especialmente cuando entra el mundo físico: robótica e IA física meten hardware “en el circuito” y frenan. Aun así, ve más plausible el efecto en programación y matemáticas.

El bloque de riesgos contrapone el optimismo sobre beneficios (curas, ciencia, comprensión del universo) con preocupaciones serias: uso malicioso individual (por ejemplo, bioterrorismo), uso por gobiernos autoritarios y el impacto económico. Darío insiste en que no es catastrofista, pero sí ve urgencia: hay que pensar ya en cómo controlar sistemas muy autónomos. Demis coincide: la tecnología es de doble uso, y la clave es tiempo y coordinación.

Sobre empleo, el moderador subraya que por ahora no se ve un impacto claro en el mercado laboral. Demis dice que a corto plazo será el patrón típico: algunos trabajos se ven afectados, pero se crean otros nuevos. Donde sí espera señales antes es en puestos júnior, prácticas y entrada, porque las herramientas ya hacen parte del trabajo; recomienda que estudiantes se vuelvan muy hábiles con estos sistemas. Darío dice algo parecido: no afirmó que el impacto ya estuviera, pero empieza a ver indicios en software y cree que podría necesitarse menos gente en niveles júnior e intermedios, y que hay que gestionarlo con cabeza.

La conversación pasa a la reacción política: temen que la ansiedad social empuje a gobiernos a medidas torpes. Demis cree que la industria debe demostrar beneficios claros (pone AlphaFold y ciencia aplicada como ejemplo), no solo prometerlos. Pero el gran condicionante es la competencia geopolítica entre Estados Unidos y China y la dificultad de coordinar estándares de seguridad.

Darío sostiene que su recomendación no cambia: no vender chips a adversarios para ganar tiempo de seguridad. Rechaza la lógica de vender para “atar” cadenas de suministro y lo compara con transferir capacidades peligrosas por incentivos económicos.

En el cierre, hablan del riesgo de IA engañosa o peligrosa: Darío explica que Anthropic investiga esto desde el inicio, incluyendo interpretabilidad mecanicista, y que el riesgo aumenta si hay carrera sin barreras de seguridad. Demis dice que el riesgo técnico es manejable si hay tiempo y cooperación; si todo se fragmenta y compite, es mucho más difícil.

Terminan con la idea de que lo clave a observar el próximo año es si avanza de verdad la IA que ayuda a construir IA (auto-mejora), y también líneas como modelos de mundo, aprendizaje continuo y robótica.

Publicado en: Novedades

Ingeniero de xAI «FILTRA» el plan de Macrohard :1 MILLÓN de “Trabajadores Digitales”

febrero 23, 2026 by admin

La entrevista gira alrededor de una idea: automatizar el “trabajo de oficina” igual que un robot humanoide automatiza trabajo físico. En vez de integrar APIs o reescribir software, proponen algo más bruto: un sistema que observa la pantalla como un humano, decide qué hacer y ejecuta acciones con teclado y ratón. Para la empresa es atractivo porque funciona sobre programas existentes, sin pedir permisos ni cambiar nada.

El entrevistado describe esto como “emular” al trabajador digital: cualquier tarea repetitiva o semi-repetitiva (meter datos, navegar por menús, copiar/pegar, validar campos, mover archivos, lanzar procesos) se convierte en una secuencia de percepción-decisión-acción. La promesa es abaratar costes y escalar disponibilidad: misma tarea, más horas, menos fricción, sin depender de que cada software tenga integración limpia.

A partir de ahí aparecen las implicaciones: si el sistema puede operar cualquier interfaz, el cuello de botella deja de ser el software y pasa a ser la definición de la tarea, los controles de seguridad y la trazabilidad. También abre el debate de qué significa “compatibilidad”: si basta con ver la pantalla, casi cualquier cosa se vuelve automatizable, pero también más difícil de auditar si algo sale mal.

La polémica viene por el contexto y el timing: la entrevista generó ruido porque poco después el entrevistado salió de xAI, y parte de la gente interpretó que se marchó (o lo apartaron) por haber contado demasiado sobre el proyecto, su alcance y posibles usos. Eso mete la conversación en terreno sensible: quién controla esos “operadores digitales”, dónde se ejecutan, con qué permisos, y qué límites deben tener.

Publicado en: Novedades

Alex Karp, CEO de Palantir: Software con IA para defensa

febrero 23, 2026 by admin

Alex Karp (CEO de Palantir) explica una idea simple: la IA solo importa cuando funciona en el mundo real. No en una demo. En condiciones sucias, con datos incompletos, con restricciones legales, con gente que se equivoca y con un adversario intentando romperte el sistema.

La charla empieza con el marco: estamos en un cambio tecnológico que va a afectar cómo trabajan las empresas, cómo deciden los gobiernos y cómo se gestiona la seguridad nacional. Y la pregunta no es “qué puede hacer la IA”, sino si nuestras instituciones están listas para adoptarla sin romper cosas por el camino.

Karp entra directo por defensa. Dice que, históricamente, muchas tecnologías importantes nacieron en el ámbito militar porque ahí no puedes fingir: o funciona o te cuesta caro. Y lo que está pasando ahora con la IA en seguridad es parecido. El problema real, según él, no es “tener un modelo”, sino desplegar sistemas que operen en entornos hostiles: sin buena conectividad, con interferencias, con datos que no se pueden compartir, con decisiones que deben quedar justificadas y auditables.

Pone un ejemplo práctico: mover un dron no es “de A a B”. Primero tienes que decidir a dónde va, con qué objetivo, y con qué datos. Tienes que hacerlo sin filtrar información al enemigo, controlando quién toca qué, y respetando reglas operativas y éticas. Y luego la guerra cambia: el rival empieza a interferir comunicaciones, y el sistema tiene que adaptarse en tiempo real. Su punto: el valor está en la capa que organiza datos, coordina decisiones y aguanta cuando todo se degrada.

Después hace el puente al mundo civil. Dice que empresas como aseguradoras, bancos u hospitales no son otra cosa que sistemas de información: reciben datos, los ordenan y deciden. Ahí la IA puede dar ventaja, pero solo si está encajada dentro de una estructura del negocio. Si compras un “LLM” y lo enchufas, no sirve para tareas reguladas o críticas: no es lo bastante preciso, no es controlable y no es trazable. Lo que hace falta es una capa que conecte modelos con datos internos, reglas y procesos reales.

Da un caso concreto: hospitales. Habla de un cuello de botella típico: admisión, triaje e intake. Falta personal, hay presión y márgenes bajos. Si aceleras y ordenas ese flujo, puedes reducir esperas, evitar errores, y en algunos casos salvar vidas. Y añade un argumento polémico: si todo queda registrado y estructurado, también puedes auditar decisiones y detectar sesgos o injusticias con más claridad.

Luego aparece el tema de adopción. Karp dice que no es un problema de interés: la demanda va por delante. El freno es ejecución: formación, seguridad, talento escaso, y desconfianza porque muchas empresas ya han probado “IA” y les ha fallado. Según él, cuando algo funciona de verdad, se vende casi solo; el cuello de botella pasa a ser desplegarlo, entrenar equipos y escalarlo.

En empleo, su mensaje es incómodo para el relato típico. Cree que la tecnología va a revalorizar trabajos técnicos y vocacionales: gente que no viene de élites universitarias puede volverse clave si está en el sitio correcto. Y critica que el sistema actual mida talento solo por credenciales. Insinúa que parte del trabajo “de oficina” cambiará fuerte, y que habrá que encontrar nuevas formas de detectar aptitudes reales.

Y el cierre es geopolítico: ve a Estados Unidos y China como los dos actores que están consiguiendo aplicar esto a escala, de formas diferentes. A Europa la ve con un problema estructural de adopción y sin líderes que lo digan sin anestesia. Y para el mundo en desarrollo, predice “bolsillos” de éxito: comunidades e instituciones que aguanten la carga despegarán; las que solo aparentan capacidad se romperán y tendrán que reconstruir desde lo básico.

La idea final de la entrevista: no es una charla sobre “IA futurista”. Es una charla sobre poder operativo. Sobre quién consigue convertir datos y modelos en decisiones fiables bajo presión. Y si eso se consolida, no solo cambia empresas: cambia Estados, ejércitos y la posición de cada región en el mundo.

Publicado en: Novedades

¿Podría ChatGPT ser consciente? | Roger Penrose, Max Tegmark, Sabrina Pasterski

febrero 23, 2026 by admin

En la charla discuten cuándo tendría sentido decir que una computadora es consciente y no solo que actúa como si lo fuera.

Empiezan con un experimento mental: el público escucha a Max desde una pantalla; si al final revelaran que no era Max, sino una IA imitándolo, ¿cambiaría la valoración de su intervención? La idea es separar la calidad de los argumentos del hecho de atribuirle o no consciencia al “sujeto” que habla.

Max defiende que, en principio, podría construirse una máquina consciente porque tanto nosotros como cualquier máquina somos materia organizada. Pero insiste en no mezclar consciencia con inteligencia: una máquina puede ser muy capaz sin que por eso haya consciencia. Critica dos posturas comunes: negar el problema (“la consciencia es humo”) y afirmarlo con certeza absoluta (“una máquina jamás será consciente”).

Sabrina separa dos preguntas: cómo diseñar sistemas que parezcan conscientes para nosotros (por ejemplo, combinando lenguaje, percepción y memoria), y si el hardware importa: tal vez el cerebro tenga propiedades físicas relevantes que no estamos replicando. Ahí entran los microtúbulos y la duda de si basta “software sobre silicio”.

Penrose lleva el debate a la física: sostiene que la mecánica cuántica no está completa porque no explica del todo cómo aparece el mundo clásico, y rechaza la idea de que el colapso dependa de que alguien observe. Propone más bien que la consciencia, si está conectada con algo profundo, podría depender de la física real detrás del colapso, que aún no entendemos.

Max introduce otra vía: la consciencia como un tipo específico de procesamiento de información, especialmente con bucles de retroalimentación. Y añade el argumento de la decoherencia: en un entorno como el cerebro, los efectos cuánticos coherentes se degradan extremadamente rápido, lo que hace difícil que la consciencia dependa de una “computación cuántica” sostenida tal como suele imaginarse.

Luego pasan a la pregunta clave: ¿qué contaría como evidencia de consciencia en una IA? Coinciden en que no basta con que una IA lo afirme. Harían falta principios verificables que conecten estructuras o dinámicas físicas/informacionales con consciencia, y que se puedan poner a prueba primero en humanos con predicciones que puedan fallar.

Cierran con un enfoque normativo: no existe “la IA” como una cosa única; hay muchas arquitecturas posibles. La pregunta relevante no es solo qué puede existir, sino qué queremos construir: herramientas potentes que mejoren la vida, en lugar de fantasías de “dios digital” que reemplaza decisiones humanas.

Publicado en: Novedades

Sam Altman CEO de OpenAI : Llegan las EMPRESAS 100% IA

febrero 23, 2026 by admin

Entrevista a Sam Altman (OpenAI).

La tesis central es clara: el salto decisivo de la IA no vendrá solo de modelos más potentes, sino de agentes que usan el ordenador. Navegan, editan documentos, ejecutan tareas y operan dentro de herramientas reales.

Altman explica que son primer design partner de Codex y lo define como el mayor cambio que ha visto en IA en años. Da un ejemplo operativo: un producto interno (“AI Defense”) pasará en semanas a tener todo el código generado con Codex. Para él, esto marca un umbral. Los modelos ya estaban listos; ahora la interfaz y el empaquetado permiten convertir capacidad en productividad. Es un “momento ChatGPT”, pero aplicado al trabajo real.

Sobre el límite superior, apunta a empresas “full-AI”: organizaciones donde la IA no es un apoyo, sino el núcleo que construye software complejo y coordina acciones en el mundo para sostener la operación.

La idea clave se resume así: código + uso general del ordenador. Dar a un agente acceso a navegador, sesiones y apps desbloquea resultados muy potentes, pero abre problemas de seguridad. Tras probarlo, reconoce que tuvo que reorganizar su setup (incluso usar dos portátiles) para convivir con esa potencia sin perder control.

Extiende el enfoque a todo el trabajo de conocimiento. No solo programar: investigar en la web, preparar documentos, coordinar pasos y ejecutar tareas de oficina. Esto cambia el rol humano: menos ejecución directa; más delegar, supervisar y corregir.

Plantea también un posible futuro “social”: muchos agentes interactuando en nombre de usuarios, colaborando entre sí, encontrando información y generando ideas. No fija formato, pero anticipa algo muy distinto a las redes actuales.

Al hablar de frenos, distingue entre lo obvio y lo no obvio.
Obvio: energía, hardware, compute e infraestructura.
No obvio: el choque entre seguridad y acceso a datos frente a la utilidad real de los agentes. Falta un paradigma nuevo de permisos y control. Además, el software actual no está pensado para uso humano-agente: incluso tareas simples rompen flujos. Ejemplo: un agente usando Slack puede marcar hilos como leídos y alterar señales. Conclusión: habrá que rediseñar productos, roles y cuentas, e incluso reescribir software pensando primero en agentes.

Otra barrera es el “always-on”: agentes escuchando reuniones o viendo la pantalla para aportar valor. Choca con hardware, permisos y marcos legales no preparados para ese nivel de observación y memoria.

En adopción empresarial, diagnostica un capability overhang: la brecha entre lo que la IA ya permite y lo poco que se absorbe. Aunque algunos productos crecen rápido, la integración profunda va lenta. Su consejo a CIOs y CISOs: preparar la empresa para incorporar compañeros de trabajo IA, resolviendo seguridad y acceso a contexto. Quien no lo haga quedará en desventaja. Lección de producto: tratar al agente como teammate, no como herramienta.

En infraestructura, anticipa modelos más capaces y más baratos por tarea, con demanda creciente. Compara la IA con la electricidad: la demanda depende de precio y calidad; si es barata y potente, el uso se dispara.

En negocio, describe dos pilares actuales (ChatGPT y APIs) y la expansión de Codex, con futuro en dispositivos y robots. Observa alta disposición a pagar por suscripciones, posible publicidad con cautela, y una oferta para empresas tipo AI cloud subscription (seguridad, contexto, múltiples agentes, licencias y APIs). A futuro, no descarta participar en el upside de avances científicos que requieran inversiones masivas.

Cierra con vientos a favor y riesgos. A favor: los modelos mejorarán rápido y habilitan nuevas construcciones. En contra: riesgos macro (inestabilidad global, cadenas de suministro). Sobre el “10x”, lo expresa como sensación: a final de año podría sentirse un salto grande en los problemas que pasan de imposibles a resolubles.

Publicado en: Novedades

  • « Página anterior
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • …
  • 15
  • Página siguiente »
gpts.es

Canal y web sobre inteligencia artificial en español. Sin tecnicismos ni hype innecesario.

PDF Gratis →

Contenido

  • Inicio
  • Blog
  • Descargar libro

El libro

  • PDF gratuito
  • Edición en papel

Legal

  • Política de privacidad
  • Aviso legal

© 2026 gpts.es · J.M. Romero · Todos los derechos reservados

Privacidad · Aviso legal