GPTs

Libros de Inteligencia Artificial

Ingeniero de xAI «FILTRA» el plan de Macrohard :1 MILLÓN de “Trabajadores Digitales”

febrero 23, 2026 by admin

La entrevista gira alrededor de una idea: automatizar el “trabajo de oficina” igual que un robot humanoide automatiza trabajo físico. En vez de integrar APIs o reescribir software, proponen algo más bruto: un sistema que observa la pantalla como un humano, decide qué hacer y ejecuta acciones con teclado y ratón. Para la empresa es atractivo porque funciona sobre programas existentes, sin pedir permisos ni cambiar nada.

El entrevistado describe esto como “emular” al trabajador digital: cualquier tarea repetitiva o semi-repetitiva (meter datos, navegar por menús, copiar/pegar, validar campos, mover archivos, lanzar procesos) se convierte en una secuencia de percepción-decisión-acción. La promesa es abaratar costes y escalar disponibilidad: misma tarea, más horas, menos fricción, sin depender de que cada software tenga integración limpia.

A partir de ahí aparecen las implicaciones: si el sistema puede operar cualquier interfaz, el cuello de botella deja de ser el software y pasa a ser la definición de la tarea, los controles de seguridad y la trazabilidad. También abre el debate de qué significa “compatibilidad”: si basta con ver la pantalla, casi cualquier cosa se vuelve automatizable, pero también más difícil de auditar si algo sale mal.

La polémica viene por el contexto y el timing: la entrevista generó ruido porque poco después el entrevistado salió de xAI, y parte de la gente interpretó que se marchó (o lo apartaron) por haber contado demasiado sobre el proyecto, su alcance y posibles usos. Eso mete la conversación en terreno sensible: quién controla esos “operadores digitales”, dónde se ejecutan, con qué permisos, y qué límites deben tener.

Publicado en: Novedades

Sam Altman CEO de OpenAI : Llegan las EMPRESAS 100% IA

febrero 23, 2026 by admin

Entrevista a Sam Altman (OpenAI).

La tesis central es clara: el salto decisivo de la IA no vendrá solo de modelos más potentes, sino de agentes que usan el ordenador. Navegan, editan documentos, ejecutan tareas y operan dentro de herramientas reales.

Altman explica que son primer design partner de Codex y lo define como el mayor cambio que ha visto en IA en años. Da un ejemplo operativo: un producto interno (“AI Defense”) pasará en semanas a tener todo el código generado con Codex. Para él, esto marca un umbral. Los modelos ya estaban listos; ahora la interfaz y el empaquetado permiten convertir capacidad en productividad. Es un “momento ChatGPT”, pero aplicado al trabajo real.

Sobre el límite superior, apunta a empresas “full-AI”: organizaciones donde la IA no es un apoyo, sino el núcleo que construye software complejo y coordina acciones en el mundo para sostener la operación.

La idea clave se resume así: código + uso general del ordenador. Dar a un agente acceso a navegador, sesiones y apps desbloquea resultados muy potentes, pero abre problemas de seguridad. Tras probarlo, reconoce que tuvo que reorganizar su setup (incluso usar dos portátiles) para convivir con esa potencia sin perder control.

Extiende el enfoque a todo el trabajo de conocimiento. No solo programar: investigar en la web, preparar documentos, coordinar pasos y ejecutar tareas de oficina. Esto cambia el rol humano: menos ejecución directa; más delegar, supervisar y corregir.

Plantea también un posible futuro “social”: muchos agentes interactuando en nombre de usuarios, colaborando entre sí, encontrando información y generando ideas. No fija formato, pero anticipa algo muy distinto a las redes actuales.

Al hablar de frenos, distingue entre lo obvio y lo no obvio.
Obvio: energía, hardware, compute e infraestructura.
No obvio: el choque entre seguridad y acceso a datos frente a la utilidad real de los agentes. Falta un paradigma nuevo de permisos y control. Además, el software actual no está pensado para uso humano-agente: incluso tareas simples rompen flujos. Ejemplo: un agente usando Slack puede marcar hilos como leídos y alterar señales. Conclusión: habrá que rediseñar productos, roles y cuentas, e incluso reescribir software pensando primero en agentes.

Otra barrera es el “always-on”: agentes escuchando reuniones o viendo la pantalla para aportar valor. Choca con hardware, permisos y marcos legales no preparados para ese nivel de observación y memoria.

En adopción empresarial, diagnostica un capability overhang: la brecha entre lo que la IA ya permite y lo poco que se absorbe. Aunque algunos productos crecen rápido, la integración profunda va lenta. Su consejo a CIOs y CISOs: preparar la empresa para incorporar compañeros de trabajo IA, resolviendo seguridad y acceso a contexto. Quien no lo haga quedará en desventaja. Lección de producto: tratar al agente como teammate, no como herramienta.

En infraestructura, anticipa modelos más capaces y más baratos por tarea, con demanda creciente. Compara la IA con la electricidad: la demanda depende de precio y calidad; si es barata y potente, el uso se dispara.

En negocio, describe dos pilares actuales (ChatGPT y APIs) y la expansión de Codex, con futuro en dispositivos y robots. Observa alta disposición a pagar por suscripciones, posible publicidad con cautela, y una oferta para empresas tipo AI cloud subscription (seguridad, contexto, múltiples agentes, licencias y APIs). A futuro, no descarta participar en el upside de avances científicos que requieran inversiones masivas.

Cierra con vientos a favor y riesgos. A favor: los modelos mejorarán rápido y habilitan nuevas construcciones. En contra: riesgos macro (inestabilidad global, cadenas de suministro). Sobre el “10x”, lo expresa como sensación: a final de año podría sentirse un salto grande en los problemas que pasan de imposibles a resolubles.

Publicado en: Novedades

¿Podría ChatGPT ser consciente? | Roger Penrose, Max Tegmark, Sabrina Pasterski

febrero 23, 2026 by admin

En la charla discuten cuándo tendría sentido decir que una computadora es consciente y no solo que actúa como si lo fuera.

Empiezan con un experimento mental: el público escucha a Max desde una pantalla; si al final revelaran que no era Max, sino una IA imitándolo, ¿cambiaría la valoración de su intervención? La idea es separar la calidad de los argumentos del hecho de atribuirle o no consciencia al “sujeto” que habla.

Max defiende que, en principio, podría construirse una máquina consciente porque tanto nosotros como cualquier máquina somos materia organizada. Pero insiste en no mezclar consciencia con inteligencia: una máquina puede ser muy capaz sin que por eso haya consciencia. Critica dos posturas comunes: negar el problema (“la consciencia es humo”) y afirmarlo con certeza absoluta (“una máquina jamás será consciente”).

Sabrina separa dos preguntas: cómo diseñar sistemas que parezcan conscientes para nosotros (por ejemplo, combinando lenguaje, percepción y memoria), y si el hardware importa: tal vez el cerebro tenga propiedades físicas relevantes que no estamos replicando. Ahí entran los microtúbulos y la duda de si basta “software sobre silicio”.

Penrose lleva el debate a la física: sostiene que la mecánica cuántica no está completa porque no explica del todo cómo aparece el mundo clásico, y rechaza la idea de que el colapso dependa de que alguien observe. Propone más bien que la consciencia, si está conectada con algo profundo, podría depender de la física real detrás del colapso, que aún no entendemos.

Max introduce otra vía: la consciencia como un tipo específico de procesamiento de información, especialmente con bucles de retroalimentación. Y añade el argumento de la decoherencia: en un entorno como el cerebro, los efectos cuánticos coherentes se degradan extremadamente rápido, lo que hace difícil que la consciencia dependa de una “computación cuántica” sostenida tal como suele imaginarse.

Luego pasan a la pregunta clave: ¿qué contaría como evidencia de consciencia en una IA? Coinciden en que no basta con que una IA lo afirme. Harían falta principios verificables que conecten estructuras o dinámicas físicas/informacionales con consciencia, y que se puedan poner a prueba primero en humanos con predicciones que puedan fallar.

Cierran con un enfoque normativo: no existe “la IA” como una cosa única; hay muchas arquitecturas posibles. La pregunta relevante no es solo qué puede existir, sino qué queremos construir: herramientas potentes que mejoren la vida, en lugar de fantasías de “dios digital” que reemplaza decisiones humanas.

Publicado en: Novedades

CEO de NVIDIA: La fábrica de IA y de Disney a Netflix, de Mercedes a Tesla

febrero 23, 2026 by admin

En el Cisco AI Summit, el CEO de Cisco (Chuck Robbins) entrevista a Jensen Huang, fundador y CEO de NVIDIA, en una charla pública.

Jensen explica que estamos entrando en una nueva era de computación: pasamos de programar con reglas explícitas a sistemas que entienden la intención, razonan, planifican y usan herramientas. Recomienda a las empresas empezar dejando que la gente experimente con IA sin obsesionarse al principio con el ROI, pero aplicándola donde realmente mueve la aguja. Defiende que la gran oportunidad es transformar cualquier compañía en una “empresa tecnológica”, porque lo digital escala como “electrones” frente a las limitaciones de lo físico. También señala que la próxima ola será la IA física, capaz de entender causalidad y el mundo real, y remarca la importancia de la privacidad: a veces conviene construir en local, porque las preguntas que haces pueden valer más que las respuestas.

Publicado en: Novedades

Peter Steinberger (creador de OpenClaw): El 80% de las aplicaciones desaparecerán.

febrero 23, 2026 by admin

Entrevista con Peter Steinberger, creador de OpenClaw, un agente personal de IA de código abierto que se ejecuta en tu propio ordenador y se ha viralizado con miles de estrellas en GitHub.

Hablan de por qué explotó (control local del PC, acceso a tus archivos y “memoria”), de cómo sorprende al descubrir y conectar datos olvidados, y del salto hacia interacciones bot-a-bot e incluso bots que coordinan a humanos para tareas en el mundo real. Steinberger cuenta su “momento aha” cuando el agente resolvió un problema por su cuenta (convertir y transcribir un audio usando herramientas disponibles) y defiende una filosofía pragmática: priorizar CLIs y flujos simples frente a integraciones más pesadas, además de dotar al agente de personalidad y valores mediante archivos locales. También discuten cómo los agentes podrían hacer que muchas apps de gestión de datos pierdan sentido y por qué la propiedad de la memoria/datos será el principal campo de batalla.

Publicado en: Novedades

Terence Tao presenta SAIR: La revolución de la IA científica ya está aquí

febrero 23, 2026 by admin

Terrence Tao vuelve para hablar de cómo la inteligencia artificial puede transformar la investigación científica y, en especial, las matemáticas. Explica por qué cofundó SAIR y qué objetivos persigue esta iniciativa: integrar nuevas herramientas en los flujos de trabajo de la ciencia de forma útil y responsable. También comenta el gran problema actual de estos sistemas —su falta de fiabilidad— y por qué las matemáticas tienen una ventaja: la posibilidad de verificar resultados con demostraciones formales y asistentes de prueba.

A lo largo de la conversación se habla de los hitos que aún faltan: creatividad que no dependa de la literatura previa, aprendizaje continuo realmente estable, y una colaboración más integrada, no solo “abrir un chat cuando te atascas”. Además, reflexionan sobre por qué la investigación no va de respuestas inmediatas, cómo los modelos pueden “cumplir objetivos” de manera demasiado literal, y qué malentendidos suele tener el público sobre el uso de la inteligencia artificial en ciencia.

Publicado en: Novedades

  • « Página anterior
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • …
  • 15
  • Página siguiente »
gpts.es

Canal y web sobre inteligencia artificial en español. Sin tecnicismos ni hype innecesario.

PDF Gratis →

Contenido

  • Inicio
  • Blog
  • Descargar libro

El libro

  • PDF gratuito
  • Edición en papel

Legal

  • Política de privacidad
  • Aviso legal

© 2026 gpts.es · J.M. Romero · Todos los derechos reservados

Privacidad · Aviso legal