
Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural
”Hola prompters! 25 de Noviembre. Newsletter #13. Esta semana todos han sacado músculo: Google con Nano Banana Pro nos deja fotos que parecen reales, OpenAI y Anthropic contraatacan con modelos especialistas en código, y Meta ha presentado la última versión de uno de sus mejores modelos para segmentar cualquier objeto en cualquier imagen.
Ya anticipamos que Gemini 3 Pro no serĆa lo Ćŗltimo que sacarĆa Google, y a los pocos dĆas, nos regaló Nano Banana Pro para creación de imĆ”genes. La competencia se tuvo que poner las pilas y han sacado sus Ćŗltimos modelos para programar, como diciendo "Vale, quizĆ”s no tenemos el mejor modelo general, pero mira lo que hacemos en nuestro terreno" (que tampoco es que Gemini 3 Pro sea manca programandoā¦).
Mientras tanto, OpenAI ha hecho un movimiento que todavĆa estoy intentando descifrar y Anthropic sigue a lo suyo: siendo los mĆ”s seguros de la clase, y sospechando siempre de China pero esta vez con una historia de pelĆcula.
Vamos al lĆo, que hoy hay mucho que comentar.
>>> Tres noticias destacadas
š Google presenta Nano Banana Pro: La IA que genera fotos tan reales que da miedo
š» La respuesta de los rivales: GPT Codex Max 5.1 y Claude Opus 4.5 llegan para programar mejor que nadie
š Meta lanza SAM 3: El modelo que ganarĆa al "Buscando a Wally" (y ayuda a detectar tumores)
>>> HistorIAs de la IA
š¤ QuiĆ©n es quiĆ©n š¤: Demis Hassabis. Cumplimos la promesa de la semana pasada: os traigo al cientĆfico genio detrĆ”s de Google DeepMind. Si Sundar Pichai es el CEO gestor, Demis Hassabis es el visionario. Del ajedrez infantil al Nobel de QuĆmica.
>>> Una herramienta
š Antigravity: Antigravity: El nuevo IDE de Google donde la IA programa por ti (literalmente)
Y para la canción de la semana, nos ponemos juguetones. Esta vez traigo una canción con inspiración en aquel maravilloso movimiento de los aƱos 90: el tontipop. Pese a su apariencia sencilla, inocente y juguetona, el tontipop en realidad traĆa profundidad en las letras y canciones. Igual que NanoBanana, que parece que es un modelo que sólo vale para hacer montajes graciosos, pero puede acabar el rey de la creación y edición de contenido en marketing, diseƱo y demĆ”s
¿Qué ha pasado esta semana en el mundo de la IA?
La semana pasada Google nos dejó con la boca abierta con Gemini 3 Pro. Pero la gente sabĆa que eso no iba a ser todo. Muchos esperaban que tambiĆ©n sacasen una actualización de su modelo estrella para creación de imĆ”genes, y asĆ fue. El jueves 20 de Noviembre salió Nano Banana Pro, la versión evolucionada de su ya famoso āNano Bananaā (su nombre oficial es Gemini 2.5 Flash Image, pero nadie lo conoce asĆ, sino con el pseudónimo que usó cuando aĆŗn estaba en pruebas de manera anónima en LMArena). Si te da pereza seguir leyendo, pero tienes curiosidad de ver de lo que es capaz, te pongo un par de links donde puedes ver algunos ejemplos de lo que puede hacer el modelo. Entra en el post oficial de Google, o el anĆ”logo en Deepmind, para verlo.
El timing del lanzamiento no es casualidad. Con Gemini 3 dominando el texto y el razonamiento, Nano Banana Pro completa el ecosistema. Google estÔ diciendo: "No solo tenemos el mejor modelo de lenguaje, también tenemos la mejor generación de imÔgenes". Y de momento, pocos pueden discutirlo, porque lo que trae la actualización de Nano Banana no es poco:
1. Fotorrealismo a alta resolución: No es solo que las imĆ”genes sean bonitas. Es que son creĆbles. El modelo entiende cómo funciona la luz, cómo se comportan los materiales, y cómo deberĆa verse una escena si fuera real. Y se acabó el lĆmite de resolución de 1024Ć1024 pĆxeles. El nuevo modelo podrĆ” generar imĆ”genes de 2K y 4K, y al formato que le pidas, no solamente cuadrado, como lo hacĆa el anterior, en su lanzamiento.
2. Razonamiento antes de ponerse a ādibujarā: Uno de los mayores avances es que ahora Nano Banana Pro estĆ” diseƱado para trabajar mano a mano con Gemini 3. Puedes describir una escena compleja en lenguaje natural, Gemini entiende tu intención, y Nano Banana Pro la materializa.

Una prueba de su capacidad de razonamiento. Le pedĆ que generase una imagen de la maƱana del 6 de Junio de 1944 en las coordenadas que veis, que se corresponden con la fecha y coordenadas GPS del desembarco de NormandĆa. El modelo ha entendido lo que pedĆa, y ha generado lo que pedĆa. Hasta le ha puesto las coordenadas con letrita tĆpica de mĆ”quina de escribir de la Ć©poca.
3. Control creativo sin precedentes y consistencia de personajes: Gracias a su razonamiento, puedes especificar no solo quĆ© quieres, sino cómo lo quieres. Ćngulo de cĆ”mara, tipo de iluminación, estilo fotogrĆ”fico. Es como tener un equipo completo de producción fotogrĆ”fica a tu disposición. Y puedes aƱadir hasta 14 objetos distintos, y mantendrĆ” la consistencia de hasta cinco personajes que le digas que incluya

Para hacer esta imagen, el prompt fue algo asĆ como ā Combina estas imĆ”genes y colócalas adecuadamente, todo en una imagen 16:9. Pon el vestido sobre el maniquĆā. Hasta la sombra de los objetos es realista⦠Yo si fuera de marketing estarĆa pagando ya la suscripción anual
4. Alta fidelidad y calidad texto: Uno de los talones de Aquiles de la generación de imĆ”genes es la inclusión de texto. Bueno, lo era. Ya no. Con Nano Banana Pro puedes pedir anotaciones, acotaciones, y todo lo que se te ocurra, que todo lo que cree serĆ” legible. ĀæQue tienes que hacer un trabajo sobre un Ć”rbol para explicĆ”rselo a unos niƱos? Pues en un prompt tienes la infografĆa hecha.

Esta infografĆa la he hecho a la primera, con el siguiente prompt (erratas incluidas) āAhora crea una infografĆa del madroƱo (arbutus unedo). Muestra una imagen fotorrealista del Ć”rbol, y ademĆ”s, muestra en dibuojs o ilustraciones sus mayores caracterĆstics. tipo de fruto. zona de la que es nativo, tipo de hoja, y de flor, fecha de floracion y fruto, altura, etc. Haz la infografĆa enfocada a niƱos y en espaƱolā No me cuido ni de no poner erratas, porque me va a entender igual. Y esto, con NanoBanana, no era igual, creedme, que lo intentĆ©. El texto no era legible, se inventaba la forma de la flor, te pintaba fresas en lugar de madroƱosā¦
Una de las mayores ventajas competitivas de Google frente a sus rivales OpenAI, Anthropic, xAI o las anĆ”logas chinas, es su capacidad de integrar sus modelos en el enorme ecosistema que tiene. En este caso, Nano Banana Pro ya ha sido integrado en varias de sus herramientas: lo tienes disponible en la app de Gemini, en Google AI Studio, para resĆŗmenes de NotebookLM, para crear vĆdeos con Flow, para diseƱar interfaces profesionales en Vertex AI o Antigravity, para generar anuncios de Google Ads⦠y asĆ una larga lista. Y si quieres usarlo tĆŗ, simplemente ve a la pĆ”gina de Gemini y selecciona la opción de Crear ImĆ”genes. No tiene pĆ©rdida, solo busca el iconito del plĆ”tano š .
Y ademĆ”s, siempre ponen Ć©nfasis en cómo detectar si una imagen ha sido generada por sus modelos (y viendo el fotorrealismo, se agradece porque uno ya no sabeā¦). Cada imagen generada lleva marcas de agua invisibles (SynthID) para identificarla como creada por IA, y tienen filtros robustos para evitar deepfakes daƱinos o contenido problemĆ”tico. (Si quieres saber mĆ”s sobre la tecnologĆa de SynthID, puedes leer mĆ”s en el post que hice sobre eso en mi blog:
Mientras Google celebraba el lanzamiento de Nano Banana Pro, OpenAI y Anthropic no se quedaron quietos. Ambos lanzaron actualizaciones la misma semana, casi de forma coordinada, como si hubieran acordado responder al gigante de Mountain View al mismo tiempo. Y la estrategia ha sido clara: "QuizÔs no tengamos el mejor modelo general, pero mira lo que podemos hacer en programación".
š» La respuesta de los rivales: GPT Codex Max 5.1 y Claude Opus 4.5 para programar mejor que nadie
El 19 de Noviembre, tan solo un dĆa despues del lanzamiento de Gemini 3 Pro, OpenAI lanzaba su modelo mĆ”s avanzado especializado en programación. El GPT 5.1 Codex Max. Una versión mejorada de su existente Codex, que estĆ” hiperespecializado en generación de código. No solo es muy bueno escribiendo código, sino que lo hace de manera mĆ”s eficiente. De hecho, en OpenAI lo venden como el primer modelo entrenado especĆficamente para poder trabajar y programar a lo largo de varias sesiones de contexto. ĀæCómo? La clave es la "compactación contextual": trabaja con millones de lĆneas sin perder el hilo. Es como si tan solo tienes 10 pĆ”ginas para hacer un trabajo, pero cuando estĆ”s llegando al final, resumen todo lo que llevas en media pĆ”gina, y sigues escribiendo en las otras nueve y media que se han quedado libres. El problema de las ventanas de contexto en modelos de programación es conocido, y en OpenAI son conscientes y parece que lo estĆ”n resolviendo. Pero no solo en OpenAIā¦
Apenas unos dĆas mĆ”s tarde, el 24 de Noviembre, Anthropic presentaba el modelo mĆ”s pesado y avanzado que tenĆan. El Claude Opus 4.5. El rey de los modelos de programación, junto con Codex, era el otro modelo de Anthropic Claud Sonnet 4.5. De hecho, el benchmark de programación era uno de los muy pocos en lo que Gemini no se puso lĆder en su salida, al no poder superar a Claude Sonnet 4.5. Pero en Anthropic tenĆan este as bajo la manga, y parece evidente que han estado esperando a que Gemini sacara su modelo 3, para anunciar Claude Opus 4.5.

Claude Opus 4.5 se pone a la cabeza en el benchmark de escribir código correctamente, seguido por el nuevo GPT 5.1 Codex Max, y Sonnet 4.5, también de Anthropic.
Al igual que OpenAI con su GPT Codex Max 5.1, Anthropic se ha centrado en hacer que su modelo pueda trabajar bien a lo largo de varias sesiones de contexto. Ahora mismo todos estos modelos ya programan decentemente. Te pueden hacer casi cualquier ejercicio simple de programación con la misma o mejor precisión que un humano (de hecho, dice Anthropic que puso a prueba a su modelo a los mismos exĆ”menes internos a los que se enfrentan sus ingenieros, y obtuvo mejor puntuación que cualquiera de ellos). Pero donde aĆŗn queda por mejorar es en códigos realmente largos, esos de miles de lĆneas, o cientos de archivos. Los modelos actuales no tienen la memoria ni la habilidad de mantener en contexto toda la información, y se acaban perdiendo, si no al menos sufriendo mucho.
Pero Anthropic tambiĆ©n ha trabajado mucho en este problema. AdemĆ”s de tambiĆ©n incluir la compactación de la que hablĆ”bamos mĆ”s arriba, ha introducido lo que llaman āTool Search Toolā, o āherramienta de bĆŗsqueda de herramientasā. Y con ello han conseguido un modelo no solo mĆ”s inteligente, sino mucho mĆ”s eficiente, y por tanto, con mĆ”s capacidad, y mĆ”s barato.
ĀæEn quĆ© consiste el āTool Search Toolā? Te lo explico con un ejemplo.
Imagina que el modelo es un estudiante en una biblioteca. Tiene que resolver unos problemas en su hoja, y tiene acceso a todos los libros de la biblioteca. Pero hay un problema. La mesa en la que estĆ” no es lo suficientemente grande para traer todos los libros que querrĆa. Si tiene un problema que no sabe resolver, se va a por libros y se los trae a la mesa, pero en cuando lleva 10 o 12 libros, la mesa ya estĆ” llena, y no caben mĆ”s. No puede consultar otras cosas, o trae otro y se le cae el primero⦠un lĆo. Una solución podrĆa ser āser mĆ”s inteligenteā, es decir, usar menos libros. Pero cuando hay problemas complejos tiene que usar libros sĆ o sĆ. Entonces, se le ocurre una idea, la āTool Search Toolā, un mecanismo en el que no tiene por quĆ© traer los libros a la mesa, sino usar un punto intermedio en el que conseguir la información que necesita de los libros sin ocupar mĆ”s mesa. Es como irse a consultar al libro, y quedarse memorizando en la estanterĆa lo que necesita, y volverse sin el libro, para no ocupar la mesa. AsĆ es como estĆ”n haciendo en Anthropic que sus modelos sean mĆ”s eficientes, y por tanto los mejores para programar.

Con este truco, ahorran muchos tokens. En este ejemplo sin usar el Tool Search Tool, les quedan ~122k token, frente a ~193k libres cuando lo usan.
AĆŗn hay mucho que resolver para hacer los mejores agentes y modelos de programación, pero estĆ” claro que en estas grandes compaƱĆas, no les faltan recursos, ni ideas, para resolver los problemas que van saliendo, al menos de momento
Y ahora nos dejamos de nuevos modelos y lanzamientos (tranquilos, que las próximas semanas vienen repletas de mÔs lanzamientos), y vamos con algo mÔs salseante y a la vez, preocupante. El primer ciberataque orquestado por una IA.
Los anteriores modelos tienen, y tendrĆ”n, en mayor medida, aplicación directa en la investigación. Pero uno que ya tiene un uso muy extendido en la imagen mĆ©dica es el llamado āSegment Anythingā de Meta. La primera versión del Segment Anything (o SAM) fue publicado en 2023 (aquĆ el preprint original). Era un modelo de segmentación que podrĆa segmentar prĆ”cticamente cualquier objeto en cualquier imagen. Para los no iniciados en el maravilloso mundo de la segmentación, segmentar es la habilidad de identificar y aislar cualquier objeto en una imagen o vĆdeo, desde el sticker que haces manteniendo el dedo apretado en una foto de tu iphone hasta el tumor que detecta automĆ”ticamente una herramienta de anĆ”lisis de un hospital, que le puede decir al cirujano quĆ© volumen exactamente tiene que extirpar. Bueno, pues Meta presentó hace un par de aƱos su modelo SAM, y desde entonces, no solo ha ido publicando actualizaciones, sino todo el código del modelo para que cualquier investigador lo pueda aplicar a su Ć”mbito (aquĆ el repositorio de github).
Pues bien, el pasado 19 de noviembre Meta sacó la versión 3 de este modelo. De hecho, hizo un 2Ć1 y sacó otro modelo, el SAM 3D, que permite crear reconstrucciones 3D a partir de una sola imagen. Si quieres explorar un poco de lo que es capaz, tienen su propio playground aquĆ donde puedes subir cualquier imagen y pedir que te la segmente. Lo que sea.

AquĆ un ejemplo de uso en su playground. Le subĆ la foto anterior de la infografĆa del madroƱo y le pedĆ que segmentara āla frutaā sin mĆ”s descripción. Y lo resaltara y sombreara lo que no era fruta. No encontró todas, pero con la baja calidad de la imagen y de mi petición, el resultado es asombroso.
ĀæPor quĆ© la segmentación es importante? Porque es la tecnologĆa invisible que alimenta cientos de apps. Edición de fotos (lo tĆpico de quitar fondo, o seleccionar inteligentemente a tal individuo), producción de vĆdeo (efectos especiales automatizados), medicina (anĆ”lisis de diagnósticos), agricultura (drones analizando cultivos), robótica (visión por computador), industria militar (detección de objetos y personas en tiempo real)...

Un pequeƱo resumen de cómo funciona el modelo. No sólo segmenta lo que sea, sino que propaga la selección en vĆdeo. Y puedes utilizar lenguaje natural para detectar lo que buscas.
Y la mejor noticia es que Meta lo mantiene open source como toda la familia SAM, y aquĆ estĆ” el repositorio de SAM 3 por si lo necesitas, y aquĆ el paper. Para que no digas luego que la IA solo vale para hacer videos falsos y pedir consejo a ChatGPT.
Y ahora vamos con la sección de HistorIAs de la IA de hoy. Ya dijimos la semana pasada que traerĆamos al cerebro detrĆ”s de Deepmind, la parte de Google que lleva aƱos dejĆ”ndonos asombrados con las creaciones que hace. Gemini, Alphafold, AlphaGo, Genie, Nanobanana⦠una lista interminable de herramientas que si no estĆ”n cambiando ya el mundo, lo harĆ”n pronto.
HistorIAs de la IA. Hoy: š¤ QuiĆ©n es quiĆ©n š¤
Sir Demis Hassabis: Del ajedrez y los videojuegos al Nobel, pasando por resolver el plegamiento de proteĆnas
Sir Demis Hassabis tiene 49 aƱos. Es CEO de Google DeepMind desde 2024 (antes CEO de DeepMind antes de la fusión con Google Brain). Y no es un CEO cualquiera. Es de esos pocos cientĆficos elegidos que han ganado un Premio Nobel. En su caso, el de QuĆmica 2024 por crear AlphaFold, la IA que resolvió uno de los problemas mĆ”s difĆciles de la biologĆa: predecir cómo se pliegan las proteĆnas. Pero su historia es mucho mĆ”s fascinante que ese Nobel, si es que eso se puede.
Nació el 27 de julio de 1976 en Londres, hijo de un profesor de quĆmica grecochipriota y una profesora de chino singapurense. A los 4 aƱos jugaba al ajedrez. A los 8 ya era campeón de ajedrez infantil del Reino Unido. A los 13 ganó el campeonato nacional absoluto juvenil. PodrĆa haber sido gran maestro, pero decidió que el ajedrez era solo el comienzo.
A los 17 aƱos, en lugar de ir a la universidad, se fue a trabajar a Bullfrog Productions, la legendaria compaƱĆa de videojuegos. ĀæNo te suena Bullfrog Productions? EspĆ©rate, que si te gustan los videojuegos, a lo mejor sĆ que te suena⦠son los creadores de juegos mĆticos como Theme Park, Theme Hospital o Dungeon Keeper. De hecho, allĆ co-diseñó Theme Park, uno de los simuladores mĆ”s exitosos de los 90. Pero Hassabis no estaba interesado solo en hacer juegos divertidos. Le fascinaba crear mundos donde las IAs actuaran de forma creĆble. Sus NPCs (personajes no jugables) tenĆan comportamientos emergentes, tomaban decisiones que sorprendĆan incluso a los desarrolladores.
Con 20 aƱos, fundó Elixir Studios y creó Republic: The Revolution, un juego de estrategia polĆtica con una IA tan compleja que algunas reviews dijeron que era "demasiado inteligente para su propio bien". El juego no fue un Ć©xito comercial, pero llamó la atención de la comunidad acadĆ©mica porque la IA no era algo habitual en los videojuegos de la Ć©poca: este tipo claramente sabĆa hacer que las mĆ”quinas pensaran.
Entonces hizo algo poco comĆŗn: volvió a la universidad. A los 28 aƱos se doctoró en Neurociencia Cognitiva en University College London. Su tesis: cómo el cerebro construye la memoria episódica y la imaginación. Publicó papers en Nature y Science (casi nada) sobre cómo el hipocampo crea simulaciones mentales del futuro. No era un informĆ”tico jugando a hacer neurociencia, era un neurocientĆfico de verdad.
En 2010, con 34 años, fundó DeepMind con Shane Legg y Mustafa Suleyman. La misión: resolver la inteligencia y usarla para resolver todo lo demÔs (casi nada, otra vez). Su primer gran logro fue DQN (Deep Q-Network), una IA que aprendió a jugar 49 juegos de Atari sin que nadie le dijera las reglas. Solo mirando la pantalla.

Un joven Hassabis, junto a dos de sus pasiones: videojuegos y ajedrez.
Luego vino AlphaGo (2016). La IA que venció a Lee Sedol, el mejor jugador de Go del mundo. El Go es infinitamente mĆ”s complejo que el ajedrez (mĆ”s posiciones posibles que Ć”tomos en el universo). Y AlphaGo no solo ganó, jugó movimientos que los expertos consideraron "creativos" y "hermosos". Hassabis lloró durante la partida. Era la confirmación de que sus ideas funcionaban. PrĆ”cticamente la historia de cada pĆ”rrafo da para una pelĆcula, y la prueba de ello es que de hecho, la historia sobre AlphaGo estĆ” en una pelĆcula (muy bien valorada) que puedes ver en Youtube , aquĆ. Si un dĆa no tienes nada que ver, te la recomiendo.
En 2014, Google compró DeepMind por 500 millones de dólares. Pero Hassabis negoció algo inusual: autonomĆa total. DeepMind seguirĆa siendo DeepMind, con su propia cultura, sus propios objetivos. Y Google, a su crĆ©dito, respetó el acuerdo.
Entonces llegó AlphaFold (2020). El problema del plegamiento de proteĆnas habĆa atormentado a los biólogos durante 50 aƱos. Una proteĆna es una cadena de aminoĆ”cidos, pero su función depende de cómo se pliega en 3D. Predecir esa estructura habĆa sido imposible. AlphaFold lo resolvió. No de forma aproximada, sino con precisión atómica. La comunidad cientĆfica lo llamó "el avance mĆ”s importante de la biologĆa del siglo XXI".
AlphaFold ha sido usado para diseƱar nuevos medicamentos, entender enfermedades raras, desarrollar vacunas, ha ayudado a predecir estructuras de proteĆnas en las que otros mĆ©todos llevaban atascados una dĆ©cada⦠El avance es tan revolucionario que Hassabis ganó el Nobel de QuĆmica 2024 junto a John Jumper (quien lideró tĆ©cnicamente el proyecto).

Sir Demis Hassabis, Nobel de QuĆmica de 2024, y una de las mentes mĆ”s influyentes de todo el siglo XXI.
Pero Hassabis no se ha detenido ahĆ. Bajo su liderazgo, DeepMind creó:
AlphaCode: IA que compite en competiciones de programación
Gemini: la familia de modelos que rivalizan con GPT, Āæos suena?
AlphaFold 3: que ahora predice interacciones entre proteĆnas, ADN, ARN...
AlphaProof y AlphaGeometry: IAs que resuelven problemas de matemĆ”ticas olĆmpicas
Genie 3: Modelos que crean mundos 3D persistentes al instante.
En 2024, Google fusionó DeepMind y Google Brain en una sola entidad: Google DeepMind, con Hassabis como CEO. Es el cientĆfico que lidera el proyecto de IA mĆ”s ambicioso de una de las empresas mĆ”s poderosas del planeta.
¿Qué hace especial a Hassabis?
Que no es solo un empresario ni solo un cientĆfico. Es alguien que entiende profundamente quĆ© es la inteligencia (gracias a su doctorado en neurociencia), cómo construirla (gracias a su experiencia en IA), y cómo desplegarla para resolver problemas reales (gracias a sus dĆ©cadas en tecnologĆa). Y lo hace con una humildad poco comĆŗn en Silicon Valley. En entrevistas, suele decir que DeepMind "aĆŗn estĆ” en el acto uno de la obra". Que apenas estĆ”n empezando. Que lo mejor estĆ” por venir.
Si Sundar Pichai es el gestor que orquesta Google, Demis Hassabis es el visionario que define hacia dónde va. Y si esta semana Google estĆ” celebrando Gemini 3 y Nano Banana Pro, gran parte del mĆ©rito es de este tipo que a los 4 aƱos jugaba ajedrez y soƱaba con construir mentes artificiales, y que ha dicho varias veces que cuando se retire y tenga un poco de tiempo quiere aplicar su conocimiento de IA para esta vez sĆ, hacer los mejores videojuegos.
Y para cerrar la newsletter, la herramienta que Google tambiĆ©n lanzó esta semana pasada junto con Gemini 3 pro (sĆ, han estado muy ocupados): Antigravity. Si AI Studio es donde juegas con Gemini, Antigravity es donde Gemini trabaja por ti. Es un entorno de desarrollo (IDE) donde los agentes de IA planifican, escriben y ejecutan código de forma autónoma.
š La Herramienta de la semana
Antigravity: El nuevo IDE de Google donde la IA programa por ti (literalmente)
Un IDE es un entorno de desarrollo, es decir, muy simplificado, āun programa con el que se programaā. Para los que sabĆ©is quĆ© es un IDE, Antigravity es el nuevo VS Code, o Cursor, o Windsurf⦠pero con mĆ”s cosas. De hecho, Antigravity es un fork de VSCode (y tanto estĆ©ticamente como gran parte del funcionamiento, los perfiles, los atajos, etc, estĆ”n sacados de VS Code, o, siendo precisos, de Windsurf, que a su vez es otro fork de VS Code)
Pero vale ya de decir āVS Codeā cada cinco palabras. ĀæQuĆ© tiene de especial Antigravity (que no tenga VS Code š )? Pues varios componentes clave, y muy interesantes:
1. El concepto "Agent-First" vs. "Editor-First"
VS Code es un editor de texto donde tú eres el protagonista y la IA es tu copiloto (te sugiere, te ayuda). Antigravity es una plataforma de gestión de agentes.
Su interfaz estÔ dividida. Tienes el editor de código (que de hecho es un fork de VS Code, por lo que te resultarÔ familiar), pero la novedad es el "Agent Manager" (o Mission Control).
En lugar de solo escribir código, tú asignas "misiones" o tareas complejas a agentes autónomos. No es un chat al que le pides una función; es un gestor al que le dices "Refactoriza este módulo y crea los tests", y el agente se va a trabajar en segundo plano.
2. Agentes Autónomos Reales (Planificación y Ejecución)
En VS Code, las extensiones de IA suelen ser reactivas (esperan a que escribas o preguntes). Es decir, los agentes pueden:
Planificar: Crean una lista de pasos antes de tocar nada.
Usar la Terminal: Ejecutan comandos, instalan dependencias y corren scripts por su cuenta.
Usar el Navegador: Tienen un navegador integrado para ver la web que estĆ”n creando, "ver" el error visualmente y corregirlo. SĆ, el propio agente se abre el navegador y se pone a hacer click a ver si todo funciona.
Verificar: No solo escriben el código, sino que ejecutan los tests para asegurar que funciona antes de avisarte.
3. Orquestación Multi-Agente AsĆncrona
VS Code: Generalmente trabajas en una sola cosa a la vez. Si la IA estĆ” escribiendo, tĆŗ miras.
Antigravity: Puedes tener mĆŗltiples agentes trabajando en paralelo.
Ejemplo: Puedes poner a un agente a migrar una base de datos, a otro a actualizar el CSS de la home, mientras tú revisas código en el editor principal. Es como pasar de ser un albañil a ser el jefe de obra.

La manera de interactuar con varios agentes es única, y muy novedosa. Les puedes mandar tareas en paralelo, y ya ellos te enviarÔn mensajes que irÔn a una bandeja de entrada (o Inbox) cuando necesiten pedirte algún permiso o decirte si han acabado. Es como orquestar tu pequeño grupo de programadores y que se comuniquen contigo por email cuando te necesiten, en lugar de hablar con uno y quedarte mirÔndole hasta que acabe algo para pedirle lo siguiente.
De momento, parece que Google ha apostado fuerte por esta nueva manera de entender la programación con IA: si VS Code es la herramienta perfecta para escribir código, Google Antigravity quiere ser la herramienta perfecta para construir software delegando el trabajo sucio. Veremos cuÔnta gente lo empieza a usar. De momento, parece que mucha gente al menos la estÔ probando por otra de sus grandes ventajas actuales: puedes usar como modelos, Gemini 3 Pro Thinking, Gemini 3 Pro, Claude Sonnet 4.5 y GPT OSS 120B (el modelo open source de OpenAI) de manera gratuita. Y eso no estÔ nada mal.
Y hasta aquĆ la entrega #13 de la Newsletter.
AquĆ cerramos otra semana, que ha traĆdo tantas o mĆ”s novedades que la anterior. Nano Banana Pro, Codex, Opus 4.5, Segment Anything⦠son modelos que estarĆ”n con nosotros los próximos meses (hasta que salgan otros mejores), y de los que seguiremos leyendo noticias, pero probablemente no veremos una explosión asĆ de avances hasta el 2026⦠”veremos si nos dejan descansar un poco y disfrutar de lo que han creado!
Nos vemos la próxima semana. Y que alguien le diga a Google que se tome un respiro, que esto de lanzar tres productos en una semana nos tiene agotados.
Como siempre, recuerda que puedes puntuar el post y comentar despuĆ©s, por si quieres dar ideas, quejas, sugerencias, peticiones⦠š¤ .
š§ š§ š§ š§ š§ Ā”Alimento para la mente!
š§ š§ š§ Tienes que pensarlo mejor
š§ Han faltado neuronas
Y si quieres que tus amigos o familiares estĆ©n tan al dĆa de la IA como tĆŗ, Ā”puedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artĆculos mĆ”s elaborados, que te ayudarĆ”n a entender la IA desde otro punto de vista.
>>> Nos vemos en la siguiente entrega š¤
>>> Ā” Hasta prompto !


