Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural

¡Hola prompters! 23 de Octubre. Octava entrega y aquí seguimos 🤙, viendo cómo la IA pasa de "move fast and break things" a "move fast pero arregla esto porque nos están demandando todos". OpenAI está aprendiendo por las malas que lanzar Sora 2 sin filtros era muy optimista y ya le están lloviendo las quejas. Mientras tanto, Anthropic ha presentado varias novedades interesantes para su Claude, y Google nos recuerda que la IA puede hacer cosas más útiles que generar memes virales: como, por ejemplo, ayudarnos a curar el cáncer. Por último, hace sólo un par de días OpenAI presentó ¡su navegador propio con ChatGPT integrado!

En la newsletter de hoy…:

>>> Tres Cuatro noticias destacadas

🎬 Sora 2 bajo fuego cruzado: OpenAI cambia la política de copyright tras numerosas quejas
📈 Claude se pone serio: Haiku 4.5 barato y bueno, Code Web con sandbox, y Skills para enseñarle trucos nuevos
🧬 Gemini contra el cáncer: Descubre terapias que ni los científicos habían imaginado
🌐 ChatGPT Atlas: OpenAI estrena navegador propio. ¿Tiembla Chrome?

>>> HistorIAs de la IA
👤 Quién es quién 👤 : La postponemos a la semana que viene ¿Quién será? 🫀🧬

>>> Una herramienta
🛠 Comet de Perplexity: El navegador con IA de Perplexity

Y por aquí abajo está el la canción resumen de la semana. Esta semana una bachatita a ver que os parece

¿Qué ha pasado esta semana en el mundo de la IA?

Hace ya tres semanas que OpenAI lanzó Sora 2 con una app social tipo TikTok donde cualquiera puede generar vídeo en 1080p con IA. Empezó como una aplicación de generación de vídeo sin apenas filtros, ni copyrigt. Anime, contenidos con copyright tipo Pokemon, Super Mario, Padre de Familia… Incluso se podían utilizar las caras de famosos que hubieran accedido, como pasó con los vídeos de Sam Altman, que pronto inundaron el feed los primeros días. Pero la cosa se fue de mano. Vídeos de Stephen Hawking luchando MMA o haciendo skate, celebridades fallecidas haciendo cosas que sus familias no aprobarían y hasta versiones del famoso discurso de Martin Luther King nada favorecedoras. En menos de tres semanas, OpenAI pasó de "somos líderes en IA responsable" a "por favor dejen de demandarnos".

Japón entra al ring

Disney se adelantó a la jugada y pidió desde el principio a OpenAI bloqueara sus personajes, pero los grandes estudios japoneses de anime no estuvieron tan rápidos. Mientras Sora 2 bloqueaba Mickey Mouse desde el día uno, Sora 2 se convirtió en una máquina de piratear anime. Usuarios generaban clips de Studio Ghibli, Pokémon, Dragon Ball... todo sin permiso. Pero pronto el gobierno japonés lo dejó claro: "El anime y el manga son tesoros irreemplazables. Hemos solicitado a OpenAI que no infrinja derechos de autor".. Tras la presión, empezaron a bloquear personajes uno por uno, pero muchos se quejan de que el daño ya está hecho. Y no sólo por copyright.

De vídeos graciosos como Super Mario huyendo en kart de la policía a otros más extravagantes como Sam Altman comiéndose a Pikachu. OpenAI les dio libertad creativa a los usuarios y se acabó arrepindiento

La familia de Martin Luther King Jr.

Hubo usuarios que generaron vídeos de MLK robando en supermercados y haciendo ruidos racistas durante su discurso más famoso. Bernice A. King, su hija, lo resumió: "Muchas representaciones nunca alcanzaron el nivel de libertad de expresión. Eran estupideces". Su familia exigió que se bloqueara la imagen de su padre.

El problema de fondo es que en EEUU, las leyes de difamación no aplican a personas fallecidas. Las familias tienen que pedir manualmente que se bloquee cada imagen. Pero en favor de OpenAI hay que decir que actuaron rápido, y tras la petición de la familia del fallecido, bloquearon todos los vídeos que le usaran como personaje.

Los últimos en quejarse: el sindicato de actores de EEUU con Bryan Cranston

El actor de Breaking Bad Bryan Cranston encontró su imagen usada en Sora 2 sin consentimiento. Hubo deepfakes suyos interactuando con Michael Jackson. Cranston contactó con SAG-AFTRA (el Sindicato de Actores de Cine y la Federación Estadounidense de Artistas de Televisión y Radio) y hace apenas unos días emitieron un comunicado junto con OpenAI con nuevas modificaiones a la política de creación de videos de Sora 2. Entre lso principales puntos estaban:

  • Opt-in obligatorio: nadie usa tu imagen sin permiso explícito

  • Respuesta rápida a quejas

  • Apoyo a la ley NO FAKES Act para proteger a artistas

Lo que aprendemos

OpenAI apostó por lanzar rápido y arreglar después. Pero cuando tu producto genera deepfakes ofensivos y copia anime a escala industrial, "arreglar después" significa enfrentarte a gobiernos, familias de íconos históricos, y el sindicato de actores más poderoso de Hollywood. En un mes, pasaron de "genera lo que quieras" a filtros y bloqueos bajo presión. Rectificar es de sabios, y han ido rectificando rápido, pero aún queda por resolver cómo compaginar la libertad creativa de una herramienta como Sora con los vídeos irrespetuosos que muchos usuarios usarán a la mínima oportunidad

Mientras OpenAI apagaba fuegos con Sora 2, Anthropic ha tenido una semana bastante productiva. Sin escándalos, sin demandas, sin gobiernos extranjeros quejándose... (de momento que ya sabemos que Anthropic y China no se llevan muy bien…). Veamos qué lanzamientos nos trae Anthropic esa semana:

Por si no habías caido, te explico un truquito para entender el naming de los modelos de Claude: los tres actuales son Opus, Sonnet y Haiku. Si te fijas, van en orden decreciente de “tamaño”: una opus es mucho más larga que un soneto, y un haiku es el famoso poema japonés de tan solo 3 versos de 5, 7 y 5 sílabas. Este otrden por tamaño lo siguen los modelos LLM en los que se basan las tres nomenclaturas. Aunque no hay cifras oficiales, el Haiku tienes menos parámetros (pero en el orden de miles de millones, no como los 7 millones del TRM de Samsung de la semana pasada), el Sonnet tiene una cantidad intermedia y Opus es el modelo más grande. A mayor número de parámetros, más lentos y pesados, y mejor razonan, pero más despachi.

Total, que el 15 de octubre, Anthropic lanzó Claude Haiku 4.5, y el avance sobre la generación anterior es clara. Es un modelo tan bueno como Claude Sonnet 4 (que hace cinco meses era estado del arte), pero tres veces más barato y dos veces más rápido.

Venga unos benchmark de esos que nos encantan aquí. Fijaos cómo supera a Sonnet en SWE-bench Verified (para arreglar bugs reales en Github), en Terminal-Bench (tareas complejas de terminal) está a la altura de GPT-5

Además, Haiku 4.5 es el primer modelo de la familia Haiku con modo de pensamiento extendido (extended thinking). Es decir, puede razonar paso a paso como los modelos grandes. Un modelo "pequeño" con capacidades de razonamiento "grandes".

¿Para qué sirve esto en la práctica? Imagina que tienes Sonnet 4.5 como tu "arquitecto jefe" diseñando un sistema complejo (con instancias a través de la API). Haiku 4.5 puede ser la flota de "ingenieros rápidos" que ejecutan las subtareas en paralelo. Sonnet planea, Haiku ejecuta. Y como Haiku es mucho más barato, puedes lanzar docenas de instancias simultáneamente sin que te cueste una fortuna.

Claude Code Web llegó el pasado 20 de Octubre. Y es exactamente lo que suena: Claude Code (su agente de programación) disponible directamente en el navegador, corriendo en servidores de Anthropic, sin necesidad de abrir la terminal. En realidad con alternativas como AIstudio o Codex, estaba claro eu Claude Code tenía que renovarse e integrar su motor en la Web, y no sólo en la terminal. Pero es que hay más novedades más importantes que el cambio de dónde se aloja: el sistema de sandboxing.

Hasta ahora, usar Claude Code en modo Agente era una experiencia tipo: "¿puedo hacer esto?", "¿puedo hacer lo otro?", "¿puedo acceder a este archivo?". Te cansabas antes de que el proyecto despegara. El sandboxing cambia el juego completamente:

  1. Aislamiento del sistema de archivos: Claude Code solo puede acceder a los archivos de tu proyecto, nada más. Tu carpeta de fotos personales está a salvo 😌

  2. Aislamiento de red: Todo acceso a internet pasa por un proxy que filtra qué dominios puede tocar

  3. Git securizado: Las credenciales nunca están dentro del sandbox; un proxy maneja la autenticación

El resultado: Claude puede trabajar 84% más autónomamente sin bombardearte con peticiones de permisos (no me he inventado el número, lo dicen aquí). Defines las reglas una vez (tipo "puedes leer archivos .py, puedes instalar dependencias, no puedes acceder a mi .env, las credenciales no las puedes ver, etc"), y Claude opera dentro de esas fronteras de forma segura. Es como darle las llaves de tu casa a alguien pero solo de ciertas habitaciones.

Unos pocos días antes, el 16 de octubre, Anthropic presentó Claude Skills. Técnicamente, un Skill (habilidad, en español) es básicamente una carpeta con:

  • Un archivo SKILL.md con instrucciones de cómo hacer algo

  • Opcionalmente, scripts, datos, y recursos adicionales

Claude escanea los Skills disponibles al inicio de una sesión, lee solo los nombres y descripciones (unas pocas docenas de tokens, cantidad despreciable), y cuando detecta que necesita uno, lo carga completo y lo ejecuta.

Pero para entender mejor qué son estas Skills o por qué son útiles, piensa en un trabajado que se acaba de unir a una empresa. Sabe mucho, puede hacer las mejores presentaciones, pero la primera que haga le va a costar tiempo aprender: cada empresa tiene un tono, un branding particular, quizá una plantilla de powerpoint, una manera de comunicar, etc… Otro ejemplo: estás haciendo tu tesis, y tú quieres tus figuras de una manera muy particular, y homogénea. Siempre el mismo tipo de letra de las etiquetas, el eje X en negrita al 12, los puntos primero azul, luego rosa, luego naranja, etc. Son reglas básicas pero que Claude no sabe de primeras, y no quieres tener que explicárselas a cada paso. Simplemente cargas esto como "Skills” y que las utilice cuando las necesite…

Así se en algunos de los Skills que puedes añadir. Es como enseñarle habilidades a tu personaje de videojuego 🤓

Y algo muy útil: los Skills son portables. Porque al final son solo archivos Markdown y scripts, cualquier modelo con acceso a un sistema de archivos puede usarlos. Puedes tomar un Skill hecho para Claude y usarlo con GPT, Gemini, o lo que venga después. Ahora no sólo tus figuras de tu paper serán con un estilo característico, sino que todo el grupo tendrá el mismo estilo con cero esfuerzo.

Anthropic también lanzó un "skill-creator" skill (sí, es metaskill, como mi metaprompt): un Skill que ayuda a crear otros Skills. Le dices a Claude qué workflow quieres automatizar, y él genera la estructura de carpetas y archivos necesarios. Y en este repositorio de Github de Anthropic tienes algunos más, por si les encuentras uso o quieres inspiración.

Parece todo muy complicado, pero una vez lo usas (y la gente lo acabará usando), se ve muy intuitivo, sencillo y lógico.

Anthropic también anunció esta semana su iniciativa "Claude for Life Sciences", colaborando con instituciones de investigación para aplicar sus modelos a problemas biomédicos reales: análisis genómico, descubrimiento de fármacos, medicina personalizada... Pero si explico todo, nos queda una newsletter mas larga que el telediario de las 9, así que salto a otra noticia, esta vez de Gemini, pero también muy relacionada con la IA en la ciencia:

Vale ya de IA para hacer vídeos, para programar, para retocar imágenes o crear robots. Vamos con algo de IA para ciencia. Para investigación científica básica:

El 17 de octubre, Google y la Universidad de Yale soltaron una bomba: un modelo de IA llamado Cell2Sentence-Scale 27B (C2S-Scale para los amigos) había generado una hipótesis sobre cómo combatir ciertos tipos de cáncer... y la hipótesis se confirmó experimentalmente en células humanas vivas. Esto no es "la IA ayudó a los científicos a analizar datos más rápido". Es "la IA tuvo una idea que ningún humano había tenido antes, y cuando los científicos la probaron, resultó ser correcta". Es un salto cualitativo brutal en lo que la IA puede hacer por la ciencia.

¿Qué es C2S-Scale y por qué importa?

C2S-Scale es un modelo con 27 mil millones de parámetros (construido sobre la familia Gemma de Google, sus modelos open source). Su especialidad: entender el "lenguaje" de las células individuales. ¿Cómo? Pues entrenándolo de manera muy similar a los LLM más famosos. Si GPT-5 ha sido entrenado sobre un corpus gigantesco de internet (es decir, gracias a que se ha estudiado toda la wikipedia, te sabe predecir la biografía de alguien), C2S-Scale ha sido entrenado sobre millones de datos de atlas, transcriptomas, anotaciones, papers, sets de expresiones genéticas… Esto suena raro hasta que lo piensas un segundo: cada célula en tu cuerpo tiene un patrón único de expresión genética. Qué genes están activos, cuánto se expresan, cómo interactúan entre ellos... es información increíblemente compleja. C2S-Scale toma esos datos (que para un humano son básicamente Excel interminables de números) y los convierte en "frases" que un modelo de lenguaje puede entender y analizar.

Es como si cada célula escribiera su autobiografía en un idioma que solo las máquinas pueden leer fluidamente, y C2S-Scale aprendiera a leerlas todas a la vez y encontrar patrones.

Si te gustan estas cosas, échale un vistazo a su paper en biorXiv, https://www.biorxiv.org/content/10.1101/2025.04.14.648850v2, con figuras muy trabajadas que se entienden sin tener que saber tanto de biología.

La prueba de fuego para el modelo: Tumores "fríos" que el sistema inmune no ve

Uno de los grandes problemas del cáncer es que muchos tumores son "inmuno-fríos" (immune-cold en inglés). Es decir, el sistema inmune no los detecta. Están ahí, creciendo alegremente, pero son prácticamente invisibles para tus defensas naturales. Es como si el tumor llevara una capa de invisibilidad.

La inmunoterapia moderna intenta "calentar" esos tumores: hacer que el sistema inmune los vea y ataque. Pero encontrar formas de hacerlo es complicadísimo, porque requiere entender interacciones celulares a nivel molecular que ni siquiera los mejores biólogos comprenden completamente.

La hipótesis de la IA: "Prueben a combinar esto con esto"

El equipo de Yale le dio a C2S-Scale una tarea: encontrar un fármaco que actúe como "amplificador condicional". Algo que, solo en presencia de bajos niveles de interferón (una proteína del sistema inmune), amplifique la señal inmunológica y haga que las células tumorales presenten más antígenos (básicamente, que se vuelvan más "visibles" para el sistema inmune).

Traducido: buscar una droga que solo funcione en contexto específico, cuando ya hay un poquito de respuesta inmune pero no suficiente. Como un amplificador de señal que solo se activa cuando detecta que hay algo de señal que amplificar.

C2S-Scale analizó más de 4,000 fármacos candidatos en una "pantalla virtual" (screening computacional, no experimentos reales aún) con dos escenarios:

  1. Contexto inmuno-positivo: Muestras de pacientes reales con tumores e interacción tumor-inmune activa pero débil

  2. Contexto inmuno-neutral: Líneas celulares aisladas, sin contexto inmune

El resultado que escupió el modelo: silmitasertib (CX-4945), un inhibidor de la quinasa CK2, combinado con dosis bajas de interferón.

La validación experimental: Funcionó

El equipo de Yale cogió la recomendación de la IA y la probó en células humanas vivas en laboratorio. Y funcionó. La combinación de silmitasertib con interferón aumentó la presentación de antígenos en aproximadamente 50%. Exactamente como la IA predijo.

Pero espera, aquí viene lo verdaderamente alucinante: este uso específico de CK2 como amplificador condicional en contexto inmunológico nunca había sido descrito en la literatura médica. La IA no estaba regurgitando conocimiento existente que había leído en sus datos de entrenamiento. Estaba conectando puntos que ningún humano había conectado antes. Es como si alguien te diera todas las piezas de un puzzle que nadie ha resuelto, y la IA viera el patrón que todos nos habíamos perdido. Casi como un científico de verdad, y de los buenos.

¿Qué significa esto para el futuro?

Esto no es solo un paper más para añadir a la pila. Es una demostración de principio: modelos de IA suficientemente grandes y especializados, entrenados a conciencia, pueden generar hipótesis biológicas novedosas que se validan experimentalmente en el mundo real.

El equipo de Yale ya está explorando el mecanismo molecular completo descubierto y probando predicciones adicionales en otros contextos inmunológicos. Si esto escala (y hay razones para creer que sí), podríamos estar viendo un cambio de paradigma en cómo descubrimos fármacos.

En lugar de científicos haciendo experimentos a ciegas durante décadas, quemando presupuestos millonarios en callejones sin salida, la IA puede guiarlos directamente hacia las combinaciones más prometedoras. No reemplaza a los científicos (aún necesitas el laboratorio, los experimentos, la validación), pero les da un copiloto con visión de rayos X.

Y lo mejor: C2S-Scale está disponible en GitHub y Hugging Face para que cualquier investigador lo use. Google está apostando por la ciencia abierta, y eso es algo que merece reconocimiento. Aquí puedes ver su preprint, aquí su Github, y aquí el modelo en Hugging Face. No nos podemos quejar…

¡Noticia de última hora! Ya tenía mis tres noticias listas, pero antes de ayer OpenAI presentó su navegador propio basado en ChatGPT y no podía no habler de ello…

Acaban de lanzar ChatGPT Atlas: su primer navegador web con IA integrada nativamente. La premisa es simple ¿y si tu navegador conversara contigo en lugar de ser solo una colección infinita de pestañas? ¿y si se acordara de lo que haces para mejorar en tus próximas visitas? Sam Altman lo dijo bastante claro en el livestream de lanzamiento: "Las pestañas estuvieron bien durante 20 años, pero no hemos visto mucha innovación desde entonces". Atlas apuesta por un futuro donde chateas con tu navegador en lugar de buscar en Google y abrir 47 pestañas.

A ver, sí, muy bien, pero tampoco es que hayan inventado ellos el navegador con IA… (de hecho, atentos a la Herramienta de la Semana que os traigo más abajo, porque es precisamente otro navegador que ya pensó Perplexity y lanzó meses atrás).

Entonces ¿Qué tiene Atlas que un navegador como Chrome no tiene?

Lo que diferencia a Atlas del resto es el sidebar "Ask ChatGPT" omnipresente. Estés en la página que estés, ChatGPT está ahí, viendo lo mismo que tú, listo para ayudarte. Puedes pedirle que resuma ese artículo de 5000 palabras que te da pereza leer (no me refiero a esta newsletter. esta newsletter prohibido resumirla con ChatGPT eh?), que compare productos en diferentes sitios web, que edite emails directamente en Gmail, o que gestione tus pestañas por ti.

Sin copiar y pegar. Sin cambiar de app. Sin perder el contexto. Es como tener un asistente que literalmente mira por encima de tu hombro (pero de forma menos perturbadora de lo que suena). Si ya estos dos últimos años hemos ido mejorando nuestra habilidad de “copiar y preguntar a chatgpt”, ahora OpenAI nos lo pone mas fácil y nos evita el cambiar del navegador al Chat. Está todo integrado, y todo baso su control, claro..

Y la joya de la corona es Agent Mode (solo para usuarios Plus, Pro y Business de momento, lo típico). Es el agente de OpenAI corriendo nativamente en tu navegador haciendo tareas por ti. En la demo del lanzamiento, mostraron cómo Atlas encuentra una receta online, añade todos los ingredientes al carrito de Instacart, y completa la compra. Tareas que te llevarían un ratito de clicks y copiar-pegar, automatizadas completamente. (Aunque siendo honestos, la demo tampoco fue perfecta perfecta... pero ya sabes, las demos nunca lo son).

Atlas también tiene browser memory: recuerda qué webs visitas con frecuencia, qué documentos editas, qué buscas habitualmente. Puedes preguntarle cosas como "encuentra todas las ofertas de trabajo que miré la semana pasada y hazme un resumen de tendencias de la industria". Es personalización a nivel Google... pero controlada por OpenAI.

Me gustaría traer alguan imagen que muestre cómo es, pero aún no lo he probado y lo que encuentras en OpenAI son algunos videos de cómo se ve, que aquí no puedo poner. Prometo probarlo y mostraros cómo se ve, que tiene buena pinta

¿Y la privacidad en todo esto?

Aquí viene la letra pequeña (porque siempre hay letra pequeña): Atlas registra tu historial de navegación y lo usa para personalizar ChatGPT. Puedes desactivar las memorias, archivarlas, o borrarlas manualmente. Por defecto, OpenAI dice que no usan tu contenido para entrenar modelos... a menos que actives "include web browsing" en settings (que está desactivado por defecto, para ser justos). Ah, y los controles parentales funcionan también en Atlas: puedes desactivar memorias y agent mode para cuentas infantiles.

¿Funcionará realmente?

La pregunta del millón. Chrome tiene más de 3 mil millones de usuarios y 65% de cuota de mercado global. Es el navegador. Atlas está disponible solo en macOS de momento (Windows, iOS y Android "próximamente", ya sabes cómo van estas cosas). Y aunque la integración de ChatGPT es realmente impresionante, los agentes web aún luchan con tareas complejas que requieren múltiples pasos.

Pero OpenAI no está sola en esto. Atlas llega justo después de que Perplexity lanzara Comet (¡enseguida hablamos de eso!), The Browser Company lanzara Dia, y Google reforzara Chrome con AI Mode (¡de esto hablaremos próximamente!). Los navegadores se han convertido en el nuevo campo de batalla de la IA. Y curiosamente, todos están de acuerdo en una cosa: Chrome, tal y como lo conocemos, tiene los días contados. O no. O Chrome se reinventa, como lo ha hecho Google, y les da una paliza a todos. Que no se es el rey durante años sin tener nada bueno.

Disponible ya en chatgpt.com/atlas (solo Mac de momento, no te emociones aún si usas Windows).

Vale, esta newsletter se está pasando de larga. Había pensado en traer en HistorIAs de la IA a un científico, ya que habíamos hablado de este nuevo modelo científico de Gemini. ¿Qué os parece si lo dejamos para la siguiente semana? Podéis intentar adivinar y poner en los comentarios de quién se trata (pista, es cardiólogo 😉 ) .

🫀 🧬 ¿Quién será el 👤 Quién es quién 👤 de la próxima semana? 🫀 🧬

Y ahora vamos con la herramienta de la semana que, esta sí, no puede tener mejor timing.

🛠 La Herramienta de la semana
Comet: El navegador con IA de Perplexity

Llevas años usando Chrome. Abres 47 tabs, te pierdes, buscas en Google, copias y pegas, abres más tabs... Perplexity dice: "¿Y si tu navegador fuera inteligente?"

Comet es el “nuevo” navegador de Perplexity, basado en Chromium (todo lo que funciona en Chrome funciona aquí), pero con IA integrada en cada tab. Bueno “nuevo” entre comillas porque con el nuevo Atlas de OpenAI, Comet ya parece cosa del pasado, y eso que fue presentado en Julio de este año, y abierto al público el pasado 2 de Octubre

¿Qué hace Comet que Chrome no haga?

  1. Comet Assistant: IA en cada pestaña que responde preguntas, resume artículos, compara productos, rellena formularios, gestiona email (resúmenes, borradores, búsqueda semántica), extrae datos de páginas web

  2. Modo de búsqueda potenciado: No te da 10 enlaces azules. Te da respuesta sintetizada de múltiples fuentes, con citas, muy de Perplexity

  3. Collections: Investigas para comprar portátil, visitas 15 sitios. Comet agrupa todo automáticamente. Luego preguntas "¿cuál era el más barato con 32GB RAM?". Responde al instante

  4. Tab management inteligente: Agrupa tabs relacionadas, cierra las que no usas, sugiere tabs relevantes

  5. Privacy-first: No alimenta negocio publicitario de Google. Historial no se vende. Consultas anónimas y encriptadas

¿Es gratis?

Sí. Desde octubre 2025, totalmente gratis. Perplexity apuesta por ganar cuota de mercado antes de monetizar. Plan a largo plazo: freemium (básica gratis, Pro con más consultas). Comet es la enésima amenaza al rey de los navegadores, Chrome desde que Chrome destronó a Internet Explorer. Con algo que Google no puede replicar sin canibalizar su negocio… ¿o sí? Porque muchos pensaban que Google estaba acabado con la IA, y se han sabido reinventar con el Modo IA, por ejemplo…

No tiene mucho que enseñar en imágenes. Un navegador normal donde lo importante es la capa de IA basada en Perplexity. ¿Lo has probado ya?

Los contras de Comet

Consumo de recursos: No es ligero, no va muy fluido, y al final lo que hace el agente lo haces tú solo en menos tiempo si eres un poco ágil. Pero eso es algo que irá a mejor sin duda

Dependencia de Perplexity: Si sus servidores caen, pierdes funcionalidad. Si Perplexity empieza a flaquear en su manera de resumir o recabar información, Comet se resentirá.

Y la peor: seguridad y privacidad: Programadores de Brave (otro navegador) descubrió en julio una vulnerabilidad seria en Comet: prompt injection indirecto. En cristiano: un atacante podía meter instrucciones maliciosas invisibles en una web (texto blanco sobre fondo blanco, comentarios HTML ocultos...), y cuando le pedías a Comet "resume esta página", el navegador ejecutaba esas instrucciones como si fueran tuyas.

En la demo de Brave, consiguieron que Comet: 1) abriera Gmail del usuario, 2) leyera un código OTP que llegó por email, y 3) lo enviara al atacante comentando en un post de Reddit. Todo automáticamente. Sin que el usuario se diera cuenta.

El problema de fondo: Comet no distinguía entre "lo que tú le pides" y "lo que está leyendo de la web". Brave reportó el fallo en julio, Perplexity dijo que lo arregló... pero en agosto, tras la publicación del blog de Brave, resultó que el parche no era completo. A día de hoy, seguir confiando en Comet para navegar en sitios con sesiones importantes (banco, email, trabajo) es arriesgado. Veremos si con Atlas pasa lo mismo

Y hasta aquí la (larga!) entrega #08 de la Newsletter.

Recuerda que puedes puntuar el post y comentar después, por si quieres dar ideas, quejas, sugerencias, peticiones… 🤓 .

🧠 🧠 🧠 🧠 🧠 ¡Alimento para la mente!
🧠 🧠 🧠 Tienes que pensarlo mejor
🧠 Han faltado neuronas

Y si quieres que tus amigos o familiares estén tan al día de la IA como tú, ¡puedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artículos más elaborados, que te ayudarán a entender la IA desde otro punto de vista.

>>> Nos vemos en la siguiente entrega 🤝

>>> ¡ Hasta prompto !

Carlos Velasco | >>> El Prompt

>>> También puedes compartir la newsletter con tus seres queridos con este link.
>>> O añadirla a tu RSS feed con este link.

Posts Recomendados

No posts found