Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural

¡Hola prompters! 2 de Octubre. Post #05. Esta semana ha sido una locura en el mundo de la IA. Especialmente el lunes pasado, parece que hubo competición de ver quién anunciaba más y mejores novedades: ChatGPT, Anthropic, DeepSeek, Gemini… Ha pasado tanto que esta vez os traigo bastantes más de las 3 noticias semanales habituales.


Además, estreno sección: el MetaPrompt. Porque a veces no necesitas otra historia inspiradora sobre IA, sino algo práctico que puedas usar ya (bueno, y porque con tanta noticia, como añadiera la sección de Historias de la IA, os iba a tener leyendo 45min).

Hoy os dejo un prompt para crear fotos de perfil profesionales sin fotógrafo ni fondos blancos incómodos. Y como herramienta de la Semana hablamos de Suno… un modelo de IA que genera música. Al final de este email he dejado algunas canciones que hice en apenas un par de minutos, ¡No dejéis de escucharlas!

En la newsletter de hoy…:

>>> Siete ( 😱 ) noticias destacadas
🕵 ChatGPT Pulse: Un agente que piensa en ti
🎬 Nuevo modelo de video de ChatGPT: Sora 2 y app estilo TikTok
👨‍👩‍👧 Control parental en ChatGPT
🛒 ChatGPT ya permite compras online en USA, sin pasar por el navegador
💻 Claude Sonnet 4.5: El nuevo modelo que mejor programa
📊 Agentes de IA en Microsoft Office: del vibe coding al ‘vibe working’
⚡ DeepSeek estrena modelo basado en sparse attention

>>> El MetaPrompt (un prompt recomendado en >>> El Prompt)
📸 Cómo conseguir una foto de perfil profesional creada por IA.

>>> Una herramienta
🛠 Suno v5. Crea y produce canciones enteras en segundos.

¿Qué ha pasado esta semana en el mundo de la IA?

OpenAI ha presentado Pulse. No es un chatbot al que le preguntas cuando necesitas algo. Es un agente al que le dices una vez qué te importa, y él vuelve al día siguiente con información útil para ti. Bueno, en realidad lo venden como que se queda pensando por la noche en toda la información que ha recogido de ti durante el día para generarte contenido útil para ti el día siguiente.

La dinámica se invierte por completo. Imagina que estás planeando un viaje a China. Cada semana, Pulse te irá trayendo información que te sea relevante. Y buscará todo esto mientras tú duermes, trabajas o haces tu vida, él rastrea, filtra y te trae solo lo importante para que lo consultes a la mañana siguiente.

La idea se parece bastante a tener un feed personalizado, pero al integrar la IA se abren muchas posibilidades. Según ChatGPT, podremos enlazar el agente a nuestro calendario. De momento, “Pulse” solo está disponible en la versión de ChatGPT Pro (la cara, la de 200$ al mes, que seguramente no tengas), pero dicen que pronto la extenderán a las cuentas Plus. La verdad es que independientemente de que "Pulse" sea o no un invento fallido, sí parece que la tecnología y la intención será algo que veremos integrada en nuestros móviles en el futuro cercano. Es probable que en pocos años todos tengamos un generador de contenido especializado para nosotros basado no solo en nuestras búsquedas de redes sociales y navegador, sino en lo que la IA conoce de nosotros, nuestro calendario, nuestro email, etc

OpenAI acaba de lanzar Sora 2 y está preparando una aplicación al estilo TikTok para contenido generado por IA. Meta también anunció su propio feed de reels de IA. El patrón es claro: las grandes desarrolladoras de LLMs quieren capturar tu atención con contenido sintético.

La noticia no sé si es el lanzamiento de esa app social de videos hechos por IA o del modelo en sí, que está demostrando ser buenísimo, incluso quizá mejor que Veo3 de Google (que, a falta de que actualicen LM Arena e incluyan a Sora 2, sigue siendo el líder en sus rankings). La nueva app de Sora permite hacer remixes y cameos donde puedes poner la cara de algún personaje verificado y generar vídeos con su cara (ya hay cientos de vídeos con la cara de Sam Altman volando por internet)

Pero hay un segundo nivel aquí que es el que me parece más interesante. Cada interacción con ese contenido (qué videos ves completos, cuáles saltas, qué te hace reír) genera datos de entrenamiento valiosísimos. No están midiendo solo engagement. Están capturando señales sobre qué tipo de contenido funciona a nivel emocional.

La tendencia está clara, los gigantes de la IA quieren que generes vídeo y contenido con sus modelos, y que luego te quedes el resto del tiempo viendo lo que han hecho otros en sus redes sociales. Meta ya anunció la semana pasada Meta Vibes, una aplicación de scroll vertical donde consumir únicamente contenido generado con IA, y ahora llega este movimiento de ChatGPT. Están aprendiendo el "vibe" de lo que conecta con las personas. Es el mismo modelo de negocio de las redes sociales tradicionales, pero donde el contenido es infinito y generado bajo demanda (y donde el terreno legal del copyright y de la autoría de los contenidos siempre es terreno pantanoso, y demasiado aburrido para esta newsletter).

Si queréis ver algunos vídeos creados con Sora, mirad por ejemplo el post de presentación en OpenAI (aqui)

Pero no todo es jijijaja para OpenAI. También se han puesto serios, y responsables, y han anunciado el control parental en ChatGPT

OpenAI ha introducido control parental en su chat, que implica varias medidas:

  • Establecer horas de silencio o momentos específicos en los que no se pueda utilizar ChatGPT. 

  • Desactivar el modo de voz para eliminar la opción de usar el modo de voz en ChatGPT. 

  • Desactivar la memoria para que ChatGPT no guarde ni use memorias al responder.

  • Eliminar la generación de imágenes , por lo que ChatGPT no tendrá la capacidad de crear o editar imágenes. 

  • No incluir conversaciones de sus hijos adolescentes para mejorar los modelos que impulsan ChatGPT.

También enviará notificaciones automáticas a padres cuando detecta conversaciones delicadas del hijo con el chat, donde se detecte que el hijo esté hablando de autolesión. Cuando el chat detecte algo así, habrá un pequeño equipo entrenado de OpenAI que revisará la conversación y si lo consideran, alertarán a los padres. Eso sí, manteniendo la confidencialidad y sólo enviando un aviso y no la propia conversación. La medida viene después de demandas legales relacionadas con casos de suicidio donde ChatGPT estuvo involucrado en las interacciones previas

Así se ve el control parental en ChatGPT.

En esta línea, hace unos días ya desveló que ChatGPT cambia de modelo (sin avisar al usuario) cuando detecta que estás teniendo una conversación emocional para proteger al usuario y no amplificar lo que esté escribiendo. Un poco como cuando le cuentas algo sentimental a alguien, y se pone tenso 😐.

Tanto el control parental como este enrutamiento a distintas personalidades de modelo cuando la conversación es delicada son precedentes importantes porque establecen que las empresas de IA reconocen cierto nivel de responsabilidad sobre el impacto de sus productos. Mejor prevenir que litigar, supongo.

Hablando de ponerse triste y emocional… vámonos de compras.

Los usuarios en EE.UU. ya pueden comprar directamente a través de ChatGPT, empezando por Etsy y próximamente Shopify. La función se llama Instant Checkout y elimina la necesidad de abrir un navegador, integrando Stripe con ChatGPT directamente. (Por cierto, como todo lo que toca OpenAI últimamente, Etsy subió un 16% en bolsa tras conocerse esta integración en ChatGPT).

Es la estrategia clásica de los ecosistemas cerrados: hacer que todo lo que necesites esté dentro de la plataforma. Pregúntale a ChatGPT qué regalo comprar, que te recomiende opciones, que te muestre productos y que complete la compra. Todo sin salir. Es exactamente lo que hicieron Facebook con Marketplace, Amazon con todo su universo, o WeChat en China.

Este enfoque es una alternativa a lo que veníamos viendo en los meses pasados donde las grandes empresas con modelos de IA estaban haciendo movimientos para integrar sus agentes en el navegador o crear navegadores con IA integrada (como todos los esfuerzos que está haciendo Gemini con su modo IA, o Perplexity con su nuevo navegador basado en IA, Comet, del que hablaremos en próximas entregas) o bien directamente comprar un navegador donde integrar sus modelos (como hizo Atlassian al comprar Arc)

La conveniencia es tan alta que eventualmente no hay razón para ir a otro sitio. ¿Por qué abrir Chrome si ChatGPT me puede encontrar y comprar lo que necesito? Y así, poco a poco, ChatGPT deja de ser una herramienta y se convierte en un entorno. Un walled garden muy, muy cómodo.

Se acabaron las compras y los vídeos, vamos con las noticias para los más nerds

Anthropic ha presentado Sonnet 4.5, posicionándolo como el mejor modelo actual en programación y matemáticas, superando a GPT-5 y Gemini 2.5 Pro en benchmarks clave. Según la propia compañía, que no le hace falta abuela, Claude Sonnet 4.5 “es el mejor modelo del mundo para programar”.

Por fin puedo poner diagramas de barras, que llevaba unas cuantas noticias sin poder poner estadísticas. Aquí va la primera. la precisión del modelo es superior a sus rivales (aunque un poco sospechoso ese asterisco donde usan el truqui del ‘parallel test-time compute’ donde la precisión viene medida tras tomar la mejor de varias respuestas generadas en paralelo, algo que en la vida real los modelos no hacen por defecto al programar)

Funcionalidades interesantes:

  • Han añadido checkpoints (que ya estaban por ejemplo en los modelos de Gemini en AIstudio o de GPT en ChatGPT), donde puedes “guardar” el estado de la conversación y contexto antes de bifurcarla. Algo muy útil cuando ves que lo que le vas a pedir puede influir en lo bien que te estabas llevando con el modelo hasta entonces.

  • Han remozado Claude Code, y han creado una extensión de VSCode para poder utilizarlo dentro de este IDE en lugar de en terminal.

  • La mejor en mi opinión: edición de contexto. Cuando estás programando, y llevas 500.000 tokens, has llegado a un punto donde los 300.000 primeros no sólo no sirven, sino que están intoxicando un poco al propio modelo. Ahora con esta función podrás ir aligerando la parte inicial de contexto que ha quedado anticuada o incorrecta. Con esto no sólo ganas contexto eficaz, sino que mejoras el rendimiento del modelo al reducir las alucinaciones que tiene por fijarse donde no debe.

Pero el dato que más me llama la atención es este: puede trabajar de forma autónoma durante 30 horas manteniendo el foco en tareas complejas (más o menos como yo, solo que Sonnet 4.5 puede mantener la atención 30 horas seguidas, y yo a lo largo de un mes). Es decir, puedes asignarle un proyecto complejo al final del día y volver mañana con progreso real.

El nuevo Sonnet 4.5 es mejor que sus rivales en los benchmarks que son puramente de programación.

Los benchmarks están bien, pero lo que importa es esto: ¿puedes darle un proyecto y que haya avanzado de verdad cuando vuelvas? Según Anthropic, sí.

Y si además de programar por ti por la noche, alucina menos que el resto, apaga y vámonos (a dormir, mientras él programa)

El modelo está ya disponible en Claude.ai, y en los IDES más utilizados, como Cursor o Windsurf. Y el precio de la API es igual que el anterior Sonnet 4, es decir, mejor calidad por el mismo precio. También estará disponible pronto para VSCode con Copilot.

Pero no todo va a ser vibe coding. Hablemos ahora de ¿vibe working?

A ver, “vibe working” no es un término que me lo haya inventado yo, así que si no os gusta, a mi no me enviéis emails de quejas. Si “vibe coding” ya sonaba raro, “vibe working” está cogido con pinzas, pero bueno, todo va tan rápido que ni los de marketing pueden crear palabras decentes para todas las innovaciones que van saliendo.

Microsoft Copilot ha lanzado un nuevo agente integrado en Office que transforma por completo la experiencia de trabajar en Excel, Word y otras aplicaciones de la suite. Es el equivalente corporativo del "vibecoding": en lugar de luchar con fórmulas complejas o menús interminables, describes lo que necesitas con lenguaje natural y el agente lo ejecuta.

Imagina esto: abres Excel y le pides "necesito un análisis de ventas por región con proyecciones para el próximo trimestre, basándote en el histórico de los últimos tres años y excluyendo el verano de 2024". En lugar de pasar horas creando tablas dinámicas y gráficos, el agente interpreta la petición y genera todo el análisis por ti.

Igual que programas con IA tiene sus peligros, y es muy fácil que te encuentres bugs y problemas de seguridad si no tienes un poco de experiencia, con el uso de Excel pasa algo parecido, por eso han entrenado a conciencia los agentes, para evitar que las tablas y análisis que generan se rompan a la mínima.

Agent Mode, de Copilot, es el mejor modelo de IA sobre Excel hasta la fecha, aunque aún por detrás de un humano. Pero habrá que ver qué humano, que me ponen a mi con Excel y a lo mejor saco un 3% en ese benchmark.

Pero estos agentes, basados en modelos de OpenAI no son solo para Excel, también para Powerpoint. Agent mode habla Excel de forma nativa, pero además tenemos “Office Agent”, incluida en el Chat de Microsoft Copilot, que nos ayudará a crear presentaciones Powerpoint y documentos de Word directamente desde el chat.

Este nuevo "Modo Agente" en Copilot permite que la IA actúe de forma proactiva, realizando secuencias de tareas complejas de manera autónoma. Microsoft está apostando por convertir sus herramientas tradicionales en plataformas donde tú defines el objetivo y la IA se encarga de la ejecución. Es el futuro de Office: donde tú piensas y la IA trabaja (vamos, como en el resto de ámbitos, la IA nos va a sustituir a todos nosequé).

Y por último, estaría feo hablar de todos estos avances en occidente y no mencionar el último modelo de DeepSeek, que es tan realmente innovador:

DeepSeek ha anunciado un nuevo modelo (DeepSeek V3.2-Exp) basado en sparse attention (atención dispersa), una técnica que cambia las reglas del juego al reducir drásticamente el coste computacional de procesar secuencias largas. De hecho, afirman que reduce los costes de su API a la mitad.

Imagina que estás en una reunión muy grande. Para entender lo que pasa, podrías intentar escuchar a todas las personas hablando a la vez. Esto sería muy confuso y agotador. O bien, podrías centrarte únicamente en las personas que están diciendo las cosas más importantes. Esto último es, en esencia, lo que hace la nueva tecnología de DeepSeek, llamada "Sparse Attention" (Atención Dispersa).

Los modelos de inteligencia artificial como ChatGPT o los anteriores de DeepSeek usan un mecanismo llamado "atención" para procesar el lenguaje. El método tradicional, conocido como "atención completa" (full attention), obliga a cada palabra de un texto a analizar y conectarse con todas las demás palabras del mismo texto para captar el contexto.

  • Ineficiencia: Es como el ejemplo de la reunión. Es un proceso muy pesado computacionalmente.

  • Coste Elevado: Cuanto más largo es el texto, más conexiones tiene que hacer, y el coste y el tiempo de procesamiento se disparan de forma exponencial. Esto hace que analizar documentos muy largos sea lento y caro.

El modelo DeepSeek Sparse Attention (DSA) aprende a prestar atención solo a los tokens realmente relevantes para cada posición, ignorando el resto. Es como leer un libro: no relees cada página anterior cada vez que avanzas, solo recuerdas los puntos clave y los vinculas con lo nuevo.

Esta eficiencia permite crear modelos que pueden manejar contextos masivos (documentos extensos, conversaciones largas, bases de código completas) sin necesitar supercomputadoras para cada consulta. Para muchas aplicaciones, esto puede marcar la diferencia entre que un proyecto sea viable económicamente o completamente inviable.

Hay lectores de >>> El Prompt muy cultivados que entienden de arquitectura de modelos de IA, así que dejo esto aquí para que se entretengan. A mi no me preguntéis de esto que voy a necesitar algo más que un resumen de ChatGPT Pulse o 30 horas de atención de Sonnet 4.5 para entenderlo.

Y aquí tenéis un abstract de la presentación en el propio Github de DeepSeek.

Y ahora introducimos una nueva sección: El MetaPrompt (porque es una idea de un prompt útil que te doy aquí, en una newsletter que se llama >>> El Prompt 🙊 ).

El MetaPrompt
📸 Cómo conseguir una foto de perfil profesional creada por IA.

Antes de empezar, un disclaimer: este prompt no me lo he inventado yo, pero tampoco lo he sacado el primer tiktoker que te dice que te suscribas para conseguir 50 ejemplos como ese que ha cogido de otro tiktoker, que copió de un hilo de Reddit hace dos años.

Este prompt lo ha compartido en X/Twitter la cuenta oficial de Gemini. Ellos sabrán bien los prompt que les funcionan. Se trata de un prompt para conseguir una foto de perfil profesional, de esas que pones de perfil en Linkedin o en sitios serios, como si te la hubiera hecho un fotógrafo de estudio. Basta con que abras Gemini y le pegues a NanoBanana el texto que pongo aquí abajo, junto con una foto tuya que se te vea bien la cara, bien iluminada. El prompt dice así:

A professional, high-resolution, profile photo, maintaining the exact facial structure, identity, and key features of the person in the input image. The subject is framed from the chest up, with ample headroom and negative space above their head, ensuring the top of their head is not cropped. The person looks directly at the camera, and the subject's body is also directly facing the camera. They are styled for a professional photo studio shoot, wearing a smart casual blazer. The background is a solid '#141414' neutral studio. Shot from a high angle with bright and airy soft, diffused studio lighting, gently illuminating the face and creating a subtle catchlight in the eyes, conveying a sense of clarity. Captured on an 85mm f/1.8 lens with a shallow depth of field, exquisite focus on the eyes, and beautiful, soft bokeh. Observe crisp detail on the fabric texture of the blazer, individual strands of hair, and natural, realistic skin texture. The atmosphere exudes confidence, professionalism, and approachability. Clean and bright cinematic color grading with subtle warmth and balanced tones, ensuring a polished and contemporary feel.

Yo no os traigo nada que no haya probado antes, así que aquí está el resultado con un par de un modelo que he encontrado que me ha cedido sus derechos de imagen.

A ver, no es la foto que darías a tu madre para que enmarque y ponga en la mesa-camilla del salón con el resto de familiares, pero se parece bastante al modelo, y para gente que no vea a esa persona vea todos los días, pues puede dar el pego.

🛠 La Herramienta de la semana:

Suno ha lanzado v5, su modelo más avanzado de generación musical, junto con Suno Studio, un DAW (estación de trabajo de audio digital) integrado con IA. Las mejoras incluyen audio de calidad de estudio, voces más naturales y mayor control creativo sobre el resultado final.

Lo interesante de v5 no es solo que suene mejor (que lo hace, y mucho mejor que su anterior v3.5), sino el cambio de paradigma en cómo funciona. Antes era principalmente generativo: describes una canción y Suno la crea. Ahora, con Studio, puedes generar elementos musicales específicos (una línea de bajo, una melodía de sintetizador, una pista de batería) que encajan con tus pistas existentes. También puedes seguir generando las canciones con la letra que quieras y el estilo que pidas y después mezclar, ajustar, iterar.

Es la diferencia entre un generador automático y una herramienta de producción musical. Si alguna vez quisiste hacer música pero la curva de aprendizaje de Ableton o FL Studio te echó para atrás, Suno v5 es tu entrada al mundo de la producción musical con IA como copiloto. ¿Vibe coding, vibe working, vibe making music?

¿El precio? Gratis para probar con límites (unas 5 creaciones diarias (siempre dos canciones por creación para que elijas la mejor), con algún preview de lo que se puede hacer con la v5), y desde 10$/mes para uso más serio, que te permita hacer hasta 250 canciones por mes. Comparado con lo que cuesta un curso de producción musical o un DAW profesional, es una ganga.

Y como el movimiento se demuestra andando, aquí os pongo algunas canciones que hice ayer en un par de minutos. El workflow fue muy sencillo. Le di una idea (un audio, o esta misma newsletter) a mi IA de confianza (usé Claude, que me gusta cómo genera el texto), le pedí una letra y un estilo y ¡a crear en Suno! En segundos tenía la canción que luego podré mezclar o editar por partes, lo que quiera. ¿No os parece futurista 🤯 ?

Aquí algunos ejemplos. Decidme cuál os gusta en los comentarios! (También acepto peticiones personalizadas a cambio de que me traigáis nuevos suscriptores 😏 )

Y hasta aquí la entrega #05 de la Newsletter.

Recuerda que puedes puntar el post y comentar después, por si quieres dar ideas, quejas sugerencias, peticiones… 🤓 .

🧠 🧠 🧠 🧠 🧠 ¡Alimento para la mente!
🧠 🧠 🧠 Tienes que pensarlo mejor
🧠 Han faltado neuronas

Y si quieres que tus amigos o familiares estén tan al día de la IA como tú, ¡puedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artículos más elaborados, que te ayudarán a entender la IA desde otro punto de vista.

>>> Nos vemos en la siguiente entrega 🤝

>>> ¡ Hasta prompto !

Carlos Velasco | >>> El Prompt

>>> También puedes compartir la newsletter con tus seres queridos con este link.
>>> O añadirla a tu RSS feed con este link.

Posts Recomendados

No posts found