
Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural
¡Hola prompters! 16 de Octubre. Séptima entrega y aquí sigues leyendo como el primer día 🤝. Mientras Figure nos promete, que el mayordomo robot está a la vuelta de la esquina, OpenAI sigue en su cruzada por controlarlo todo y se mete a fabricar sus propios chips. Y por si fuera poco, Samsung nos recuerda que a veces menos es más: 7 millones de parámetros que no tienen nada que envidiar en inteligencia a modelos 14.000 veces más grandes.
En HistorIAs conocerás al matemático amigo de Alan Turing que hizo posible que estés leyendo esto. Sin él, ni internet, ni IA, ni nada de nada. Vamos con ello.
En la newsletter de hoy…:
>>> Tres noticias destacadas
🤖 Figure 03: El mayordomo robot que sí quiere vivir en tu casa (de verdad esta vez)
🏭 OpenAI va a por todo: ahora fabricará sus propios chips con Broadcom
🤏 Samsung TRM: Un modelo enano de 7 millones de parámetros a la altura de gigantes de 100.000 millones
>>> HistorIAs de la IA
👤 Quién es quién 👤 : Claude Shannon, el matemático que hizo posible… todo esto.
>>> Una herramienta
🛠 Neon: La app que te paga 30$ al día por por tus llamadas telefónicas
Y por aquí abajo está el la canción resumen de la semana. Esta semana nos ponemos más flamencos 💃
¿Qué ha pasado esta semana en el mundo de la IA?
Ya están aquí. Ya han llegado (y no me refiero al 3I/ATLAS). La empresa de robótica Figure presentó el pasado viernes su nuevo robot humanoide, el Figure03. Y nos lo venden como un robot pensado y diseñado para ser producido en masa. Prometen que no es el típico prototipo que les ha costado millones hacer y que al final nunca llegará al consumidor. De hecho, han construido una fábrica en California, diseñado una cadena de suministro global, y están prometiendo producir 12.000 unidades el primer año. Nada menos. Llevamos años viendo prototipos millonarios de robots domésticos que nunca pasan de vídeos cuidadosamente editados y demos controladas. Pero Figure parece decidida a romper ese patrón. Echad un vistazo al vídeo porque ahora parece futurista pero a lo mejor dentro de no muchos años conoceremos a alguien que ya lo tiene en casa.
El Figure 03 pesa 61 kg (9 kg menos que su predecesor), tiene una autonomía de 5 horas y se mueve a 1,2 metros por segundo. Pero lo interesante no son las especificaciones técnicas, sino lo que puede hacer: cargar el lavavajillas, mover paquetes, recoger la casa, poner la lavadora, meter la ropa en la secadora, doblar la ropa… Bueno, intentar doblar la ropa, porque según el propio vídeo de demostración, las camisetas no le salen muy bien que digamos. Tampoco lo hemos visto tender ni planchar, que son probablemente las dos tareas del hogar más odiadas universalmente, y llenar la lavadora parecía que le estaba constando también. Así que aún hay margen de mejora (mucho margen). Pero en realidad hacer una demo así sigue la línea de otras demos fallidas recientemente, como la de Meta. A veces que la demo no sea perfecta la hace más natural, menos cocinada, y eso gusta.
El cerebro del robot es Helix, el modelo de IA propio de Figure que combina visión, lenguaje y acción. Lo interesante de Helix es que el robot puede aprender tareas nuevas simplemente observando a humanos. No viene preprogramado para hacer X cosas específicas, sino que puedes enseñarle cosas nuevas. Para ello cuenta con un sistema de cámaras (incluidas ahora en las manos para mejorar el agarre cuando las cámaras de la cabeza quedan bloqueadas), micrófonos y sensores táctiles tan precisos que puede hacer agarres de apenas 3 gramos de presión. Es decir, que no estamos lejos de ponernos a enseñar a tu robot ayudante la receta de croquetas de la abuela.

Mírale que majo, devolviendo el cojín al sofá. ¿Quién no necesita un robot que te coloque el cojín en su sitio?
Pero lo que más destaca de Figure y les hace diferenciarse de otras compañías es que han apostado fuerte por la fabricación en serie: moldeo por inyección, fundición a presión, diseño optimizado para ensamblaje rápido... Todo pensado para escalar. El objetivo es alcanzar 100.000 robots producidos en cuatro años. Suena ambicioso, pero yo ya me creo todo después de estos dos últimos años de mejoras en la IA.
Y te preguntarás… ¿y el precio? ¡Ah! Ese un pequeño detalle que Figure aún no ha revelado: ¿cuánto va a costar uno de estos robots? En unos sitios ves que dicen ~50.000$, en otros que será un robot low cost accesible para todos por ~20.000$… pero no hay precio oficial.
Pero si Figure consigue un precio competitivo, puede que estemos más cerca de lo que pensamos de tener un mayordomo robótico en casa. Aunque sea uno que tarde 10 minutos en poner una lavadora. Se acabó ir a recoger tu pedido de Amazon a la taquillla. Que lo recoja tu robot por ti.
Y ahora vamos con la ya tradicional noticia de “OpenAI gastará decenas de miles de millones en un acuerdo con…”
OpenAI no para. En serio, cada semana parece que anuncian un partnership millonario nuevo. Hace unas semanas te contábamos del acuerdo con Oracle por 300.000 millones de dólares para infraestructura y computación. Después hubo acuerdos con NVIDIA y AMD. Ahora le toca el turno a Broadcom: un acuerdo para que OpenAI diseñe y fabrique sus propios chips personalizados. Y por si quedaba duda de que esto va en serio, Broadcom subió un 9% en bolsa tras el anuncio.
La jugada tiene todo el sentido estratégico del mundo. Hasta ahora, OpenAI (como el resto de gigantes de IA) dependía casi exclusivamente de las GPUs de NVIDIA. Y sí, las H100 y las nuevas B200 son bestias increíbles, pero tienen algunos problemas: son carísimas, están en constante escasez y te hacen depender completamente de NVIDIA. Además, NVIDIA las vende a todos: a tu competencia, a tus rivales, a quien pague. No hay exclusividad, no hay optimización específica para tus modelos.
Así que OpenAI ha decidido hacer lo que hicieron antes Google (con sus TPUs), Amazon (con sus chips Trainium) y Meta (con sus chips MTIA): tomar control del stack completo. Desde el transistor hasta el chatbot (y te vendo productos en mi chat, y te hago la lista de Spotify en mi chat, y te cuento las noticias que te interesan en mi chat…). La estrategia es clara: chips diseñados específicamente para los modelos GPT, optimizados para la inferencia, que sean más eficientes energéticamente, y exclusivos.
Broadcom no es cualquier socio tampoco. Son los que están detrás de los chips custom de Google desde hace años. Saben fabricar silicio a escala, conocen el proceso de diseño para IA, y tienen la infraestructura lista. OpenAI pone el diseño y los requisitos; Broadcom pone la experiencia y las fábricas (bueno, técnicamente TSMC pone las fábricas, pero ya me entiendes).
El plan incluye también una inversión gigante en centros de datos propios. Según reportes, están hablando de 10 gigawatts de capacidad. Para ponerlo en perspectiva: eso es aproximadamente lo que generan 10 reactores nucleares. No es solo "vamos a tener mejores chips", es "vamos a construir la infraestructura energética y computacional para entrenar la próxima generación de modelos sin depender de nadie".
¿Los riesgos? Muchos. Diseñar chips es difícil. Diseñar chips buenos es durísimo. Google lleva más de una década en esto y aún tiene dolores de cabeza (que NVIDIA no ha llegado a donde ha llegado sin que nadie le haya intentado arrebatar el trono de la creación de los mejores chips). OpenAI no tiene experiencia en hardware. Pueden quemar miles de millones en un diseño que acabe siendo menos eficiente que una NVIDIA pocha de turno. Pero si funciona, habrán conseguido una ventaja competitiva brutal: hardware optimizado para sus modelos específicos, costes predecibles, y cero dependencia de terceros. Algo así como la ventaja que tiene Apple con sus chips Apple Silicion (los M), frente a la que tenía cuando usaban los Intel.

Hablando de NVIDIA y lo bien qe hacen las cosas: acaban de sacar este superminiordenador especializado para IA (la cajita de la derecha, no el macbook!): el DGX Spark. 4000$ por una cajita con una GPU Blackwell de 128GB de RAM y 1 Petaflop de velocidad de procesamiento en una cajita de 1kg. Ahora ya no hay excusa para no entrenar to propios modelos chiquititos en casa.
Y para ese público más técnico que ve la arquitectura de una red neuronal y la entiende, vamos con una noticia de un avance que va a dar mucho que hablar en el diseño de los LLMs:
🤏 Samsung TRM: Un modelo enano de 7 millones de parámetros a la altura de gigantes de 100.000 millones
En una industria obsesionada con hacer modelos cada vez más grandes (GPT-5 con rumores de 10 billones (de los nuestros) de parámetros, Gemini 2.5 Pro con cientos de miles de millones...), Samsung acaba de soltar una bomba: un modelo con 7 millones de parámetros que consigue mejores resultados que modelos 14.000 veces más grandes en tareas de razonamiento abstracto.
Sí, has leído bien. 7 millones. Para que te hagas una idea, GPT-4 tiene unos 1.7 billones de parámetros (con B de bestial). El modelo de Samsung, llamado TRM (Tiny Recursive Model), es básicamente David contra Goliath, una vez más David demostrando que lo importante no es el tamaño, sino cómo se usa.
¿Cómo es posible? La clave está en el nombre: razonamiento recursivo. En lugar de responder a la primera (como hacen los modelos tradicionales), TRM piensa, repasa, corrige y vuelve a pensar. Hasta 16 veces si hace falta. Es como cuando estás escribiendo un texto y lo miras, lo remiras, lo escribes, reescribes, vuelves a repasar…: no das como bueno el primer texto que te venga, por mucho que sepas, porque saber demasiado te puede haber hecho irte por las ramas o autoconfundirte... Ese proceso iterativo es exactamente lo que hace TRM.

Mira que sencillo es el modelo. (¡Sí, así se ve un esquema de un modelo sencillo y pequeñito!)
Los resultados son brutales. En el benchmark ARC-AGI-1 (que mide razonamiento abstracto y capacidad de generalización), TRM consigue un 45% de precisión. Gemini 2.5 Pro se queda en 37%. o3-mini de OpenAI también queda por detrás. Es como si un niño de primaria consiguiera mejores notas que estudiantes universitarios en un examen de lógica. A ver, siendo honestos, el 45% es un buen resultado, pero no el mejor que hemos visto en la historia. GPT-5 Pro, Grok 4 Thinking y Claude 4.5 Thinking rondan el 70%, ¡pero es que estos modelos tienes miles de veces más parámetros!
También, ya que nos hemos puesto honestos: este modelo está específicamente diseñado para tareas de razonamiento abstracto, no para tareas generales como los otros. No le puedes pedir que te escriba un email o que te genere una imagen. Está ultraespecializado en resolver puzzles lógicos del tipo "si ves este patrón, ¿cuál es el siguiente elemento?". Es brillante en su nicho, pero no es un reemplazo para ChatGPT.

El TRM de Samsung estaría es la mitad de la tabla, pero no pienses que por ser tan chiquitito su coste lo iba a ser también. Al iterar hasta 16 veces, la computación necesaria no es tan reducida como uno podría pensar
Pero, si no es el mejor en nada, y no vale para todo, ¿por qué importa entonces? Porque demuestra que la carrera por modelos más y más grandes tiene un límite de utilidad. A veces el problema no es cuántos parámetros tienes, sino cómo usas los que tienes. El razonamiento recursivo, la especialización, y la arquitectura inteligente pueden ganar a la fuerza bruta. En los últimos años se estaba dando por sentado que cuantos más parámetros, más grandes los modelos, más tiempo de entenamiento, más coste, más razonamiento… mejor serían en los benchmarks. Pero por suerte, hay vida más allá del tamaño, y se está demostrando que hay estrategias que pueden ayudar a un modelo a ser mucho más eficiente.
Y la eficiencia es una palabra clave aquí: un modelo de 7M parámetros cabe en un móvil. Se puede ejecutar localmente, sin conexión a internet, sin enviar tus datos a la nube. Las implicaciones para privacidad, velocidad y accesibilidad son enormes. No todo tiene que correr en un datacenter con la potencia de un reactor nuclear.
Samsung ha publicado el paper completo y el código es open source. Si te interesa el detalle técnico, te pongo aquí el link que recopila todo (y puedes ChatGPT que te lo resuma... aunque quizá TRM lo haría mejor en este caso 🤓).
Fin de la sección de noticias! Hay muchas más que se han quedado en el tintero porque si no, la newsletter ocuparía el triple. Entre ellas, como casi siempre muchas de Google (anuncion de Veo 3.1, anuncio de Google Enterprise AI, el nuevo “modo IA”…) Y cuidado porque hay rumores de que Gemini 3.0 puede salir muy pronto de hecho 😱.
Pero dejemos todo este monográfico de Google para otro día, y vamos con la ya clásica sección de HistorIAs de la IA:
HistorIAs de la IA. Hoy: 👤 Quién es quién 👤
Claude Shannon: el matemático que hizo posible… todo esto
Si te digo "Claude", probablemente pienses en el chatbot de Anthropic, en Claude Sonnet, Claude Opus... Y sí, Claude lleva ese nombre por una razón: Claude Shannon, el matemático y criptógrafo que básicamente inventó la era digital. Sin exagerar ni un poco. Si estás leyendo esto en una pantalla, conectado a internet, con datos viajando por cables de fibra óptica o ondas de radio, es gracias a él.
Claude Elwood Shannon (Michigan, 1916 - Massachusetts, 2001) publicó en 1948 "A Mathematical Theory of Communication" (Una Teoría Matemática de la Comunicación), el paper que dio origen a la teoría de la información. Antes de Shannon, "información" era un concepto vago y filosófico. Después de Shannon, es una cantidad medible, cuantificable, que se puede almacenar, transmitir y procesar. De hecho, fue Claude quien inventó el concepto de "bit" (binary digit) como unidad fundamental de información. Sí, ese bit. El que ahora usamos para medir todo, desde la capacidad de tu USB hasta el tamaño de los modelos de IA.
Pero no se quedó ahí. En su tesis de master en el MIT (¡de master, ni una tesis doctoral siquiera!), demostró que los circuitos eléctricos podían usarse para realizar operaciones lógicas booleanas. Conectó álgebra booleana con circuitos electrónicos. Esa idea, aparentemente simple, es la base de todos los procesadores modernos. Cada CPU, cada GPU, cada chip que existe hoy en día, funciona sobre esa premisa. Dime tú qué trabajo de master conoces que tenga su propia entrada en la Wikipedia. Eran otros tiempos…
Shannon también trabajó en criptografía durante la Segunda Guerra Mundial en Bell Labs, donde conoció a Alan Turing (sí, ese Alan Turing). Juntos discutían sobre máquinas pensantes y si algún día las computadoras podrían aprender. Shannon escribió después varios papers sobre ajedrez computacional y llegó a construir un ratón mecánico que podía "aprender" a navegar un laberinto: uno de los primeros ejemplos de aprendizaje automático físico.

Mira a Claude con su ratón mecánico y laberintos mecánicos. el mecanismo bajo el laberinto (imagen de la derecha) era un conjunto de relés que se activaban cuando el ratón tocada una pared. En los siguiente recorridos, esa información ya estaba memorizada y registraba y ayudaba al ratón a llegar a su quesito más rápido. 70 años después, GPT, Gemini, Claude y similares han llegado a lo que son gracias al aprendizaje por refuerzo. Justo el concepto en el que se basó este Teseo de Claude Shannon.
Y aquí viene la conexión con la IA moderna: Shannon fue de los primeros en pensar sobre límites fundamentales de la computación y el procesamiento de información. Demostró que hay límites teóricos a cuánta información puedes transmitir por un canal con ruido (el famoso Teorema de Shannon-Hartley), y que hay formas óptimas de codificar información para minimizar errores. Estos conceptos son críticos en el entrenamiento de redes neuronales, en la compresión de modelos, en la transmisión de datos entre GPUs en un cluster...
¿Por qué Anthropic eligió su nombre para Claude? Porque la filosofía de Anthropic es construir IA segura y predecible, y eso requiere entender los límites fundamentales del procesamiento de información. Shannon no solo construyó cosas, entendió los límites teóricos de lo que es posible. Y esa mentalidad es exactamente lo que Anthropic busca: no solo construir modelos más potentes, sino entender qué pueden y qué no pueden hacer, dónde están sus límites, cómo se comportan bajo restricciones.
Un dato curioso para acabar: Shannon era un genio excéntrico de manual. Tenía un monociclo motorizado que usaba en los pasillos de Bell Labs, hacía malabares mientras montaba en monociclo, construyó máquinas inútiles por pura diversión (como una que no hacía nada excepto apagarse a sí misma), y tocaba el clarinete. Su oficina era un caos de prototipos, cables, piezas de ajedrez y ecuaciones en pizarras. El tipo de persona que resuelve problemas matemáticos fundamentales por la mañana y construye robots absurdos por la tarde.

Claude y su monociclo, en una foto cedida por su familia. La de videos virales que se habrían hecho de las excentricidades de los grandes genios de otras épocas…
Sin Claude Shannon no existiría internet. Sin internet no existiría el big data. Sin big data no existiría el machine learning moderno. Sin machine learning no existiría la IA generativa. Sin IA generativa no estarías leyendo tu newsletter preferida: >>> El Prompt. Todo conectado. Y todo empezó con un matemático peculiar que quiso entender qué era exactamente la "información".
Y pasemos de genios que nos han legado todo un futuro, a “genios” que desarrollan herramientas quieran lucrarse de esto.
🛠 La Herramienta de la semana
Neon: Te pagan 30$ al día por tus llamadas telefónicas
Vale, esta noticia es de esas que te hacen pensar "¿en serio hemos llegado aquí ya?". Neon llegó al puesto número 2 en la categoría de apps sociales del App Store de Apple en septiembre. No por ser revolucionaria, no por conectar personas, no por hacer el mundo mejor. Su propuesta de valor es brutalmente simple: te pagan por dejar que graben tus llamadas. 30 céntimos por minuto con otros usuarios de Neon, hasta 30 dólares diarios hablando con cualquiera. Haz las cuentas rápido: 100 minutos al día (casi dos horas) para sacar el máximo. Dos horas vendiendo cada palabra, cada risa nerviosa, cada "te llamo luego" a tu madre.
Todo grabado, procesado y vendido a empresas de IA para entrenar sus modelos conversacionales. Es básicamente monetizar tu voz para que las IAs aprendan a sonar humanas. La próxima vez que ChatGPT capte tu tono irónico o que Claude entienda tu sarcasmo, acuérdate de que quizá está imitando a alguien que vendió esa conversación íntima por menos que un menú del día.
La app promete que "solo graba tu lado", a menos que los dos uséis Neon, en cuyo caso graba todo. Tranquilizador. Imagina explicarle a tu jefe que esa llamada confidencial sobre la fusión de la empresa ahora es parte del training data de GPT-6. O que tu terapia telefónica está enseñando a Gemini cómo suena alguien teniendo un ataque de ansiedad. Además, legalmente, Neon pone la responsabilidad en ti: tú debes informar que estás grabando. Ellos se lavan las manos. En muchos sitios, grabar sin consentimiento explícito es ilegal. Neon básicamente te dice "allá tú" y se lleva su comisión. Es como venderte una pistola y decirte "pero si disparas, es tu problema legal, ¿eh?".
Pero tranquilo, que mejora. A las pocas semanas de volverse viral, Neon tuvo que cerrar temporalmente. El motivo: expusieron números de teléfono, grabaciones y transcripciones de usuarios. Un "pequeño incidente" de seguridad, nada grave 🙄. La respuesta de la compañía: un email prometiendo volver y seguir vendiendo grabaciones. Al menos son honestos. No disfrazan esto de "comunidad" ni "innovación social". Es un mercadillo de datos personales.

Una imagen del fundador de Neon en su web. Me dicen que es un avatar creado por IA y me lo creo.
Y ahora viene la parte que realmente te va a hacer pensar: la app llegó al número 2 del App Store. Miles de personas están vendiendo activamente su privacidad por 30 dólares diarios. Para poner esto en perspectiva:
Facebook fue multado con 5.000 millones de dólares en 2019 por Cambridge Analytica, donde vendieron datos (sin audio de llamadas privadas) de 87 millones de usuarios a terceros sin su consentimiento explícito.
Tus conversaciones privadas, tu voz, tus patrones de habla, tus opiniones políticas, tu salud mental (¿has llorado en una llamada últimamente?), todo eso tiene un valor ENORME para las empresas de IA.
Las Big Tech pagan millones por datasets de calidad para entrenar modelos conversacionales
¿Y Neon qué te ofrece? 0.30$/minuto. Es como si tu casa de 300.000€ te la compraran por 500€ y tú dijeras "bueno, mejor que nada". Pero hay gente aceptando el trato, así que... Además: ¿quién te asegura que solo va a "empresas serias de IA"? Neon no especifica. Podrían ser OpenAI, Google... o startups en paraísos regulatorios, gobiernos comprando voces, empresas de análisis político, o cualquiera con intenciones no tan transparentes.
¿Algo positivo? Es dinero real, la app funciona (eso sí, de momento, sólo en EEUU, así que si estaban pensando qeu te ibas a hacer de oro porque hablas por teléfono 5 horas al día… o te mudas o tendrás que esperar si alguna vez desembarca en tu país). Aunque quizá haya mejores formas de ganar 30$/día que jugártela legalmente y vender conversaciones que valen órdenes de magnitud más, no sé 🤔.
Y hasta aquí la entrega #07 de la Newsletter.
Recuerda que puedes puntuar el post y comentar después, por si quieres dar ideas, quejas, sugerencias, peticiones… 🤓 .
🧠 🧠 🧠 🧠 🧠 ¡Alimento para la mente!
🧠 🧠 🧠 Tienes que pensarlo mejor
🧠 Han faltado neuronas
Y si quieres que tus amigos o familiares estén tan al día de la IA como tú, ¡puedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artículos más elaborados, que te ayudarán a entender la IA desde otro punto de vista.
>>> Nos vemos en la siguiente entrega 🤝
>>> ¡ Hasta prompto !

