El Departamento de Defensa declara a Anthropic un riesgo para la cadena de suministro, y al mismo tiempo funcionarios de Trump empujan a la banca a probar su modelo más restringido. Eso no es una contradicción accidental — alguien en Washington está jugando ajedrez con dos tableros. Lo que me parece relevante no es Mythos en sí, sino que el acceso a modelos de IA ya es una palanca de presión política.The Department of Defense labels Anthropic a supply-chain risk, while Trump officials push banks to test its most restricted model. That's not an accidental contradiction — someone in Washington is playing chess on two boards at once. What matters here isn't Mythos itself, but that AI model access has become a political pressure lever.
Una conferencia de IA donde el modelo más mencionado no es de OpenAI. Eso no pasaba hace un año. No sé si Anthropic ganó la batalla técnica, pero claramente está ganando la conversación enterprise — y en este mercado, esa diferencia importa más de lo que debería.An AI conference where the most talked-about model isn't from OpenAI. That wasn't happening a year ago. I don't know if Anthropic won the technical battle, but they're clearly winning the enterprise conversation — and in this market, that gap matters more than it should.
El New Yorker pone en duda la confiabilidad de Altman, alguien ataca su casa, y él responde con un blog post. La dinámica es de Succession, pero con más capital en juego. Lo que me parece importante es que el perfil de The New Yorker claramente tocó un nervio real — si no, no habría respuesta pública.The New Yorker questions Altman's trustworthiness, someone attacks his home, and he responds with a blog post. The dynamic is pure Succession, but with more capital at stake. What matters here is that the New Yorker profile clearly hit a real nerve — otherwise there's no public response.
Bryan Cantrill dice que los LLMs no son perezosos — generan texto sin costo, sin el instinto de optimizar el propio tiempo. Es una observación técnica que explica por qué el código generado por IA tiende a ser verbose y sobrediseñado: no hay dolor en la complejidad. Un problema real que la industria todavía no sabe cómo resolver.Bryan Cantrill points out that LLMs aren't lazy — they generate text at no cost to themselves, without any instinct to optimize their own time. It's a technical observation that explains why AI-generated code tends to be verbose and overengineered: there's no pain in complexity. A real problem the industry still hasn't figured out how to solve.
Simon Willison documenta cómo transcribir audio en macOS con el modelo Gemma 4 de 10 GB usando MLX — el framework de Apple para correr modelos localmente. Que un modelo de esta capacidad corra en hardware de consumo sin infraestructura en la nube es exactamente el tipo de cambio que importa. Menos dependencia de APIs, más control.Simon Willison documents how to transcribe audio on macOS with the 10GB Gemma 4 model using MLX — Apple's framework for running models locally. A model of this capability running on consumer hardware without cloud infrastructure is exactly the kind of shift that matters. Less API dependency, more control.