Anthropic actualizó silenciosamente su página de precios para sugerir que Claude Code costaría $100/mes, sin anuncio, sin explicación, y con otras páginas del mismo sitio mostrando algo diferente. Después se echaron atrás. Si tu estrategia de comunicación de precios necesita que un analista externo descifre qué estás cobrando, algo salió mal. No es el precio lo que preocupa — es la forma.Anthropic quietly updated their pricing page to suggest Claude Code would cost $100/month — no announcement, no explanation, with other pages on the same site showing something different. Then they walked it back. If your pricing communication strategy requires an outside analyst to decode what you're charging, something went wrong. It's not the price that's the problem — it's the approach.
El mismo día que el caos de precios de Claude Code, GitHub Copilot también mueve su estructura de planes individuales. Dos herramientas de código, dos movimientos de precios en el mismo día — o es coincidencia o alguien está leyendo los movimientos del otro en tiempo real. La guerra de las herramientas de código se está volviendo cara, literalmente.Same day as the Claude Code pricing chaos, GitHub Copilot is also reshuffling its individual plan structure. Two coding tools, two pricing moves on the same day — either it's a coincidence or someone is watching the other's moves in real time. The coding tools war is getting expensive, literally.
OpenAI lanzó ChatGPT Images 2.0 y Sam Altman comparó el salto con ir de GPT-3 a GPT-4. Eso es mucho afirmar. Simon Willison lo prueba con metodología real — no con benchmarks de la propia empresa — y el resultado es más matizado: mejor en texto dentro de imágenes, pero no el salto generacional que prometieron. Vale la pena leer el análisis antes de creerle al livestream.OpenAI launched ChatGPT Images 2.0 and Sam Altman compared the leap to going from GPT-3 to GPT-4. That's a big claim. Simon Willison tests it with actual methodology — not the company's own benchmarks — and the result is more nuanced: better at text in images, but not the generational leap they promised. Worth reading the analysis before believing the livestream.
OpenAI lanzó Codex Labs y firmó con Accenture, PwC e Infosys para llevar su agente de código a grandes empresas. Cuatro millones de usuarios activos semanales es el número que mencionan, y eso ya no es un experimento. Que los socios sean consultoras gigantes dice algo: la apuesta no es solo developers individuales, es colonizar las áreas de tecnología corporativa. Eso tiene consecuencias para el empleo en consultoría de software que nadie está hablando todavía.OpenAI launched Codex Labs and partnered with Accenture, PwC, and Infosys to bring their coding agent to large enterprises. Four million weekly active users is the number they're citing, and that's no longer an experiment. The fact that the partners are giant consultancies says something: the bet isn't just individual developers, it's colonizing corporate tech departments. That has consequences for software consulting employment that nobody's talking about yet.
Anthropic dice que investiga y que no hay evidencia de que sus sistemas fueron comprometidos — que es exactamente lo que dirías si tus sistemas fueron comprometidos. El punto más interesante no es si el acceso fue real: es que la NSA ya lo usa (ver nota aparte) y que Sam Altman lo llamó 'marketing basado en el miedo'. Hay demasiados actores con demasiados intereses en esta historia como para leerla en línea recta.Anthropic says it's investigating and there's no evidence their systems were compromised — which is exactly what you'd say if your systems were compromised. The most interesting point isn't whether the access was real: it's that the NSA is already using it (see separate story) and Sam Altman called it 'fear-based marketing'. Too many actors with too many interests in this story to read it straight.
Altman llamando 'marketing basado en el miedo' a Mythos es en sí mismo marketing. Si tu competidor lanzó algo que te parece irrelevante, la respuesta estratégica no es mencionarlo en un podcast. El hecho de que lo haya hecho dice más sobre cómo percibe la amenaza que cualquier benchmark. En Succession esto se llamaría 'showing your hand'.Altman calling Mythos 'fear-based marketing' is itself marketing. If your competitor launched something you find irrelevant, the strategic response isn't to mention it on a podcast. The fact that he did says more about how he perceives the threat than any benchmark. In Succession, they'd call this 'showing your hand'.
Amazon le da $5 mil millones a Anthropic, y Anthropic se compromete a gastar $100 mil millones en AWS. Esto no es una inversión, es un acuerdo circular de dependencia mutua con múltiples ceros. Anthropic necesita el capital para competir; Amazon necesita el uso de infraestructura para justificar sus propias apuestas en IA. La pregunta es quién tiene más poder de negociación cuando las cosas se pongan difíciles.Amazon gives Anthropic $5 billion, and Anthropic commits to spending $100 billion on AWS. This isn't an investment, it's a circular mutual dependency agreement with multiple zeros. Anthropic needs the capital to compete; Amazon needs the infrastructure usage to justify its own AI bets. The question is who has more negotiating power when things get tough.
Meta está convirtiendo a sus propios empleados en datos de entrenamiento sin que quede muy claro si tienen opción real de negarse. El argumento de 'es para mejorar la productividad interna' tiene la misma energía que 'las cookies son para mejorar tu experiencia'. La diferencia es que acá los afectados son los propios ingenieros que construyen el sistema — lo cual tiene una ironía poética que no pasa desapercibida.Meta is turning its own employees into training data, without it being very clear if they have a real option to opt out. The 'it's to improve internal productivity' argument has the same energy as 'cookies are to improve your experience'. The difference is that here the affected parties are the very engineers building the system — which has a poetic irony that doesn't go unnoticed.
$60 mil millones por un editor de código — aunque sea el más popular del momento — es una valuación que asume que el mercado actual se congela en el tiempo. El artículo señala algo más honesto: ni Cursor ni xAI tienen modelos propios que compitan con Anthropic u OpenAI. Esta opción de compra parece más un seguro contra quedarse atrás que una jugada ofensiva. Y los seguros caros rara vez son señal de confianza.$60 billion for a code editor — even the most popular one right now — is a valuation that assumes the current market freezes in time. The article points out something more honest: neither Cursor nor xAI have proprietary models that can match Anthropic or OpenAI. This purchase option looks more like insurance against falling behind than an offensive move. And expensive insurance is rarely a sign of confidence.
Firefox 150 parchó 271 vulnerabilidades usando una versión temprana de Claude Mythos — ese modelo que Anthropic no ha lanzado públicamente. Es el caso de uso más concreto y verificable que ha aparecido de Mythos hasta ahora, y es justamente el tipo de aplicación de ciberseguridad que Anthropic dice que justifica su restricción. Si encontró 271 bugs reales en un browser maduro, el número importa.Firefox 150 patched 271 vulnerabilities using an early version of Claude Mythos — that model Anthropic hasn't publicly released. It's the most concrete and verifiable use case for Mythos that's appeared so far, and it's precisely the cybersecurity application that Anthropic says justifies its restriction. If it found 271 real bugs in a mature browser, that number matters.
YouTube está usando IA para detectar deepfakes de celebridades y darles herramientas para eliminarlos. Es una de las pocas aplicaciones donde usar IA para combatir IA tiene lógica directa y medible. El problema es que esto protege a quienes ya tienen representación y recursos — la persona común que aparece en un deepfake sigue sin el mismo acceso. La protección escala hacia arriba, no hacia abajo.YouTube is using AI to detect celebrity deepfakes and give them tools to remove them. It's one of the few applications where using AI to fight AI has direct, measurable logic. The problem is this protects those who already have representation and resources — the ordinary person appearing in a deepfake still doesn't have the same access. Protection scales upward, not downward.
Claude Cowork — el entorno colaborativo de Anthropic para equipos — ahora corre dentro de Amazon Bedrock, lo que significa que las empresas que ya están en el ecosistema AWS pueden desplegarlo sin salir de su infraestructura actual. Relevante para equipos enterprise que necesitan control de datos y no quieren tocar directamente la API de Anthropic. El timing, justo después del anuncio de los $5 mil millones, no es casualidad.Claude Cowork — Anthropic's collaborative environment for teams — now runs inside Amazon Bedrock, meaning companies already in the AWS ecosystem can deploy it without leaving their current infrastructure. Relevant for enterprise teams that need data control and don't want to touch Anthropic's API directly. The timing, right after the $5 billion announcement, is not a coincidence.