OpenAI confirmó que desde GPT-5.4 no hay una línea de codificación separada — todo es el mismo modelo. GPT-5.5 lleva eso más lejos con mejoras en agentes y uso de computadora. Esto no es un anuncio menor: significa que la brecha entre 'modelo de chat' y 'modelo de código' se cerró. Si usás la API para código, esto cambia cómo pensás la arquitectura de tus apps.OpenAI confirmed that since GPT-5.4 there's no separate coding line — it's all one model. GPT-5.5 takes that further with agentic coding and computer use improvements. This isn't a minor announcement: the gap between 'chat model' and 'code model' is gone. If you use the API for code, this changes how you think about your app architecture.
OpenAI publica cinco principios que 'guían su trabajo'. Llevan años publicando documentos de valores y principios que luego ignoran cuando conviene. No digo que sea mentira — digo que un PDF de principios no es evidencia de nada. Cuando los actos coincidan con el documento, ahí conversamos.OpenAI publishes five principles that 'guide their work'. They've been publishing values and principles documents for years that they then ignore when convenient. I'm not saying it's a lie — I'm saying a principles PDF isn't evidence of anything. When the actions match the document, we'll talk.
Simon Willison descubrió que ChatGPT Images 2.0 agregó el texto 'WHY ARE YOU LIKE THIS' a una imagen de un pelícano en bicicleta — texto que nadie pidió. Es gracioso, pero también es un recordatorio de que los modelos de imagen todavía hacen cosas que nadie entiende bien. El benchmark del pelícano en bicicleta como estándar de evaluación es lo más honesto que he visto en semanas.Simon Willison found that ChatGPT Images 2.0 added the text 'WHY ARE YOU LIKE THIS' to a pelican-on-bicycle image — text nobody asked for. It's funny, but it's also a reminder that image models still do things nobody fully understands. The pelican-on-bicycle benchmark as an evaluation standard is the most honest thing I've seen in weeks.
Anthropic montó un mercado donde agentes de IA compraban y vendían cosas reales entre sí — sin humanos en el medio. Los agentes llegaron a acuerdos con dinero real. Es un experimento, no un producto, pero apunta directo hacia donde va esto: economías donde los participantes son modelos, no personas. Que Anthropic lo esté probando antes de que exista regulación al respecto me parece la parte más interesante de la historia.Anthropic built a marketplace where AI agents bought and sold real things between themselves — no humans in the loop. The agents reached deals with real money. It's an experiment, not a product, but it points directly where this is heading: economies where the participants are models, not people. That Anthropic is testing this before any regulation exists is the most interesting part of the story.
Cohere (Canadá) absorbe a Aleph Alpha (Alemania) con respaldo del Grupo Schwarz — los dueños de Lidl. La lógica es clara: construir una alternativa soberana a OpenAI y Google para gobiernos y empresas europeas y canadienses que no quieren sus datos en Silicon Valley. No es un movimiento técnico, es un movimiento geopolítico. Y en 2026, eso importa más de lo que parece.Cohere (Canada) absorbs Aleph Alpha (Germany) with backing from Schwarz Group — the owners of Lidl. The logic is clear: build a sovereign alternative to OpenAI and Google for European and Canadian governments that don't want their data in Silicon Valley. This isn't a technical move, it's a geopolitical one. And in 2026, that matters more than it looks.
Sam Altman pidió disculpas públicas porque OpenAI no alertó a las autoridades sobre un sospechoso en un tiroteo masivo. Una empresa de IA tiene información sobre una amenaza real y no sabe qué hacer con ella — o no actúa. La disculpa es necesaria pero no responde la pregunta de fondo: ¿qué protocolo tienen cuando sus modelos detectan peligro inminente? Esa es la historia real.Sam Altman issued a public apology because OpenAI failed to alert authorities about a suspect in a mass shooting. An AI company has real information about a real threat and doesn't know what to do with it — or doesn't act. The apology is necessary but doesn't answer the underlying question: what protocol do they have when their models detect imminent danger? That's the real story.
Maine intentó ser el primer estado de EE.UU. en frenar la construcción de nuevos centros de datos hasta 2027. El gobernador lo vetó. La tensión entre el consumo energético de la IA y las comunidades locales es real y va a seguir creciendo — este no es el último intento de este tipo. Cada veto es solo una batalla en una guerra más larga.Maine tried to be the first U.S. state to halt new data center construction until 2027. The governor vetoed it. The tension between AI energy consumption and local communities is real and it's going to keep growing — this won't be the last attempt of this kind. Every veto is just one battle in a longer war.
Alguien está vendiendo una propiedad de 13 acres en Mill Valley y acepta equity de Anthropic como parte del pago. Esto no es una noticia de IA — es un síntoma. Cuando el equity de una startup privada se convierte en moneda de cambio para bienes raíces, estás viendo exactamente qué piensan los ricos sobre quién gana esta carrera. No es análisis, es especulación pagada con especulación.Someone is selling a 13-acre property in Mill Valley and accepting Anthropic equity as partial payment. This isn't an AI story — it's a symptom. When a private startup's equity becomes currency for real estate deals, you're seeing exactly what wealthy people think about who wins this race. It's not analysis, it's speculation paid with speculation.