<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Enrique Dans</title>
	<atom:link href="https://www.enriquedans.com/feed" rel="self" type="application/rss+xml" />
	<link>https://www.enriquedans.com</link>
	<description>Investigación y opinión acerca de los Sistemas y Tecnologías de Información</description>
	<lastBuildDate>Sat, 07 Mar 2026 09:24:57 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.1</generator>
	<item>
		<title>Soberanía tecnológica europea: o dejamos de alquilar el futuro a Silicon Valley, o seguiremos pagando peaje democrático</title>
		<link>https://www.enriquedans.com/2026/03/soberania-tecnologica-europea-o-dejamos-de-alquilar-el-futuro-a-silicon-valley-o-seguiremos-pagando-peaje-democratico.html</link>
					<comments>https://www.enriquedans.com/2026/03/soberania-tecnologica-europea-o-dejamos-de-alquilar-el-futuro-a-silicon-valley-o-seguiremos-pagando-peaje-democratico.html#respond</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 07 Mar 2026 09:24:55 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[ASML]]></category>
		<category><![CDATA[Big Tech]]></category>
		<category><![CDATA[Europe]]></category>
		<category><![CDATA[European Union]]></category>
		<category><![CDATA[Mistral]]></category>
		<category><![CDATA[Silicon Valley]]></category>
		<category><![CDATA[social media]]></category>
		<category><![CDATA[Taalas]]></category>
		<category><![CDATA[US]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57403</guid>

					<description><![CDATA[Europa lleva demasiado tiempo confundiéndose a sí misma con un mercado, cuando lo que está en juego es algo bastante más incómodo: poder. Poder para decidir qué se puede hacer con los datos de sus ciudadanos, poder para definir qué prácticas empresariales son aceptables, poder para exigir auditoría, transparencia y rendición de cuentas, y poder  <a href="https://www.enriquedans.com/2026/03/soberania-tecnologica-europea-o-dejamos-de-alquilar-el-futuro-a-silicon-valley-o-seguiremos-pagando-peaje-democratico.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/03/Tech-sovereignty-NanoBanana.jpg"><img fetchpriority="high" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/03/Tech-sovereignty-NanoBanana.jpg" alt="IMAGE: A powerful, circuit-board fist rises from a map of Europe, shattering a heavy chain that spells out &quot;DEPENDENCIA.&quot; In the dark background, a cracked Silicon Valley skyline and broken sign signal the end of passive reliance, while bright, green digital growth flourishes below " class="wp-image-57404" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/03/Tech-sovereignty-NanoBanana.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/03/Tech-sovereignty-NanoBanana-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/03/Tech-sovereignty-NanoBanana-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/03/Tech-sovereignty-NanoBanana-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Europa lleva demasiado tiempo confundiéndose a sí misma con un mercado, cuando lo que está en juego es algo bastante más incómodo: poder. Poder para decidir qué se puede hacer con los datos de sus ciudadanos, poder para definir qué prácticas empresariales son aceptables, poder para exigir auditoría, transparencia y rendición de cuentas, y poder para que, cuando alguien en Washington estornude o amenace, aquí no nos dé una neumonía. <a href="https://stories.byburk.net/europe-is-really-breaking-up-with-us-big-tech-now-6d56180d2d75" target="_blank" rel="noreferrer noopener">Que hoy estemos discutiendo «soberanía tecnológica»</a> no es una moda ni una ocurrencia: es el síntoma de que por fin empezamos a asumir que la infraestructura digital no es un conjunto de productos, sino una capa de soberanía comparable a la energía, las telecomunicaciones o la defensa.</p>



<p>La paradoja es que Europa sí tiene piezas críticas del puzle, pero las ha tratado como si fueran accesorios. El caso de ASML es casi obsceno: una empresa europea que sostiene una parte esencial de la cadena global de semiconductores y, aun así, Europa se ha permitido actuar como si su liderazgo fuese un accidente del que no hay que sentirse responsable. <a href="https://www.asml.com/en">ASML lo recuerda en su propia presentación corporativa: su tecnología de litografía es «fundamental» para la fabricación masiva de chips</a>. Y sin embargo, <a href="https://www.enriquedans.com/2025/06/asml-soberania-tecnologica-y-el-coste-de-obedecer-a-matones.html" target="_blank" rel="noreferrer noopener">el debate geopolítico ha tendido a convertirla en rehén de agendas ajenas</a>, justo lo contrario de lo que debería permitir un bloque que se toma en serio a sí mismo. Ahí hay una lección central: la soberanía no empieza prohibiendo nada, empieza protegiendo lo que ya tienes y dejando de comportarte como vasallo. </p>



<p>Esa discusión estratégica tiene hoy nuevos actores que obligan a replantear los monopolios de facto: uno de ellos es <a href="https://taalas.com/" target="_blank" rel="noreferrer noopener">Taalas</a>, una compañía canadiense que propone revolucionar la infraestructura de la inteligencia artificial transformando modelos de aprendizaje profundo en silicio personalizado altamente optimizado. Su plataforma automatizada permite que un modelo entrenado se convierta en <em>hardware</em> específico, lo que ellos llaman <em>Hardcore Models</em>, con una eficiencia energética y de procesamiento hasta mil veces superior a la ejecución de software en GPUs tradicionales, eliminando gran parte de los costes y cuellos de botella asociados a la computación clásica de inteligencia artificial. Esta aproximación radical, que revoluciona la inferencia, por ejemplo, alcanzando más de 17,000 <em>tokens</em> por segundo en modelos populares como Llama 3.1, no solo es un desafío tecnológico, sino que redefine qué significa tener control sobre la infraestructura crítica de inteligencia artificial en un mundo dominado por arquitecturas cerradas y proveedores concentrados. </p>



<p>Otro actor interesante y ya conocido es <a href="https://mistral.ai/about" target="_blank" rel="noreferrer noopener">Mistral</a>: una <em>startup</em> francesa <a href="https://es.wikipedia.org/wiki/Mistral_AI" target="_blank" rel="noreferrer noopener">fundada en 2023</a> por investigadores formados en Google DeepMind y Meta que ha emergido como uno de los contendientes más serios en el desarrollo de LLMs con un enfoque de apertura y transparencia, lo que la distingue de competidores cerrados como otros grandes proveedores de inteligencia artificial. Mistral no es solo un competidor tecnológico: su apuesta por modelos de código abierto, accesibles y modificables, y su creciente papel en aplicaciones empresariales y aplicaciones de inteligencia artificial generativa convierten a esta empresa en una pieza estratégica para Europa si quiere reducir dependencia de proveedores extranjeros y al mismo tiempo mantener control y auditabilidad sobre tecnologías que moldean lo público y lo privado. Su relevancia se amplifica cuando ejecutivos europeos y <a href="https://apnews.com/article/semiconductor-ai-asml-mistral-investment-c62e3c9102f5ddd4969f3741235ea79d" target="_blank" rel="noreferrer noopener">fabricantes clave como ASML establecen inversiones y alianzas robustas con Mistral</a>, subrayando que esta no es una iniciativa aislada, sino parte de un movimiento más amplio para forjar capacidad tecnológica propia en el corazón de la Unión Europea. </p>



<p>En ese sentido, <a href="https://www.linkedin.com/pulse/menos-madera-es-la-guerra-juli%C3%A1n-de-cabo-xvzme/" target="_blank" rel="noreferrer noopener">el reciente artículo de mi amigo Julián de Cabo</a> llega en el momento perfecto, porque pone el foco donde suele doler: en la arquitectura estratégica, no en el titular fácil. Cuando subraya que «Taalas es canadiense, y eso importa más de lo que parece», no está haciendo una precisión anecdótica, sino describiendo el tablero real: alianzas, marcos regulatorios compatibles, y la posibilidad de construir alternativas a dos modelos que Europa, con razón, percibe como incompatibles con su tejido institucional: el capitalismo de vigilancia estadounidense y el control social chino. Esa frase, por sí sola, desmonta una trampa habitual: creer que «lo europeo» es una bandera estética o una obsesión por la regulación excesiva. No lo es. Es un conjunto de límites y garantías que definen qué tipo de tecnología queremos permitir. </p>



<p>Y aquí conviene decirlo sin rodeos: si Europa pretende «soberanía» pero sigue aceptando como inevitables los modelos de negocio basados en extraer datos, maximizar adicción y degradar deliberadamente la conversación pública, lo que está comprando no es tecnología: está importando una ideología empaquetada. La discusión no es si el <em>scroll</em> infinito es bonito o feo, ni si una plataforma concreta nos cae o no simpática: la discusión es si aceptamos como normal <a href="https://www.enriquedans.com/2026/02/estafas-y-adiccion-mas-razones-por-las-que-europa-deberia-prohibir-el-modelo-publicitario-de-las-redes-sociales.html" target="_blank" rel="noreferrer noopener">un modelo que necesita vigilancia sistemática para funcionar, que monetiza el deterioro cognitivo y que convierte el espacio público en una máquina de segmentación publicitaria</a>. Ese es precisamente el eje de lo que llevo tiempo argumentando: <a href="https://www.enriquedans.com/2026/02/espiar-como-modelo-de-negocio-el-debate-que-europa-sigue-aplazando.html" target="_blank" rel="noreferrer noopener">cuando el negocio consiste en espiar, el producto somos nosotros</a>. Y cuando el negocio depende de retenerte y engancharte, la adicción deja de ser “un efecto secundario” y se convierte en requisito operativo.</p>



<p>Por eso, hablar de «abandonar modelos estadounidenses que no encajan con nuestra visión» no es antiamericanismo, ni capricho regulatorio, ni postureo proteccionista: es coherencia con derechos fundamentales. El choque reciente entre Estados Unidos y la Unión Europea alrededor de la regulación digital lo ilustra con claridad: mientras la UE plantea marcos como la DSA como una obligación de diligencia, transparencia y gestión de riesgos, <a href="https://www.enriquedans.com/2026/02/freedom-gov-el-manual-de-supervivencia-del-imperio-cuando-deja-de-serlo.html" target="_blank" rel="noreferrer noopener">desde ciertos sectores políticos y corporativos estadounidenses se intenta reetiquetar todo eso como «censura»</a>. Esa guerra semántica no es casual: cuando un actor controla la infraestructura informacional global, no defiende solo beneficios, <a href="https://www.ft.com/content/37d47387-7e31-484a-8c8a-f01efbeb4151" target="_blank" rel="noreferrer noopener">defiende <em>soft power</em> e influencia</a>. </p>



<p>La buena noticia es que, por primera vez en mucho tiempo, la discusión europea empieza a aterrizar en medidas concretas. La Comisión Europea no solo habla de soberanía: <a href="https://commission.europa.eu/about/departments-and-executive-agencies/digital-services/open-source-software-strategy_en" target="_blank" rel="noreferrer noopener">empuja estrategias explícitas de tecnologías abiertas y de código abierto</a>, con un enfoque de <em>«Think Open»</em>, y con estructuras como su <a href="https://interoperable-europe.ec.europa.eu/collection/ec-ospo" target="_blank" rel="noreferrer noopener">Open Source Programme Office</a> para institucionalizar contribución, reutilización y <em>«stay in control»</em>. Esto es importante por un motivo que a veces se pierde: el <em>open source</em> no es una religión, es una palanca de soberanía. No porque «sea gratis», sino porque reduce asimetrías, facilita auditoría, permite bifurcar y mantener, y hace más difícil el chantaje del proveedor. En otras palabras: vuelve negociable lo que hoy es dependencia. </p>



<p>Pero soberanía no es autarquía. Aquí la idea de «<a href="https://www.enriquedans.com/2026/03/la-neutralidad-activa-como-estrategia-de-pais.html" target="_blank" rel="noreferrer noopener">neutralidad activa</a>» es clave: diversificar proveedores, evitar <em>lock-in</em> y reservar capacidad propia donde duele perderla. La pregunta útil no es «¿podemos vivir sin tecnología estadounidense mañana?», sino «¿podemos diseñar un camino para que lo crítico no dependa de un tercero que no comparte ni nuestros incentivos ni nuestras garantías?» Y en ese camino, <em>«Made in Europe»</em> no debería leerse como una mera campaña industrial, sino como giro geopolítico: pagar más a propósito para recuperar control estratégico, porque el precio real de lo barato suele ser la dependencia. Esa es exactamente <a href="https://munaeem.medium.com/why-made-in-europe-is-about-power-not-just-industry-dbec692ce534">la tesis del texto sobre <em>«Made in Europe»</em>: no va de fábricas, va de control</a>.</p>



<p>A partir de ahí, el debate se vuelve incómodo para muchos porque obliga a hablar de <em>procurement</em>, no de deseos. Si Europa quiere soberanía, tiene que comprar soberanía. El discurso de <a href="https://eurostack.eu/" target="_blank" rel="noreferrer noopener">EuroStack</a> y su insistencia en <a href="https://www.lemonde.fr/economie/article/2025/05/07/tech-il-faut-acheter-europeen-pour-eviter-d-etre-une-colonie-numerique-plaide-le-collectif-eurostack_6603840_3234.html" target="_blank" rel="noreferrer noopener">un <em>«Buy European»</em> acompañado de interoperabilidad y requisitos de salida</a>, apunta justo a ese nervio: dejar de financiar, con gasto público y empresarial, la consolidación de dependencias estructurales. No se trata de excluir por pasaporte, sino de exigir condiciones: jurisdicción, auditabilidad, portabilidad real, estándares abiertos, y ausencia de prácticas incompatibles con derechos fundamentales. Quien pueda cumplirlas, compite; quien no, no debería ser infraestructura de lo público. </p>



<p>¿Y las redes sociales? Ahí el problema es todavía más claro porque no hablamos solo de servicios: hablamos de «infraestructura cognitiva», <a href="https://www.enriquedans.com/2026/02/el-juicio-a-zuckerberg-es-solo-la-punta-del-iceberg-por-que-meta-x-y-tiktok-son-estructuralmente-toxicas-para-la-democracia.html" target="_blank" rel="noreferrer noopener">de la que dependen elecciones, agenda pública y salud democrática</a>. Proyectos como <a href="https://www.eurosky.tech/blog/eurosky-launch-social-media-infrastructure" target="_blank" rel="noreferrer noopener">Eurosky</a> son interesantes precisamente porque <a href="https://openfuture.eu/blog/eurosky-dawns-building-infrastructure-for-sovereign-social-media/" target="_blank" rel="noreferrer noopener">intentan mover la discusión del «hagamos otra <em>app</em>» al «construyamos infraestructura y gobernanza»</a>. Su apuesta por el <a href="https://en.wikipedia.org/wiki/AT_Protocol" target="_blank" rel="noreferrer noopener">AT Protocol</a> y por una capa europea para cuentas, datos y moderación apunta a lo que de verdad importa: que la soberanía no se resuelve con un clon, sino con un ecosistema y reglas propias. Y el hecho de que <a href="https://www.reuters.com/business/media-telecom/european-project-eurosky-aims-reduce-reliance-us-tech-giants-2025-07-15/" target="_blank" rel="noreferrer noopener">Reuters lo trate como un intento explícito de reducir dependencia de los gigantes estadounidenses</a> muestra que, claramente, el diagnóstico ya está a la vista. </p>



<p>Con todo, estamos lejísimos aún de poder caer en algún tipo de triunfalismo. Europa tiene talento, capital, industria y regulación, pero lo que le ha faltado históricamente es voluntad sostenida, velocidad y coordinación para escalar alternativas sin que mueran en la «fase piloto». Esa es la razón por la que, cada cierto tiempo, <a href="https://www.cjr.org/the_media_today/europe-divorce-big-tech-trump-cloud-exit-plan.php" target="_blank" rel="noreferrer noopener">resurgen las dudas sobre si Europa «de verdad» puede divorciarse de las Big Tech</a>: porque el divorcio no es un <em>tweet</em>, es una migración masiva de dependencias, contratos, hábitos y cultura tecnológica. Y además, habrá presión, y mucha. Lo vemos <a href="https://www.ft.com/content/0847914c-be27-4573-8600-8cdb54e604b7" target="_blank" rel="noreferrer noopener">cuando incluso Google advierte públicamente a la UE contra «levantar muros» en su agenda de soberanía</a>: porque entiende perfectamente lo que se está discutiendo. </p>



<p>La pregunta, por tanto, no es si Europa puede «adquirir soberanía tecnológica» como quien compra un paquete en Amazon o en AliExpress. La pregunta es si está dispuesta a asumir el coste político y económico de alinear su infraestructura digital con sus principios. Si de verdad creemos en la importancia de la privacidad, en los límites al poder corporativo, en la transparencia y en el Estado de derecho, entonces no tiene sentido que la conversación pública, la nube de lo público o la capa de identidad digital dependan de modelos diseñados para extraer datos y maximizar influencia. La soberanía europea no será un gran gesto, sino una suma de decisiones aburridas: estándares abiertos, contratos con cláusulas de salida, exigencias de interoperabilidad, inversión paciente, y una preferencia explícita por tecnologías que se puedan auditar y gobernar aquí. </p>



<p>Y sobre todo, una decisión moral disfrazada de decisión técnica: dejar de tratar nuestros derechos como un «coste de fricción» y empezar a tratarlos como lo que son. El día que Europa entienda que su ventaja comparativa no es copiar a Silicon Valley, sino ofrecer una alternativa compatible con la democracia y los derechos fundamentales, aunque al principio suene «menos <em>sexy</em>«, ese día la soberanía dejará de ser un eslogan y se convertirá, por fin, en una estrategia como tal. </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/03/soberania-tecnologica-europea-o-dejamos-de-alquilar-el-futuro-a-silicon-valley-o-seguiremos-pagando-peaje-democratico.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>El mundo por dentro: por qué los world models están a punto de convertirse en el eje de la próxima arquitectura de la inteligencia artificial</title>
		<link>https://www.enriquedans.com/2026/03/el-mundo-por-dentro-por-que-los-world-models-estan-a-punto-de-convertirse-en-el-eje-de-la-proxima-arquitectura-de-la-inteligencia-artificial.html</link>
					<comments>https://www.enriquedans.com/2026/03/el-mundo-por-dentro-por-que-los-world-models-estan-a-punto-de-convertirse-en-el-eje-de-la-proxima-arquitectura-de-la-inteligencia-artificial.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 06 Mar 2026 06:58:10 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AGI]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[future]]></category>
		<category><![CDATA[Large Language Model]]></category>
		<category><![CDATA[superintelligence]]></category>
		<category><![CDATA[TuringDream]]></category>
		<category><![CDATA[world model]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57399</guid>

					<description><![CDATA[Lo más revelador de ese titular, «Ex-Google DeepMind researchers raising $100 million to build ‘world models’«, no es la cifra ni el glamour del capital de riesgo: es la admisión implícita de algo que llevaba tiempo gestándose en los laboratorios y que ahora salta al mercado: investigadores con experiencia en modelado del mundo, los que  <a href="https://www.enriquedans.com/2026/03/el-mundo-por-dentro-por-que-los-world-models-estan-a-punto-de-convertirse-en-el-eje-de-la-proxima-arquitectura-de-la-inteligencia-artificial.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/03/From-LLMs-to-world-models-02-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/03/From-LLMs-to-world-models-02-Dall·E.jpg" alt="IMAGE: A square digital illustration showing a blurred cloud of floating letters on the left transforming, through a bright arrow, into a detailed globe on the right surrounded by network lines, a robotic arm, a satellite, and a small autonomous vehicle—symbolizing the shift from language-based AI to world-simulating models " class="wp-image-57400" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/03/From-LLMs-to-world-models-02-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/03/From-LLMs-to-world-models-02-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/03/From-LLMs-to-world-models-02-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/03/From-LLMs-to-world-models-02-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Lo más revelador de ese titular, <em>«<a href="https://www.theinformation.com/briefings/exclusive-ex-google-deepmind-researchers-raising-100-million-build-world-models" target="_blank" rel="noreferrer noopener">Ex-Google DeepMind researchers raising $100 million to build ‘world models’</a>«</em>, no es la cifra ni el <em>glamour</em> del capital de riesgo: es la admisión implícita de algo que llevaba tiempo gestándose en los laboratorios y que ahora salta al mercado: investigadores con experiencia en modelado del mundo, los que han intentado enseñar a las máquinas a simular realidades, están convencidos que, <a href="https://www.enriquedans.com/2026/01/los-limites-invisibles-de-la-inteligencia-artificial-los-data-centers-y-los-llm-amenazan-la-proxima-decada-de-innovacion.html" target="_blank" rel="noreferrer noopener">como llevo tiempo comentando</a>, el próximo salto no vendrá de escalar más LLMs, sino de diseñar modelos capaces de mantener una representación interna coherente y manipulable del mundo. </p>



<p>Pero empecemos por el principio: ¿qué es un <em>world model</em>, o modelo del mundo? Imagina una mente mínima que no se limita a repetir lo que leyó, sino que construye un simulador interno. Ese simulador recibe sensaciones (imágenes, sensores, texto, interacciones), aprende reglas implícitas de física, causalidad y agencia, y puede ejecutar «pensamientos contrafactuales»: si empujo el vaso, ¿se rompe?, si acelero aquí, ¿pierdo el control? Un modelo del mundo no es solamente una función que predice la siguiente palabra; es una máquina que puede generar futuros posibles y evaluar acciones en esos futuros, dentro de una representación compacta y diferenciable. Los primeros trabajos académicos que formalizaron esta idea no son nuevos: el <a href="https://arxiv.org/pdf/1803.10122" target="_blank" rel="noreferrer noopener">artículo de Ha y Schmidhuber</a> ya exploró en 2018 cómo entrenar modelos generativos del entorno para luego aprender políticas en el «sueño» que el modelo genera. </p>



<p>La historia técnica que nos trajo hasta aquí es fácil de resumir en dos movimientos. Primero, los modelos del mundo conceptuales y demostrativos (como los de Ha &amp; Schmidhuber), que enseñaron la viabilidad de aprender una dinámica latente y usarla para entrenar agentes. Segundo, la serie de avances que mostraron que, con suficiente ingeniería, esos modelos pueden competir en <em>benchmarks</em> complejos: <a href="https://en.wikipedia.org/wiki/MuZero" target="_blank" rel="noreferrer noopener">MuZero</a> aprendió a planificar sin conocer las reglas de los juegos, aprendiendo un modelo que es útil para búsqueda y control, y <a href="https://en.wikipedia.org/wiki/MuZero" target="_blank" rel="noreferrer noopener">Dreamer</a> / <a href="https://youtu.be/o75ybZ-6Uu8?si=7zxALAEylqdFSG5A" target="_blank" rel="noreferrer noopener">Dreamer V2</a> demostraron que <a href="https://arxiv.org/pdf/1911.08265" target="_blank" rel="noreferrer noopener">es posible aprender comportamientos completos dentro de un mundo latente aprendido</a>, alcanzando <a href="https://arxiv.org/pdf/2010.02193" target="_blank" rel="noreferrer noopener">niveles humanos en Atari</a>. Es decir: simulación interna + planificación = capacidades que los LLMs, entrenados sólo sobre texto, no pueden replicar. </p>



<p>¿Por qué importa este desplazamiento de paradigma? Porque los LLMs dominan hoy por una razón obvia: son increíblemente buenos en tareas lingüísticas y, sobre todo, porque su negocio es simple de capitalizar: datos masivos + modelos grandes = productos conversacionales y APIs. Pero esa ecuación tiene limites prácticos, energéticos y conceptuales: <a href="https://www.enriquedans.com/2026/02/por-que-los-llms-estan-atrapados-en-la-caverna-de-platon-y-que-viene-despues.html" target="_blank" rel="noreferrer noopener">los LLMs «ven sombras», textos que describen el mundo, y no la dinámica del mundo mismo</a>, por eso fallan y «alucinan» en razonamiento físico, persistencia de objetos, modelado de agentes y planes a largo plazo. En contraste, un modelo del mundo aspira a entender cómo cambia el mundo cuando actuamos en él, y por tanto es la herramienta natural para robótica, simulación, planificación estratégica y agentes autónomos. Si la inteligencia artificial del futuro ha de tomar decisiones seguras en el mundo real, necesitará una representación que capture continuidad, causalidad y la relación entre acción y resultado. </p>



<p>Por supuesto, eso no convierte a los modelos del mundo en una panacea. La arquitectura que propone la industria es híbrida: la fluidez y el conocimiento codificado en los LLMs seguirá siendo útil (lenguaje, explicación, interfaz), pero la centralidad de la inteligencia puede desplazarse hacia modelos que simulan y planifican. En términos industriales, la diferencia es radical: pasaríamos de una infraestructura dominada por entrenamientos de LLMs (centros de datos, enormes datasets de texto) a una arquitectura en la que la propiedad de los entornos simulados, de los sensores y de los <em>datasets</em> dinámicos (y la capacidad de integrarlos en plataformas de simulación en la nube) se convertirá en un activo clave. Es la tesis que ya defendí sobre <a href="https://www.enriquedans.com/2026/02/por-que-los-modelos-del-mundo-se-convertiran-en-plataformas-no-en-superpoderes-corporativos.html" target="_blank" rel="noreferrer noopener">por qué los modelos del mundo acabarán siendo una capacidad de plataforma más que una superpotencia corporativa aislada</a>. </p>



<p>¿Qué significa la aparición de equipos como los ex-DeepMind y <em>startups</em> como Embo que recogen rondas millonarias? Primero, que la comunidad inversora percibe, con razón, una oportunidad de mercado: hay clientes reales en robótica, simulación urbana, logística y diseño de productos que necesitan modelos que predigan consecuencias, no solo que agreguen texto bonito. Segundo, que la investigación aplicada ha alcanzado una masa crítica: los laboratorios han probado que la idea funciona en dominios complejos y ahora hay presión por llevarla a sistemas industriales con latencias, integraciones con sensores y garantías de seguridad. Pero también significa riesgo de narrativa: la etiqueta «ex-DeepMind» vende confianza, y a veces la financiación premia <em>pedigree</em> y promesa más que productos validados; conviene ser escépticos y exigir resultados. </p>



<p>Técnicamente, el reto es enorme y fascinante: cómo construir representaciones latentes que sean a la vez compactas, interpretables y útiles para planificación; cómo conectar visión, lenguaje y acción; cómo entrenar modelos que generalicen fuera del distribuidor de entrenamiento sin colapsar ante la complejidad del mundo real; cómo integrar aprendizaje por modelado con búsqueda (<em>lookahead</em>) eficiente. Los avances de MuZero y de Dreamer muestran caminos, pero trasladarlos a entornos físicos, con ruido y costes reales no va a ser para nada trivial. </p>



<p>En términos estratégicos y sociales, el cambio también plantea preguntas: si las plataformas de nube controlan las simulaciones y los <em>datasets</em> sensoriales, ¿quién tiene la ventaja competitiva? ¿Las grandes nubes, las empresas con flotas de robots, o las plataformas abiertas que permitan a terceros construir y validar modelos del mundo? Mi apuesta, coherente con lo que he defendido antes, es que los modelos del mundo se convertirán en una capacidad de plataforma, en una capa técnica que cualquiera podrá integrar, y no en una superpotencia monopolística exclusiva de quien controle más GPUs. Eso no elimina la competencia por talento y capital, pero atenúa la ventaja relativa de la pura escala de parámetros frente a la calidad y diversidad de las experiencias entrenadas. Y por supuesto, permite potencialmente generar ventajas competitivas imparables e incrementales, capaces de dar lugar a auténticos monopolios naturales. </p>



<p>Esto cambia la conversación sobre riesgos y gobernanza: un modelo del mundo que simula escenarios futuros es extraordinariamente poderoso, para bien y para mal: puede optimizar operaciones, prever fallos, diseñar medicamentos&#8230; pero también puede generar simulaciones malintencionadas o exagerar riesgos cuando se usa sin controles. La gobernanza debe avanzar al ritmo del desarrollo técnico: auditorías, <em>datasets</em> de calidad y verdaderamente representativos, métricas de robustez y, sobre todo, un debate público sobre qué simulaciones deben permitirse y cuáles requieren supervisión. </p>



<p>El movimiento no es un simple rebautizo académico, es un cambio de pregunta: ya no buscamos sólo qué puede decir la inteligencia artificial, ahora buscamos qué puede hacer en el mundo y cómo imagina los efectos de sus acciones. Si Embo y otras iniciativas confirman que esa imaginación computacional funciona en dominios reales, estaremos ante un reequilibrio de poder tecnológico y una nueva arquitectura cuya pieza central será la capacidad de modelar, simular y planificar. El ecosistema de la inteligencia artificial lleva meses anunciando que la conversación ha cambiado. Ahora los que tienen la chequera empiezan a decirlo en voz alta. Eso obliga a empresas, reguladores y ciudadanos a repensar no solo productos, sino también responsabilidades. Y sobre todo, nos plantea qué tipo de cosas vamos a poder hacer (o van a poder hacer aquellos que tengan acceso) con esas herramientas. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/llms-see-shadows-world-models-see-reality-795307162503?sk=a0b539fb5275ee43eeed4a1926245a49" target="_blank" rel="noreferrer noopener">LLMs see shadows. World models see reality</a>«</em> </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/03/el-mundo-por-dentro-por-que-los-world-models-estan-a-punto-de-convertirse-en-el-eje-de-la-proxima-arquitectura-de-la-inteligencia-artificial.html/feed</wfw:commentRss>
			<slash:comments>5</slash:comments>
		
		
			</item>
		<item>
		<title>Por qué centrarse en la reducción de costes en plena revolución de la inteligencia artificial es un error estratégico</title>
		<link>https://www.enriquedans.com/2026/03/por-que-centrarse-en-la-reduccion-de-costes-en-plena-revolucion-de-la-inteligencia-artificial-es-un-error-estrategico.html</link>
					<comments>https://www.enriquedans.com/2026/03/por-que-centrarse-en-la-reduccion-de-costes-en-plena-revolucion-de-la-inteligencia-artificial-es-un-error-estrategico.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Thu, 05 Mar 2026 09:12:57 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[costs]]></category>
		<category><![CDATA[efficiency]]></category>
		<category><![CDATA[Fast Company]]></category>
		<category><![CDATA[productivity]]></category>
		<category><![CDATA[productivity paradox]]></category>
		<category><![CDATA[Robert Solow]]></category>
		<category><![CDATA[strategy]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57396</guid>

					<description><![CDATA[Cuando surge una nueva tecnología de propósito general, ya sean los ferrocarriles, la electricidad o los ordenadores, las empresas reaccionan de maneras bastante previsibles. Una pequeña minoría intenta reinventarse en torno a ella, pero la mayoría busca primero cómo utilizarla para recortar costes. Ahora mismo, en medio de la revolución tecnológica más importante desde internet,  <a href="https://www.enriquedans.com/2026/03/por-que-centrarse-en-la-reduccion-de-costes-en-plena-revolucion-de-la-inteligencia-artificial-es-un-error-estrategico.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/03/Cutting-costs-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/03/Cutting-costs-Dall·E.jpg" alt="IMAGE: A worried middle-aged manager in a suit sits at a cluttered desk covered with financial reports and charts showing declining performance. He is using an oversized pair of scissors to cut through a large paper dollar sign, symbolizing aggressive cost cutting. Around him are crumpled papers, a calculator, and stacks of documents, reinforcing the sense of panic and misguided attempts to solve deeper problems by simply slashing expenses" class="wp-image-57397" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/03/Cutting-costs-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/03/Cutting-costs-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/03/Cutting-costs-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/03/Cutting-costs-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Cuando surge una nueva tecnología de propósito general, ya sean los ferrocarriles, la electricidad o los ordenadores, las empresas reaccionan de maneras bastante previsibles. Una pequeña minoría intenta reinventarse en torno a ella, pero la mayoría busca primero cómo utilizarla para recortar costes.</p>



<p>Ahora mismo, en medio de la revolución tecnológica más importante desde internet, hay muchas organizaciones que están eligiendo ese segundo camino. Despliegan inteligencia artificial para automatizar centros de atención telefónica, reducir plantilla en áreas administrativas y exprimir mejoras marginales de procesos existentes. Miden el «ROI de la inteligencia artificial» en conceptos como el ahorro salarial o las horas recuperadas. </p>



<p>Parece racional. Parece disciplinado. Parece prudente. Pero también es la forma más rápida de perder la verdadera oportunidad.</p>



<p></p>



<h3 class="wp-block-heading"><strong>Las olas de innovación no son programas de eficiencia</strong></h3>



<p>La inteligencia artificial no es una nueva herramienta SaaS ni una simple mejora de flujos de trabajo. Es una tecnología de propósito general en rapidísima evolución que avanza desde los grandes modelos de lenguaje hacia sistemas agénticos y, cada vez más, hacia sistemas que aprenden interactuando con entornos, los llamados <a href="https://www.enriquedans.com/2026/02/por-que-los-modelos-del-mundo-se-convertiran-en-plataformas-no-en-superpoderes-corporativos.html" target="_blank" rel="noreferrer noopener">modelos del mundo</a>, capaces de simular, planificar y actuar. </p>



<p>Cuando la capacidad subyacente cambia cada pocos meses, optimizar para reducir costes es como intentar mejorar la eficiencia de combustible de un coche mientras sustituyes su motor por un reactor de un avión. </p>



<p>Las organizaciones que ganan en momentos así no empiezan preguntándose «¿Dónde podemos eliminar mano de obra?», empiezan preguntándose «¿Qué pasa a ser posible ahora que antes era imposible?» </p>



<p>Son preguntas radicalmente distintas. </p>



<p></p>



<h3 class="wp-block-heading"><strong>La paradoja de la productividad debería haber sido una advertencia</strong></h3>



<p>A principios de los años &#8217;90, los economistas se enfrentaron a un fenómeno desconcertante: los ordenadores empezaban a estar por todas partes, pero las estadísticas de productividad apenas reflejaban su impacto. En un <a href="https://www.standupeconomist.com/pdf/misc/solow-computer-productivity.pdf" target="_blank" rel="noreferrer noopener">artículo</a>, el premio Nobel <a href="https://en.wikipedia.org/wiki/Robert_Solow" target="_blank" rel="noreferrer noopener">Robert Solow</a> ironizó: «vemos la era de los ordenadores en todas partes menos en las estadísticas de productividad». Aquella observación pasó a conocerse como la <a href="https://en.wikipedia.org/wiki/Productivity_paradox" target="_blank" rel="noreferrer noopener">paradoja de la productividad</a>. </p>



<p>En aquel momento, muchos asumieron que esa paradoja representaba un fracaso de la tecnología. <a href="https://www.enriquedans.com/wp-content/uploads/2018/09/Productivity-ECITE-copia.pdf" target="_blank" rel="noreferrer noopener">Mis propias investigaciones en esa época en el contexto de las PYMEs españolas</a> analizaban por qué aparecía esa paradoja, mostrando que <strong>la medición de la productividad va muy por detrás de los cambios transformacionales reales y que los mecanismos de creación de valor no quedaban capturados por las métricas convencionales</strong>.</p>



<p>La explicación solo resultó evidente con el paso del tiempo. Las ganancias eran <strong>difusas, desiguales y profundamente entrelazadas con cambios organizativos</strong>. Las empresas habían digitalizado procesos antiguos en lugar de rediseñarlos. </p>



<p>Hoy estamos viendo el mismo patrón con la inteligencia artificial. </p>



<p></p>



<h3 class="wp-block-heading"><strong>El impacto de la inteligencia artificial no aparecerá ordenadamente en las métricas de coste</strong></h3>



<p>La inteligencia artificial no produce ganancias de productividad limpias y lineales que encajen perfectamente en cuadros de mando trimestrales: sus efectos son asimétricos. Un empleado que utiliza bien la inteligencia artificial puede superar la productividad de diez compañeros. Otro puede usarla mal, degradar la calidad o incluso poner en riesgo la ciberseguridad corporativa. Algunos equipos rediseñan por completo sus flujos de trabajo; otros simplemente añaden inteligencia artificial a procesos <em>legacy</em> y lo llaman «transformación». </p>



<p>El resultado es lo que algunos investigadores denominan <a href="https://www.nber.org/system/files/working_papers/w25148/w25148.pdf"><strong>miopía de medición</strong></a>: la incapacidad de las métricas tradicionales para capturar mejoras reales que no se traducen directamente en horas trabajadas o costes ahorrados.</p>



<p>Intentar medir el valor de la inteligencia artificial únicamente a través del ahorro inmediato de costes es como intentar medir el valor de la electricidad echando cuentas de las velas que ya no necesitamos comprar. </p>



<p></p>



<h3 class="wp-block-heading"><strong>La eficiencia es la estrategia cómoda, pero no la estratégica</strong></h3>



<p>Recortar costes resulta atractivo porque encaja con las estructuras de gobierno existentes. Los directores financieros lo entienden. <a href="https://www.enriquedans.com/2026/02/la-inteligencia-artificial-ya-no-ayuda-ahora-empieza-a-despedir.html">Los consejos de administración y los accionistas lo recompensan</a>. Las métricas son claras. </p>



<p>La exploración es mucho más desordenada. Exige experimentar sin retornos garantizados, requiere tolerancia al error, genera beneficios intangibles antes que visibles. Pero en periodos de innovación acelerada, la eficiencia suele convertirse en la estrategia cómoda de quienes aún no han entendido lo que está ocurriendo. </p>



<p>Si la inteligencia artificial se trata principalmente como una herramienta de reducción de costes y de plantilla, las organizaciones optimizarán el presente a costa de sacrificar el futuro. Estandarizarán la mediocridad en lugar de descubrir nuevas palancas de valor. </p>



<p></p>



<h3 class="wp-block-heading"><strong>Explorar, no explotar, es lo que construye capacidades</strong></h3>



<p>Defender la exploración no significa abandonar la disciplina, significa redefinirla. Los líderes deberían preguntarse qué nuevos productos pueden crear con capacidades nativas de inteligencia artificial, o qué decisiones pueden delegar en sistemas que aprendan de la retroalimentación, o cómo pueden rediseñar flujos de trabajo en lugar de limitarnos a automatizarlos. </p>



<p>Las empresas deberían impulsar experimentación controlada en distintos equipos, no restringir el uso de la inteligencia artificial a pilotos limitados que solo se justifican por ahorros de costes. Deberían adoptar la inteligencia artificial como una postura de I+D, no como una política de recorte presupuestario.</p>



<p>Las organizaciones que traten la inteligencia artificial como una capa exploratoria, <a href="https://hbr.org/2023/09/reskilling-in-the-age-of-ai" target="_blank" rel="noreferrer noopener">animando a los equipos a probar, prototipar, recombinar y repensar procesos</a>, construirán fluidez institucional. Desarrollarán campeones internos. Descubrirán valor inesperado que ninguna iniciativa de reducción de costes habría sacado a la luz. </p>



<p></p>



<h3 class="wp-block-heading"><strong>El verdadero riesgo no es gastar demasiado, es imaginar demasiado poco</strong></h3>



<p>El mayor riesgo en este momento no es gastar en exceso en inteligencia artificial, sino quedarse corto en imaginación. Las empresas que persigan mejoras de eficiencia a corto plazo podrán presentar avances modestos y declararse satisfechas. Mientras tanto, competidores más ambiciosos <a href="https://hbr.org/2018/01/artificial-intelligence-for-the-real-world" target="_blank" rel="noreferrer noopener">rediseñarán sus operaciones, productos y experiencias de cliente en torno a capacidades que ni siquiera existían hace dos años</a>. Con el tiempo, la brecha no será de unos pocos puntos porcentuales de margen: será estratégica. </p>



<p>En periodos de cambio tecnológico acelerado, la supervivencia no pertenece a los más eficientes. Pertenece a <strong>los que mejor se saben adaptar</strong>. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>(This article was <a href="https://www.fastcompany.com/91493931/why-focusing-on-cost-cutting-during-the-ai-revolution-is-a-strategic-mistake" target="_blank" rel="noreferrer noopener">previously published on Fast Company</a>) </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/03/por-que-centrarse-en-la-reduccion-de-costes-en-plena-revolucion-de-la-inteligencia-artificial-es-un-error-estrategico.html/feed</wfw:commentRss>
			<slash:comments>11</slash:comments>
		
		
			</item>
		<item>
		<title>La neutralidad activa como estrategia de país</title>
		<link>https://www.enriquedans.com/2026/03/la-neutralidad-activa-como-estrategia-de-pais.html</link>
					<comments>https://www.enriquedans.com/2026/03/la-neutralidad-activa-como-estrategia-de-pais.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Wed, 04 Mar 2026 06:48:35 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[China]]></category>
		<category><![CDATA[geopolitics]]></category>
		<category><![CDATA[Invertia]]></category>
		<category><![CDATA[strategy]]></category>
		<category><![CDATA[technology]]></category>
		<category><![CDATA[US]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57376</guid>

					<description><![CDATA[Mi columna de esta semana en Invertia se titula «Los no alineados digitales: negociar con todos y no depender de nadie» (pdf), y trata sobre una idea que a muchos les incomoda porque exige pensar en términos estratégicos y no en términos de consigna: en un mundo en el que Estados Unidos ha dejado de  <a href="https://www.enriquedans.com/2026/03/la-neutralidad-activa-como-estrategia-de-pais.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/03/Not-aligned-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/03/Not-aligned-Dall·E.jpg" alt="IMAGE: A glowing globe centered on Europe connects through luminous data lines to symbolic US and Chinese flags, with microchips and servers orbiting around it in a high-contrast blue and red digital landscape " class="wp-image-57378" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/03/Not-aligned-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/03/Not-aligned-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/03/Not-aligned-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/03/Not-aligned-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Mi columna de esta semana en Invertia se titula «<a href="https://www.elespanol.com/invertia/opinion/20260304/no-alineados-digitales-negociar-depender-nadie/1003744153123_13.html" target="_blank" rel="noreferrer noopener">Los no alineados digitales: negociar con todos y no depender de nadie</a>» (<a href="https://www.enriquedans.com/wp-content/uploads/2026/03/Los-no-alineados-digitales-Invertia.pdf" target="_blank" rel="noreferrer noopener">pdf</a>), y trata sobre una idea que a muchos les incomoda porque exige pensar en términos estratégicos y no en términos de consigna: en un mundo en el que Estados Unidos ha dejado de ser un socio previsible o fiable, y China se ha convertido en un proveedor tan imprescindible como problemático, la única posición sensata para un país como España (y, por extensión, para Europa) es abandonar la tentación de «elegir bando» y empezar a construir margen de maniobra. No hablo de equidistancia moral, ni de postureo diplomático, ni de ingenuidades tipo «podemos llevarnos bien con todos»: hablo de diseñar dependencias deliberadas, diversificadas y reversibles, y de reducir al mínimo las dependencias críticas que, cuando se tensan las relaciones, se convierten en un interruptor que alguien puede apagar desde fuera.</p>



<p>Lo que hace especialmente interesante este debate es que, por primera vez en décadas, Europa parece haber entendido que la soberanía tecnológica no es un eslogan, sino una condición necesaria para que la política siga existiendo como algo más que gestión de daños. <a href="https://www.enriquedans.com/wp-content/uploads/2026/03/JRC144908_01.pdf" target="_blank" rel="noreferrer noopener">El Joint Research Centre de la Comisión Europea lo formula con bastante claridad en un <em>policy brief</em> reciente sobre soberanía digital</a>, que insiste en la idea de una Europa «abierta, pero no impotente» y describe con crudeza la paradoja europea: regulamos mucho, pero dependemos demasiado en infraestructuras, nube, semiconductores y capacidades de inteligencia artificial. Ese documento me ha gustado y me parece útil precisamente porque no cae en el aislacionismo&#8230; pero tampoco en el «todo irá bien». Hay que poner las cosas en su sitio: no solo es que los Estados Unidos y no sean un socio fiable: es que muchas de sus compañías ya tampoco lo son, si es que lo fueron alguna vez. Y si no, mira el caso de Palantir. </p>



<p>A partir de ahí, conviene poner sobre la mesa algo que solemos olvidar: la soberanía tecnológica no consiste en «tener empresas europeas» por romanticismo, sino en garantizar que las decisiones críticas, las que afectan a datos sensibles, infraestructuras esenciales, servicios públicos y capacidades industriales, etc. no dependen de marcos jurídicos y de incentivos empresariales que no controlamos. En ese sentido, el <a href="https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng" target="_blank" rel="noreferrer noopener">AI Act</a> no es solo una norma de «ética»: es un intento de gobernanza del poder tecnológico. Y el <a href="https://eur-lex.europa.eu/eli/reg/2023/1781/oj/eng" target="_blank" rel="noreferrer noopener">Chips Act</a> europeo no es solo «subvencionar fábricas»: es un reconocimiento de que sin capacidad productiva y sin cadena de suministro, el discurso de la autonomía es puro humo calentito. </p>



<p>Pero la geopolítica no espera a que Europa madure. China planifica, industrializa y escala, y lo hace desde hace tiempo. Un buen recordatorio, por si alguien todavía cree que esto va de «copiar barato», es <a href="https://cset.georgetown.edu/wp-content/uploads/t0432_made_in_china_2025_EN.pdf">el texto traducido y anotado de Made in China 2025 publicado por CSET</a>, que ayuda a entender por qué Beijing se mueve como se mueve y por qué Occidente se equivoca cuando reduce todo a propaganda. Y si queremos aterrizarlo en algo que se toca y se compra, basta mirar el mercado de baterías, donde la caída de precios y la capacidad de producción han entrado en una fase nueva dominada por la escala asiática, <a href="https://www.iea.org/commentaries/the-battery-industry-has-entered-a-new-phase">tal y como analiza la IEA</a>. </p>



<p>En paralelo, Estados Unidos ha dejado de ser el «adulto responsable» del que tantos europeos dependían psicológicamente para tranquilizarse. No hace falta dramatizar: basta leer con frialdad <a href="https://www.justice.gov/criminal/cloud-act-resources" target="_blank" rel="noreferrer noopener">cómo se articula el acceso a datos en el contexto del CLOUD Act y el alcance extraterritorial que puede implicar</a>. Ese tipo de cuestiones, que durante años se despachaban como un tecnicismo legal, hoy son material de soberanía, porque determinan quién puede exigir qué, a quién y en qué condiciones, aunque el servidor esté «en Europa» y el contrato diga misa en latín. </p>



<p>¿Y España? Aquí el asunto deja de ser un debate académico y se convierte en agenda política concreta. España tiene instrumentos, pero le falta determinación estratégica y, sobre todo, una obsesión mínima por la ejecución. El <a href="https://www.lamoncloa.gob.es/lang/en/gobierno/councilministers/Paginas/2022/20220524_council.aspx" target="_blank" rel="noreferrer noopener">PERTE Chip</a>, por <a href="https://www.pertechip.com/home-english" target="_blank" rel="noreferrer noopener">ejemplo</a>, solo será soberanía <a href="https://reforms-investments.ec.europa.eu/projects/perte-chip-strengthening-scientific-and-technological-ecosystem-increased-design-capabilities_en" target="_blank" rel="noreferrer noopener">si se traduce en capacidades duraderas</a> (talento, cadena de valor, empresas competitivas y proyectos con continuidad), y no en una suma de anuncios, consultoras, corrupción y notas de prensa. </p>



<p>Y en inteligencia artificial, si queremos hablar de soberanía sin caer en el chauvinismo, lo interesante es fijarse en qué capacidades públicas se intentan construir (computación, centros de datos, modelos, supervisión) y con qué gobernanza. El <a href="https://digital.gob.es/content/dam/portal-mtdfp/DigitalizacionIA/1_DOSSIER_AI_ENGLISH_15_JULIO.pdf" target="_blank" rel="noreferrer noopener">dossier en inglés de la Estrategia de inteligencia artificial 2024 del Gobierno español</a> es revelador porque sitúa prioridades y, entre otras cosas, menciona explícitamente la apuesta por modelos fundacionales en español y lenguas cooficiales (ALIA), además del papel de AESIA.  </p>



<p>El argumento de la columna es sencillo, pero exige abandonar la comodidad: España no puede «escoger» entre Washington y Beijing como si esto fuera fútbol, porque ambas relaciones tienen valor y ambas tienen riesgo. Lo inteligente es construir una neutralidad activa basada en tres principios muy poco románticos: diversificar proveedores, evitar bloqueos tecnológicos (<em>lock-in</em>) y reservar capacidad propia allí donde duele perderla (datos críticos, infraestructuras esenciales, seguridad, inteligencia artificial aplicada al sector público, y piezas clave de la transición energética). Eso no es anti-americano ni anti-chino: es pro-país. Y, en un momento en que la política española se entretiene demasiado con el corto plazo, quizá va siendo hora de que alguien haga explícito que la soberanía, o se diseña, o se mendiga. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/europe-regulates-china-manufactures-america-dominates-c0fa13467ba7?sk=990eaff91c187f108308d248b706ef55" data-type="link" data-id="https://medium.com/enrique-dans/europe-regulates-china-manufactures-america-dominates-c0fa13467ba7?sk=990eaff91c187f108308d248b706ef55" target="_blank" rel="noreferrer noopener">Europe regulates, China manufactures, America dominates. Which is why Spain needs its own tech strategy</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/03/la-neutralidad-activa-como-estrategia-de-pais.html/feed</wfw:commentRss>
			<slash:comments>40</slash:comments>
		
		
			</item>
		<item>
		<title>¿Guerras cada vez más algorítmicas?</title>
		<link>https://www.enriquedans.com/2026/03/guerras-cada-vez-mas-algoritmicas.html</link>
					<comments>https://www.enriquedans.com/2026/03/guerras-cada-vez-mas-algoritmicas.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Tue, 03 Mar 2026 07:32:22 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[algorithm]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Donald Trump]]></category>
		<category><![CDATA[Iran]]></category>
		<category><![CDATA[military]]></category>
		<category><![CDATA[scenario analysis]]></category>
		<category><![CDATA[Venezuela]]></category>
		<category><![CDATA[war]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57383</guid>

					<description><![CDATA[Durante años hemos hablado de la inteligencia artificial como una herramienta para optimizar procesos empresariales, personalizar publicidad o escribir correos más rápidos. Pero los acontecimientos recientes en Venezuela e Irán apuntan a otra dirección mucho menos cómoda: la progresiva integración de modelos comerciales de inteligencia artificial en operaciones militares reales. No como un complemento anecdótico,  <a href="https://www.enriquedans.com/2026/03/guerras-cada-vez-mas-algoritmicas.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/03/Algorithmic-war-Gemini.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/03/Algorithmic-war-Gemini.jpg" alt="IMAGE: A soldier and a civilian are shown standing at a futuristic holographic command console in a modern, tech-filled command center, under the prominent text title &quot;THE ALGORITHMIC WAR.&quot; They are interacting with complex data visualizations, including a large digital eye on a background screen, illustrating the intersection of military operations and AI technology " class="wp-image-57384" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/03/Algorithmic-war-Gemini.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/03/Algorithmic-war-Gemini-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/03/Algorithmic-war-Gemini-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/03/Algorithmic-war-Gemini-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años hemos hablado de la inteligencia artificial como una herramienta para optimizar procesos empresariales, personalizar publicidad o escribir correos más rápidos. Pero los acontecimientos recientes en Venezuela e Irán apuntan a otra dirección mucho menos cómoda: la progresiva integración de modelos comerciales de inteligencia artificial en operaciones militares reales. No como un complemento anecdótico, sino como parte del sistema nervioso de la decisión. </p>



<p>Un artículo reciente del Wall Street Journal, titulado <em>«<a href="https://www.wsj.com/livecoverage/iran-strikes-2026/card/u-s-strikes-in-middle-east-use-anthropic-hours-after-trump-ban-ozNO0iClZpfpL7K7ElJ2" target="_blank" rel="noreferrer noopener">U.S. strikes in Middle East use Anthropic, hours after Trump ban</a>”</em>, revela que Claude, el modelo de Anthropic, fue utilizado por el U.S. Central Command para evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla, incluso horas después de que Donald Trump anunciara que el gobierno federal dejaría de trabajar con la compañía. El artículo subraya hasta qué punto <a href="https://www.theguardian.com/technology/2026/mar/01/claude-anthropic-iran-strikes-us-military" target="_blank" rel="noreferrer noopener">estas herramientas están ya incrustadas en los flujos operativos</a>: no son experimentos marginales, sino componentes integrados en misiones activas. </p>



<p>La misma información apunta a que <a href="https://www.theguardian.com/technology/2026/feb/14/us-military-anthropic-ai-model-claude-venezuela-raid" target="_blank" rel="noreferrer noopener">Claude también fue empleado en la operación que culminó con la captura de Nicolás Maduro</a>, y que su sustitución no será inmediata debido a su <a href="https://www.nasdaq.com/press-release/anthropic-and-palantir-partner-bring-claude-ai-models-aws-us-government-intelligence" target="_blank" rel="noreferrer noopener">integración en plataformas de terceros como Palantir o AWS</a>. Este detalle es clave. No estamos ya ante un simple «uso de un <em>chatbot</em>«, sino ante toda una arquitectura: modelos de lenguaje avanzados <a href="https://www.anthropic.com/news/claude-in-amazon-bedrock-fedramp-high" target="_blank" rel="noreferrer noopener">desplegados en entornos <em>cloud</em> certificados</a>, <a href="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/" target="_blank" rel="noreferrer noopener">integrados en plataformas de análisis masivo de datos</a>, conectados a repositorios clasificados y a procesos de planificación operativa. </p>



<p>En paralelo, el debate político se ha intensificado. Según The Washington Post, <a href="https://www.washingtonpost.com/technology/2026/02/26/anthropic-pentagon-rejects-demand-claude/" target="_blank" rel="noreferrer noopener">Anthropic se negó a aceptar condiciones contractuales que implicaban permitir el uso de sus modelos en cualquier escenario «legal»</a>, incluyendo potencialmente armas autónomas o vigilancia masiva, lo que tensó su relación con el Pentágono. La <a href="https://apnews.com/article/anthropic-hegseth-ai-pentagon-military-3d86c9296fe953ec0591fcde6a613aba" target="_blank" rel="noreferrer noopener">presión del Departamento de Defensa para no limitar por contrato los usos militares de la inteligencia artificial</a> enmarca el conflicto como <a href="https://apnews.com/article/anthropic-hegseth-ai-pentagon-military-3d86c9296fe953ec0591fcde6a613aba" target="_blank" rel="noreferrer noopener">un precedente sobre hasta dónde puede o debe llegar el Estado</a> cuando <a href="https://www.axios.com/2026/03/01/openai-pentagon-anthropic-safety" target="_blank" rel="noreferrer noopener">incorpora modelos privados a su aparato coercitivo</a>. </p>



<p>En este contexto emerge el llamativo <em>«<a href="https://factually.co/fact-checks/politics/what-is-the-discombobulator-described-by-trump-f4a48c" target="_blank" rel="noreferrer noopener">discombobulator</a>«</em>, la supuesta «<a href="https://www.newsweek.com/the-discombobulator-does-trumps-secret-weapon-really-exist-11416698" target="_blank" rel="noreferrer noopener">arma secreta</a>» que, según Trump, habría dejado inoperativos los sistemas de vigilancia venezolanos. Sin embargo, análisis recogidos por medios como CNN sugieren que <a href="https://edition.cnn.com/2026/01/25/politics/trump-says-secret-discombobulator-weapon-was-used-to-capture-maduro" target="_blank" rel="noreferrer noopener">probablemente se trate de una etiqueta grandilocuente (y absurda) para describir una combinación de capacidades ya conocidas</a>: ciberoperaciones para degradar defensas, guerra electrónica para interferir radares y comunicaciones, y eventualmente sistemas de energía dirigida o acústicos. Más que un artefacto misterioso, el término parece funcionar como una narrativa simplificadora de un ecosistema tecnológico complejo.</p>



<p>Lo verdaderamente transformador no es la existencia de guerra electrónica, porque eso lleva décadas funcionando, sino su acoplamiento con inteligencia artificial generativa capaz de sintetizar enormes volúmenes de información, proponer hipótesis, construir escenarios alternativos y asistir en la priorización de objetivos. Cuando un modelo como Claude participa en la identificación de blancos o en la simulación de respuestas enemigas, no está «apretando el botón», pero sí está moldeando el espacio de decisión. Y ese es un poder sutil pero decisivo. </p>



<p>El discurso oficial insiste en que siempre hay <em>«human in the loop»</em>. Pero si la información llega ya filtrada, resumida y jerarquizada por un modelo entrenado sobre correlaciones estadísticas, el margen real de deliberación puede estrecharse. El riesgo no es una inteligencia artificial autónoma disparando misiles a diestro y siniestro, sino una infraestructura algorítmica que acelera el <a href="https://en.wikipedia.org/wiki/OODA_loop" target="_blank" rel="noreferrer noopener">ciclo OODA</a> (Observar–Orientar–Decidir–Actuar) hasta un punto en el que la reflexión estratégica ya se convierte en un lujo. </p>



<p>En el fondo, la gran pregunta no es si existe un arma con un nombre extravagante. La pregunta es si estamos aceptando, sin deliberación democrática alguna, que el sistema nervioso de la guerra se externalice a un ecosistema de proveedores privados, modelos opacos y plataformas de integración cuyo incentivo natural es el despliegue, la dependencia y el <em>lock-in</em>. Y, cuando eso ocurre, la línea roja no es la autonomía total del disparo: la línea roja es mucho más temprana, y mucho más silenciosa. Es el momento en que dejamos que una máquina y la empresa que la opera participen en la construcción misma de la realidad sobre la que decidimos a quién atacar y cómo. </p>



<p>Y esa, más que cualquier arma con nombre estrafalario, es la verdadera historia. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/ai-powered-wars-a-private-public-partnership-da4557eb1466?sk=05e07b8ae27c909d46eb9ec7bc66ab64" data-type="link" data-id="https://medium.com/enrique-dans/ai-powered-wars-a-private-public-partnership-da4557eb1466?sk=05e07b8ae27c909d46eb9ec7bc66ab64" target="_blank" rel="noreferrer noopener">AI-powered wars: a private public partnership</a>?» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/03/guerras-cada-vez-mas-algoritmicas.html/feed</wfw:commentRss>
			<slash:comments>15</slash:comments>
		
		
			</item>
		<item>
		<title>Trae tu propia llave: el BYOK como síntoma de que la inteligencia artificial se está comoditizando</title>
		<link>https://www.enriquedans.com/2026/03/trae-tu-propia-llave-el-byok-como-sintoma-de-que-la-inteligencia-artificial-se-esta-comoditizando.html</link>
					<comments>https://www.enriquedans.com/2026/03/trae-tu-propia-llave-el-byok-como-sintoma-de-que-la-inteligencia-artificial-se-esta-comoditizando.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Mon, 02 Mar 2026 10:11:27 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agentic]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[API]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[business model]]></category>
		<category><![CDATA[BYOK]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[security]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57371</guid>

					<description><![CDATA[Hay un detalle aparentemente menor que, cuando uno empieza a escucharlo repetirse en conversaciones de producto, foros y documentación técnica, suele estar señalando un cambio de fondo: el auge de modelos «Bring Your Own Key» (BYOK), pero en un contexto distinto al habitual y conocido de las claves de cifrado en ciberseguridad: aplicaciones que te  <a href="https://www.enriquedans.com/2026/03/trae-tu-propia-llave-el-byok-como-sintoma-de-que-la-inteligencia-artificial-se-esta-comoditizando.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/03/BYOK-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/03/BYOK-Dall·E.jpg" alt="IMAGE: A glowing golden API key card connects through digital circuits to AI model symbols, a laptop interface, and stacks of coins, symbolizing user-controlled access and token-based costs in artificial intelligence platforms " class="wp-image-57372" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/03/BYOK-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/03/BYOK-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/03/BYOK-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/03/BYOK-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hay un detalle aparentemente menor que, cuando uno empieza a escucharlo repetirse en conversaciones de producto, foros y documentación técnica, suele estar señalando un cambio de fondo: el auge de modelos <em>«Bring Your Own Key»</em> (BYOK), pero en un contexto distinto al <a href="https://www.ibm.com/think/topics/byok" target="_blank" rel="noreferrer noopener">habitual y conocido de las claves de cifrado en ciberseguridad</a>: aplicaciones que te piden que pegues tu propia clave de API del proveedor de modelos de inteligencia artificial (OpenAI, Anthropic, Gemini, etc.) para que el consumo de <em>tokens</em> se facture directamente a tu cuenta, mientras la plataforma se limita a ofrecer interfaz, flujos de trabajo, memoria, plantillas, integraciones o agentes.</p>



<p>No es una rareza marginal, ni una prueba más de que en tecnología no da igual usar constantemente los mismos acrónimos para cosas diferentes: cuando actores grandes del <em>software</em> de productividad para desarrolladores empiezan a formalizarlo, por ejemplo <a href="https://blog.jetbrains.com/ai/2025/12/bring-your-own-key-byok-is-now-live-in-jetbrains-ides/" target="_blank" rel="noreferrer noopener">JetBrains anunciando BYOK como alternativa explícita a la suscripción</a>, es porque el patrón ya no es en absoluto anecdótico. Y si <a href="https://github.blog/changelog/2025-09-11-bring-your-own-key-byok-support-for-jetbrains-ides-and-xcode-in-public-preview/" target="_blank" rel="noreferrer noopener">GitHub Copilot lo lleva a <em>«public preview»</em> en entornos como JetBrains IDEs y Xcode, con una lista de proveedores soportados</a>, es difícil sostener que estamos ante un capricho de <em>power users</em>.</p>



<p>La idea es sencilla y, precisamente por eso, poderosa: en vez de pagar una cuota fija a una aplicación <em>wrapper</em> o «envoltorio» (o asumir que ese «envoltorio» revende <em>tokens</em> con margen y con opacidad), el usuario paga el cómputo al proveedor y el producto de capa superior compite por valor añadido real. <a href="https://docs.typingmind.com/manage-and-connect-ai-models/set-up-api-keys" target="_blank" rel="noreferrer noopener">Herramientas como TypingMind documentan de forma directa el flujo</a>: introducir claves de proveedores y, si hace falta, añadir modelos o <em>endpoints</em> adicionales. En el mundo <em>open source</em>, <a href="https://www.librechat.ai/docs/configuration/pre_configured_ai/openai" target="_blank" rel="noreferrer noopener">LibreChat incluso contempla el modo <em>«user_provided»</em> para que sea el usuario quien aporte su clave</a>, lo que convierte el BYOK en un parámetro de despliegue más, no en una excentricidad. Y, como señal de que el fenómeno se está «productizando», aparecen incluso <a href="https://byoklist.com/" target="_blank" rel="noreferrer noopener">directorios centrados en herramientas BYOK</a> que funcionan como termómetro (imperfecto, pero útil) del número de productos que lo adoptan. </p>



<p>¿Cómo funciona realmente, en términos operativos? El usuario crea una clave en el proveedor del modelo, la introduce en la aplicación (en un cliente local, en una web, o en un servidor autoalojado), y la aplicación firma con esa clave las llamadas al API del proveedor. El cómputo, por tanto, se imputa a la cuenta del usuario: el proveedor ve a ese usuario como el «cliente» y factura a su método de pago. La plataforma BYOK, en ese esquema, puede cobrar una licencia única, una suscripción menor (por características, no por <em>tokens</em>), o incluso ser gratuita si vive de otra cosa (comunidad, servicios, consultoría, enterprise). En entornos más «serios», el patrón se extiende a pasarelas que almacenan claves de proveedores de forma centralizada para no tenerlas dispersas en aplicaciones y para poder rotarlas, revocarlas o limitar gasto. <a href="https://developers.cloudflare.com/ai-gateway/configuration/bring-your-own-keys/" target="_blank" rel="noreferrer noopener">Cloudflare, por ejemplo, lo formula como BYOK dentro de su AI Gateway para «guardar» claves y operar sin exponerlas en cada petición</a>. </p>



<p>Hasta aquí, suena casi inevitable: si el coste variable de la inteligencia artificial (<em>tokens</em>) es el componente dominante e impredecible, la tentación de «pasar el contador» al usuario es enorme. Pero precisamente por eso conviene mirar las implicaciones con lupa, porque BYOK no es solo un cambio de facturación: es un cambio de modelo de riesgo, de control y de incentivos. </p>



<p>La primera implicación es de seguridad básica y, paradójicamente, choca con las recomendaciones explícitas de los propios proveedores. <a href="https://help.openai.com/en/articles/5112595-best-practices-for-api-key-safety" target="_blank" rel="noreferrer noopener">OpenAI insiste en que no se comparta su clave y, sobre todo, en que no se despliegue en entornos cliente (navegador o móvil)</a>, porque exponerla facilita abuso y cargos inesperados. Anthropic va en la misma línea: advierte que <a href="https://support.claude.com/en/articles/9767949-api-key-best-practices-keeping-your-keys-safe-and-secure" target="_blank" rel="noreferrer noopener">introducir su clave en herramientas de terceros equivale, en la práctica, a dar acceso a tu cuenta al desarrollador de esa herramienta</a>, y advierte que no lo hagas si no confías plenamente en su reputación y en su implementación. Dicho sin dramatismos, BYOK convierte la clave en una especie de tarjeta de crédito técnica, y hay productos que te piden que la pegues en un formulario web. A partir de ahí, todo depende de cuánto confíes en ese tercero, de si el almacenamiento es local o remoto, de si hay cifrado real, de si existe exfiltración posible (intencionada o por vulnerabilidad), y de si tienes límites de gasto bien configurados. El «te sale más barato» puede convertirse en «te han vaciado la cuenta» con una facilidad que muchos usuarios todavía no internalizan. </p>



<p>La segunda implicación es de privacidad y trazabilidad. En un esquema BYOK, la telemetría del uso se reparte: el proveedor del modelo tiene el detalle de llamadas y consumo (porque factura), la plataforma BYOK tiene el contexto de interacción (porque orquesta <em>prompts</em>, memoria, documentos, agentes…), y el usuario rara vez tiene una visión completa de ambos lados. JetBrains promete almacenar las claves localmente y no compartirlas con la empresa, una postura que, si se cumple, reduce superficie de riesgo y refuerza el argumento BYOK como «control» del usuario. Pero obviamente, eso no convierte mágicamente a todos los BYOK en equivalentes: algunos son clientes locales, otros son SaaS, y la diferencia es existencial. BYOK no es una garantía: es una etiqueta. </p>



<p>La tercera implicación es de mercado: BYOK acelera la comoditización del modelo y desplaza la competencia hacia la capa de producto. Si el usuario puede elegir proveedor y modelo a voluntad, y si el coste se ve de forma transparente en su panel del proveedor, la aplicación deja de poder esconder márgenes, cuotas implícitas o supuestos <em>«fair uses»</em> nebulosos. GitHub lo enmarca como flexibilidad, experimentación y control. En la práctica, también es una forma de admitir que el valor no está en «tener un modelo», sino en integrarlo bien en flujos de trabajo, en ofrecer una usabilidad superior, en construir agentes útiles y en resolver problemas concretos. Para muchas <em>startups</em>, eso es una buena noticia: pueden dejar de quemar caja subvencionando <em>tokens</em> y centrarse en producto. Para otras, es una sentencia: si tu propuesta era ser uno más de esos <em>thin wrappers</em> en modo «ChatGPT pero con otra interfaz», BYOK te deja sin coartada.</p>



<p>La cuarta implicación es de gobernanza del gasto: BYOK suena a «pago por uso» eficiente, pero el pago por uso es una trampa psicológica cuando el uso se vuelve compulsivo o cuando el producto incentiva cadenas de agentes que generan más <em>tokens</em> de los que el usuario cree estar consumiendo. BYOK traslada al usuario una tarea que antes asumía la plataforma: diseñar límites, alertas, claves separadas por propósito, rotación, y una disciplina mínima de higiene operacional. Los proveedores, de hecho, recomiendan separar claves y monitorizar uso precisamente para reducir el impacto de fugas o abusos. El problema, claro, es que gran parte del mercado no está acostumbrado a gestionar «contadores» de este tipo: ven una clave como un simple requisito, no como un activo crítico. </p>



<p>Y la quinta implicación, quizá la más interesante, es cultural: BYOK es un síntoma de que la inteligencia artificial se está pareciendo cada vez más a una <em>utility</em>. Cuando un recurso pasa a tener un coste medible por unidad y un acceso estandarizado por API, lo normal es que surjan intermediarios que compiten por empaquetarlo, optimizarlo, enrutarlo, gestionarlo y hacerlo utilizable. Cloudflare lo aborda desde la infraestructura y la administración de claves, JetBrains y GitHub lo hacen desde el puesto de trabajo del desarrollador, y en paralelo, el ecosistema se llena de <em>«frontends»</em> que viven de que el usuario pague el cómputo en otro sitio. Es difícil imaginar una señal más clara de que el valor se está desplazando: del modelo al sistema que lo gobierna, lo integra y lo domestica. </p>



<p>¿Es esto bueno o malo? Como casi siempre, respuesta a la gallega: depende&#8230; pero no es neutral. El BYOK puede ser una fuerza interesante contra la opacidad de precios y contra el «todo incluido» que termina castigando al usuario medio con cuotas infladas para cubrir a los <em>heavy users</em>. También puede ser un mecanismo de externalización de riesgos, donde plataformas livianas se desentienden de facturación, soporte por consumo, fraude y abuso, y convierten al usuario en su propio departamento de finanzas y seguridad. Y puede, sobre todo, reforzar una asimetría: quienes entienden cómo funcionan las claves, los límites y la arquitectura pueden ahorrar y ganar control, pero quienes no, se exponen.</p>



<p>Si el BYOK sigue extendiéndose, y las señales en herramientas de desarrollo e infraestructura apuntan a que sí, veremos dos movimientos paralelos. Por un lado, productos que se vuelven realmente valiosos porque se ganan su precio por lo que aportan, no por lo que «revenden» como simples envoltorios. Por otro, una inevitable oleada de incidentes, filtraciones y sustos de facturación que obligará a endurecer patrones de diseño: más almacenamiento local, más autoalojado, más pasarelas con límites, más «principio de mínimo privilegio» aplicado a claves, y más educación del usuario. Que los propios proveedores insistan en «no compartas tu clave» mientras el mercado empuja a los usuarios a «pegar tu clave aquí» es una tensión que no va a resolverse con marketing, sino con ingeniería y con incentivos. </p>



<p>Tal vez el BYOK sea solo una fase transitoria: un puente entre el modelo «suscripción plana» y un futuro donde la inteligencia artificial esté ya tan embebida, que el coste se diluya en otros servicios. O quizá sea lo contrario: la forma estable de un mercado donde el cómputo se compra como si fuera electricidad y el valor está en los aparatos, no en la red. En cualquier caso, cuando te pidan tu clave, conviene recordar qué estás entregando realmente: no una preferencia, sino una palanca directa sobre tu gasto y, en muchos casos, sobre tu dato. Y eso, en tiempos de agentes autónomos y <em>prompts</em> cada vez más largos, no es un detalle menor. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/byok-the-subtle-shift-that-could-reshape-how-we-pay-for-ai-9e165d9e63cd?sk=8c22facc343d69af5f3e54052a968e85" data-type="link" data-id="https://medium.com/enrique-dans/byok-the-subtle-shift-that-could-reshape-how-we-pay-for-ai-9e165d9e63cd?sk=8c22facc343d69af5f3e54052a968e85" target="_blank" rel="noreferrer noopener">BYOK: the subtle shift that could reshape how we pay for AI</a>» </em></p>



<p></p>



<p><br /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/03/trae-tu-propia-llave-el-byok-como-sintoma-de-que-la-inteligencia-artificial-se-esta-comoditizando.html/feed</wfw:commentRss>
			<slash:comments>9</slash:comments>
		
		
			</item>
		<item>
		<title>Cuando copiar es racional: lo que la inteligencia artificial deja al descubierto en la educación</title>
		<link>https://www.enriquedans.com/2026/03/cuando-copiar-es-racional-lo-que-la-inteligencia-artificial-deja-al-descubierto-en-la-educacion.html</link>
					<comments>https://www.enriquedans.com/2026/03/cuando-copiar-es-racional-lo-que-la-inteligencia-artificial-deja-al-descubierto-en-la-educacion.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sun, 01 Mar 2026 11:05:34 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[academic]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[chatbots]]></category>
		<category><![CDATA[cheating]]></category>
		<category><![CDATA[education]]></category>
		<category><![CDATA[grades]]></category>
		<category><![CDATA[homework]]></category>
		<category><![CDATA[learning]]></category>
		<category><![CDATA[metrics]]></category>
		<category><![CDATA[school]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57365</guid>

					<description><![CDATA[En los últimos días se ha vuelto a encender la alarma: adolescentes que perciben que el uso de chatbots para copiar en trabajos y ejercicios es lo habitual en su instituto. El dato, tomado como titular, suena a una especie de apocalipsis moral y tecnológico de esos a los que estamos tan acostumbrados y que  <a href="https://www.enriquedans.com/2026/03/cuando-copiar-es-racional-lo-que-la-inteligencia-artificial-deja-al-descubierto-en-la-educacion.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/02/Chatbots-and-education-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/02/Chatbots-and-education-Dall·E.jpg" alt="IMAGE: A teenage student sits at a desk in a dimly lit classroom, writing in a notebook while looking at a smartphone, as a glowing humanoid robot stands beside him and digital screens display data and the word “cheating” under a magnifying glass, symbolizing the tension between artificial intelligence, learning, and academic integrity " class="wp-image-57366" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/02/Chatbots-and-education-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/02/Chatbots-and-education-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/02/Chatbots-and-education-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/02/Chatbots-and-education-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>En los últimos días se ha vuelto a encender la alarma: <a href="https://www.pewresearch.org/internet/2026/02/24/how-teens-use-and-view-ai/" target="_blank" rel="noreferrer noopener">adolescentes que perciben que el uso de <em>chatbots</em> para copiar en trabajos y ejercicios es lo habitual en su instituto</a>. El dato, tomado como titular, suena a una especie de apocalipsis moral y tecnológico de esos a los que estamos tan acostumbrados y que gustan tanto a algunos. </p>



<p>Pero si uno se toma la molestia de leer el estudio en su fuente original, lo que aparece no es tanto un retrato inquietante de la inteligencia artificial o de «los jóvenes de hoy», sino un espejo bastante incómodo del sistema educativo: uno en el que demasiadas tareas se han diseñado para ser completadas como quien rellena un formulario burocrático, no para ser comprendidas o para enseñar nada, y en el que la evaluación sigue premiando el resultado visible y el haber «completado la lista de puntos» mucho antes que el aprendizaje real. </p>



<p>El <a href="https://www.pewresearch.org/internet/2026/02/24/demographic-differences-in-how-teens-use-and-view-ai/" target="_blank" rel="noreferrer noopener">informe de Pew Research Center</a> es claro en una cosa: los <em>chatbots</em> están ya completamente integrados en el día a día escolar. Un 64% de los adolescentes dice haber usado <em>chatbots</em>, y el uso para «ayuda con el trabajo escolar» aparece en la parte alta de la lista (54%). También es relevante que la percepción de «hacer trampas» sea más alta entre quienes ya han usado <em>chatbots</em> para tareas escolares: cuando se normaliza la herramienta, se normaliza también la conversación y el cinismo sobre sus usos. El problema es confundir «hay herramienta» con «hay decadencia»: la herramienta solo hace más visible una tensión muy, muy antigua. Un desajuste en el objetivo del aprendizaje que viene desde el A.G. (el Antes de Google), o posiblemente de mucho antes.  </p>



<p>Porque la trampa, conviene recordarlo, no la inventó nadie en Silicon Valley. Hay evidencia de que las cifras globales de conductas de copia y plagio pueden no haberse disparado especialmente con la llegada de ChatGPT: lo que cambia es el método, la facilidad y, sobre todo, la detectabilidad. Ese matiz es fundamental: cuando una práctica era ya estructural, la innovación no crea el fenómeno, solo lo abarata y lo democratiza. Un artículo lo resume bien: <a href="https://www.vox.com/technology/458875/ai-cheating-data-education-panic" target="_blank" rel="noreferrer noopener">la inteligencia artificial está alterando la forma, no necesariamente la cantidad, y la «angustia generacional» nos está llevando a buscar culpables simples</a>.</p>



<p>El relato moralista suele fallar: poner el foco en «los adolescentes tramposos» es cómodo, porque evita la pregunta difícil. ¿Qué tipo de tareas estamos asignando cuando una parte significativa del alumnado percibe que «usar un <em>chatbot</em>» es una vía razonable para sobrevivir académicamente? ¿Cuánto de ese trabajo es realmente pensamiento, y cuánto es burocracia escolar, relleno, repetición, o simple demostración de que has «hecho algo»? Cuando el sistema mide con obsesión la entrega, el alumno optimiza la entrega. Es lo racional, literalmente. </p>



<p>Además, la frontera entre «ayuda» y «trampa» es cada vez más borrosa, y no por culpa de los estudiantes. Si un <em>chatbot</em> te ayuda a entender bien un concepto porque te lo explica de maneras diferentes o más adaptadas a tu aprendizaje, a practicar ejercicios cuando quieras, a comprobar y entender un resultado de un examen o a mejorar la claridad de un texto, ¿estamos ante un aprendizaje asistido o ante una sustitución del esfuerzo? ¿Por qué tiene que ser necesariamente malo? Incluso entre docentes no hay consenso, y esa inconsistencia genera el caldo de cultivo perfecto: reglas confusas, sanciones arbitrarias, y una desconfianza que se come la relación educativa. La discusión sobre definiciones y la necesidad de consistencia aparece con fuerza en <a href="https://kappanonline.org/cheating-the-ai-elephant-in-the-classroom/" data-type="link" data-id="https://kappanonline.org/cheating-the-ai-elephant-in-the-classroom/" target="_blank" rel="noreferrer noopener">trabajos recientes centrados en integridad académica en la era de la inteligencia artificial</a>.</p>



<p>La reacción típica de muchas instituciones ha sido correr hacia la vigilancia: <a href="https://www.enriquedans.com/2025/10/evaluar-con-inteligencia-y-no-con-detectores.html" target="_blank" rel="noreferrer noopener">detectores de inteligencia artificial, políticas punitivas, «caza de brujas» algorítmica</a>. Y eso abre otra grieta: la equidad. Si los detectores se equivocan, ¿a quién castigan primero? Hay investigación que alerta de errores enormemente habituales y de <a href="https://www.cell.com/patterns/fulltext/S2666-3899(23)00130-7" target="_blank" rel="noreferrer noopener">sesgos contra escritores no nativos en inglés en herramientas de detección</a>, un riesgo que, traducido a aulas diversas, se convierte en un problema serio de justicia educativa. Si paso una de esas herramientas a mis artículos, me dice que algunos de ellos están escritos por un <em>chatbot</em>&#8230; ¿a quién protesto cuando sé positivamente que no es así y que han salido de mi cerebro, de mis manos y de mi teclado? Como para fiarse&#8230; </p>



<p>Mientras tanto, los grandes organismos que miran el sistema con perspectiva dicen algo bastante sensato: no se trata de prohibir por defecto o por reflejo, sino de rediseñar. <a href="https://unesco.org.uk/site/assets/files/10375/guidance_for_generative_ai_in_education_and_research.pdf" target="_blank" rel="noreferrer noopener">UNESCO, en su guía sobre inteligencia artificial generativa en educación e investigación</a>, insiste en que hay un vacío regulatorio y una falta de preparación institucional, y que la respuesta debe ser humana, pedagógica y de capacidad: políticas, competencias, y marcos de uso responsables. La OCDE, en su <a href="https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_062a7394-en.html" target="_blank" rel="noreferrer noopener">Digital Education Outlook 2026</a>, va en una línea parecida: la inteligencia artificial generativa se está usando «fuera del control institucional» por su accesibilidad y versatilidad, y el reto es crear principios docentes claros para que el efecto sea apoyo al aprendizaje y no atajo permanente. </p>



<p>Y aquí llegamos al centro del tema: si un <em>chatbot</em> puede completar con solvencia una tarea, quizá la pregunta no sea «¿cómo lo impido?», sino «¿qué estoy evaluando exactamente? Si evalúo memoria a corto plazo, la inteligencia artificial la pulveriza. Si evalúo síntesis superficial, también. Si evalúo producción textual estándar, igual. La inteligencia artificial está forzando, por fin, una conversación que llevamos décadas evitando: la necesidad de movernos hacia evaluaciones auténticas, procesos, trabajos, defensa oral, proyectos iterativos, trabajo con fuentes, reflexión sobre decisiones, y contextos donde el alumno tenga que mostrar criterio, no sólo un simple <em>output</em>. El problema no es que el alumno «use» una herramienta, sino que el sistema siga fingiendo que aprender es entregar un producto final sin ninguna trazabilidad. </p>



<p>Los datos también apuntan a otra realidad incómoda: la política y la formación van por detrás del uso. RAND, en un informe reciente, describe precisamente ese desfase: <a href="https://www.rand.org/pubs/research_reports/RRA4180-1.html" target="_blank" rel="noreferrer noopener">adopción creciente entre estudiantes y educadores, mientras las guías, el entrenamiento y las políticas se van quedando atrás</a>. Cuando una tecnología entra masivamente y la institución responde tarde y mal, no es sorprendente que el uso derive en zonas grises, oportunismo o directamente trampa. </p>



<p>La tentación de culpar a la inteligencia artificial es grande porque parece un enemigo externo. Pero el enemigo, si queremos llamarlo así, es la inercia de un modelo educativo que confunde obediencia con aprendizaje, y que convierte el tiempo del alumno en un recurso a consumir, no en una experiencia a construir. Cero personalización, educación en cadena, en serie, con desprecio absoluto a la individualidad (es más, se tiende a tratar de machacarla, a «normalizar»). La inteligencia artificial, como antes la calculadora o internet, nos obliga a decidir qué habilidades tienen valor humano: formular buenas preguntas, verificar, argumentar, conectar ideas, saber preguntar, crear, colaborar, y entender límites y sesgos de las herramientas. Si seguimos evaluando como si el mundo fuese analógico, el alumnado seguirá comportándose como si el sistema fuese un juego al que hay que ganar. Si las notas son la única métrica, deberíamos saber que <a href="https://en.wikipedia.org/wiki/Goodhart%27s_law" target="_blank" rel="noreferrer noopener">cuando una métrica se convierte en objetivo, deja de ser una buena métrica</a>.</p>



<p>Y sí, por supuesto, habrá quien use <em>chatbots</em> para «hacerlo todo». Pero incluso eso, más que un defecto moral de una generación, es un síntoma: presión, sobrecarga, falta de sentido, tareas irrelevantes, y una cultura de calificaciones que premia la apariencia. <a href="https://www.nytimes.com/2026/02/24/technology/schoolwork-chatbot-cheating-pew.html" target="_blank" rel="noreferrer noopener">El estudio de Pew ofrece números, pero nuestra obligación es leerlos como diagnóstico del sistema</a>. Quizá el verdadero escándalo no sea que los adolescentes usen inteligencia artificial para hacer sus tareas, sino que el sistema educativo siga empeñado en evaluar como si la inteligencia, natural o artificial, no hubiese cambiado para siempre. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/if-ai-can-pass-the-assignment-what-are-we-really-testing-0da7dc7aeacd?sk=bf75f34818e04784b03b36ddeafcb4a4" target="_blank" rel="noreferrer noopener">If AI can pass the assignment, what are we really testing</a>?» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/03/cuando-copiar-es-racional-lo-que-la-inteligencia-artificial-deja-al-descubierto-en-la-educacion.html/feed</wfw:commentRss>
			<slash:comments>8</slash:comments>
		
		
			</item>
		<item>
		<title>La inteligencia artificial ya no «ayuda»: ahora empieza a despedir</title>
		<link>https://www.enriquedans.com/2026/02/la-inteligencia-artificial-ya-no-ayuda-ahora-empieza-a-despedir.html</link>
					<comments>https://www.enriquedans.com/2026/02/la-inteligencia-artificial-ya-no-ayuda-ahora-empieza-a-despedir.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 28 Feb 2026 09:50:07 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[employment]]></category>
		<category><![CDATA[Jack Dorsey]]></category>
		<category><![CDATA[job market]]></category>
		<category><![CDATA[jobs]]></category>
		<category><![CDATA[work]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57357</guid>

					<description><![CDATA[A veces la historia se acelera con un gesto casi teatral, de esos que condensan en un titular lo que venía cocinándose lentamente. Jack Dorsey acaba de anunciar que Block recorta más de 4,000 puestos de trabajo, cerca del 40% de su plantilla, para convertirse, según él, en una compañía «más pequeña», «más rápida» y  <a href="https://www.enriquedans.com/2026/02/la-inteligencia-artificial-ya-no-ayuda-ahora-empieza-a-despedir.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/02/Fired-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/02/Fired-Dall·E.jpg" alt="IMAGE: A humanoid robot with glowing blue eyes hands a pink termination letter to an office worker while anxious employees pack their belongings in the background of a dimly lit corporate office " class="wp-image-57358" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/02/Fired-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/02/Fired-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/02/Fired-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/02/Fired-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>A veces la historia se acelera con un gesto casi teatral, de esos que condensan en un titular lo que venía cocinándose lentamente. <a href="https://techcrunch.com/2026/02/26/jack-dorsey-block-layoffs-4000-halved-employees-your-company-is-next/" target="_blank" rel="noreferrer noopener">Jack Dorsey acaba de anunciar que Block recorta más de 4,000 puestos de trabajo, cerca del 40% de su plantilla</a>, para convertirse, según él, en una compañía «más pequeña», «más rápida» y «nativa» en herramientas de inteligencia. Y, por si faltaba dramatismo, deja caer que la mayoría de empresas llegarán a la misma conclusión en menos de un año. No es solo el número: es la normalización explícita de la idea de que la IA no es un complemento, sino una sustitución organizada. </p>



<p>Lo más revelador, en cualquier caso, no es lo que dice Dorsey, sino cómo reacciona el mercado: la acción se dispara en el <em>aftermarket</em> con un entusiasmo casi obsceno. La lectura es transparente: «menos gente» equivale a «más margen». Y ese reflejo, el de <a href="https://apnews.com/article/block-dorsey-layoffs-ai-jobs-18e00a0b278977b0a87893f55e3db7bb" target="_blank" rel="noreferrer noopener">premiar la reducción de empleo como si fuera una mejora de producto</a>, convierte el debate sobre la inteligencia artificial en algo bastante más incómodo que la típica discusión sobre productividad. Cuando los incentivos financieros se alinean con despedir, la tecnología deja de ser promesa y se vuelve doctrina. </p>



<p>Podría argumentarse que Block estaba sobredimensionada, que Dorsey siempre ha tenido un estilo de gestión digamos que&#8230; «idiosincrático», y que la inteligencia artificial puede servir de coartada elegante para una reestructuración que, de otro modo, olería a simple tijeretazo. Pero incluso si aceptamos esa interpretación benévola, el daño ya está hecho: el mensaje que queda es que <a href="https://www.theverge.com/tech/885710/jack-dorsey-block-layoffs-job-cuts-ai" target="_blank" rel="noreferrer noopener">un CEO puede señalar a la inteligencia artificial como motor del recorte y, además, ser recompensado por ello</a>. Ese precedente es pura gasolina para el miedo de millones de trabajadores de cuello blanco que, hasta hace nada, se sentían relativamente a salvo.</p>



<p>Porque el miedo, aquí, no es irracional. Durante años, la automatización se vendió como algo que iba a «afectar sobre todo a tareas repetitivas», con una insinuación implícita: lo que va a caer es lo manual, lo rutinario, lo de menor cualificación. La generación de inteligencia artificial actual rompe esa narrativa: por primera vez, lo escalable no es el brazo, sino el texto. No es la fuerza, sino la oficina. El «trabajo de teclado», desde informes a análisis, presentaciones, revisión legal, atención al cliente, marketing, recursos humanos, etc. resulta alarmantemente compatible con lo que los modelos generativos saben hacer. Y en esa compatibilidad hay un cambio cultural profundo: muchas empresas ya no están pensando en cómo usar inteligencia artificial para que sus empleados hagan más, sino en cuántos empleados pueden dejar de necesitar. </p>



<p>Harvard Business Review lo formulaba con una claridad inquietante: <a href="https://hbr.org/2026/01/companies-are-laying-off-workers-because-of-ais-potential-not-its-performance" target="_blank" rel="noreferrer noopener">parte de los despidos atribuidos a la llegada de la inteligencia artificial no responden tanto a resultados demostrados como a expectativas, a la «potencialidad» percibida</a>. Es decir, se despide hoy por una promesa de mañana. Y eso tiene un efecto dominó: congelación de contratación, especialmente en perfiles <em>junior</em>, y sustitución de trayectorias de aprendizaje por automatización prematura. La oficina se vuelve un lugar en el que <a href="https://www.enriquedans.com/2026/02/cuando-la-inteligencia-artificial-deja-de-ser-una-opcion-el-nuevo-contrato-laboral-y-academico-ya-esta-aqui.html" target="_blank" rel="noreferrer noopener">se exige «ser más productivo con IA»</a>… hasta que esa productividad justifica que sobren personas. </p>



<p>El FMI, en un texto reciente, ponía el foco precisamente en ese punto ciego: los empleos de entrada son más expuestos y ya hay evidencia emergente (en los Estados Unidos) de que <a href="https://www.imf.org/en/blogs/articles/2026/01/14/new-skills-and-ai-are-reshaping-the-future-of-work" target="_blank" rel="noreferrer noopener">la adopción de inteligencia artificial generativa reduce la contratación <em>entry-level</em> cuando las tareas son automatizables</a>. Lo preocupante no es solo el empleo que se destruye, sino la escalera que se retira: si desaparecen los peldaños de abajo, ¿cómo se construye experiencia? ¿Cómo se forma criterio profesional si el trabajo inicial, el que te enseña «cómo funciona de verdad», se lo queda un modelo? </p>



<p>Y luego está el elefante estadístico en la habitación: los organismos internacionales llevan tiempo advirtiendo que los perfiles «más cognitivos» (directivos, profesionales de negocio, ingeniería, ciencia, etc.) están entre los más expuestos a avances en inteligencia artificial. <a href="https://www.oecd.org/en/publications/oecd-employment-outlook-2023_08785bba-en/full-report/artificial-intelligence-and-jobs-no-signs-of-slowing-labour-demand-yet_5aebe670.html" target="_blank" rel="noreferrer noopener">La OCDE lo señalaba ya antes del gran salto de la inteligencia artificial generativa, con una advertencia adicional</a>: la exposición probablemente crezca y se extienda a medida que estas herramientas se integren en los procesos productivos. Traducido: si hoy te parece que «esto va de redactores y de personal de atención al cliente», es que todavía no has visto el siguiente capítulo. </p>



<p>La OIT, afinando sus métricas con datos a nivel de tareas, es aún más explícita: <a href="https://www.ilo.org/publications/generative-ai-and-jobs-refined-global-index-occupational-exposure" target="_blank" rel="noreferrer noopener">una de cada cuatro personas trabajadoras está en ocupaciones con algún grado de exposición a la inteligencia artificial generativa</a>: las ocupaciones administrativas aparecen como las más expuestas, y además, el impacto es marcadamente desigual por género y por nivel de renta del país. Es decir, no es solo una cuestión de «futuro del trabajo», sino de distribución de daño y de poder. Y aunque la OIT insiste, con razón, en que lo más probable es una transformación de tareas más que una eliminación directa de empleos, el matiz importa poco cuando los incentivos empresariales empujan a convertir la «transformación» en «reducción».</p>



<p>A todo esto se le suma el discurso macro, casi tranquilizador, de los grandes informes: <a href="https://www.weforum.org/press/2025/01/future-of-jobs-report-2025-78-million-new-job-opportunities-by-2030-but-urgent-upskilling-needed-to-prepare-workforces/" target="_blank" rel="noreferrer noopener">el World Economic Forum habla de millones de empleos desplazados y millones de nuevos roles creados, con saldo neto positivo</a>. Perfecto… salvo por un detalle: los «nuevos roles» no aparecen mágicamente en los mismos lugares, con los mismos salarios, ni para las mismas personas. El problema no es si habrá trabajo en términos agregados, sino quién paga el coste de la transición y quién captura el beneficio de la productividad. Si la inteligencia artificial sirve sobre todo para recortar nóminas, el relato de «progreso» se convierte en un problema de legitimidad social, y con razón. </p>



<p>La parte <em>«scary»</em> es que este miedo se está extendiendo precisamente donde antes había seguridad psicológica: la oficina, la carrera profesional, el ascenso por mérito, la especialización. El trabajador de cuello blanco empieza a descubrir que su valor no era «ser inteligente», sino ser escaso; y que, si la inteligencia se empaqueta, se tarifa y se escala, la escasez cambia de sitio. De pronto, la negociación salarial se parece menos a «lo que aportas» y más a «lo que cuesta automatizarte». Y cuando una empresa anuncia sin rubor que un equipo «significativamente más pequeño» puede hacer «más y mejor» gracias a sus herramientas, el mensaje que reciben miles de profesionales es simple: tu sustituto ya no es otro candidato; es un modelo. </p>



<p>El siguiente paso es casi inevitable: si esto ocurre en el mundo «digital», se extenderá al mundo físico en cuanto la robótica deje de ser una promesa cara y se convierta en una <em>commodity</em>. Hoy la inteligencia artificial muerde primero al trabajo de oficina porque es más fácil: el <em>input</em> y el <em>output</em> son datos y textos. Mañana, cuando robots relativamente baratos puedan ejecutar tareas con suficiente fiabilidad en logística, hostelería, cuidados o industria ligera, el contagio al <em>«blue collar»</em> será cuestión de despliegue, no de posibilidad. La diferencia es que, en el trabajo manual, el ritmo lo marca el <em>hardware</em>, mientras que en el trabajo cognitivo, lo marca el <em>software</em>. Y el <em>software</em> no tiene paciencia. </p>



<p>La pregunta importante ya no es si «la inteligencia artificial destruirá empleos», sino qué hacemos cuando se convierte en el argumento socialmente aceptable para despedir y en el mecanismo financieramente premiado para hacerlo. Si de verdad queremos que la inteligencia artificial sea una herramienta de prosperidad compartida, hay que alinear incentivos: participación de los trabajadores en los aumentos de productividad, negociación colectiva adaptada a la automatización, transparencia sobre qué se automatiza y por qué, y políticas públicas que no se limiten a repetir <em>«reskilling»</em> como un mantra, sino que asuman el problema de poder que hay detrás. La alternativa es sencilla de imaginar: una economía en la que la inteligencia artificial abarata el trabajo&#8230; eliminando al trabajador.</p>



<p>Y hay una última ironía que no deberíamos pasar por alto: si la promesa es que la inteligencia artificial impulsa demanda, eficiencia y crecimiento, ¿quién va a pagar esa fiesta cuando el «modelo», para ganar eficiencia, sea despedir a una parte creciente de quienes consumen? La inteligencia artificial como motor económico tiene un límite evidente si se convierte, antes que nada, en una máquina de recortar salarios. Y ese límite no es tecnológico: es social. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/turns-out-keeping-your-job-from-ai-isnt-about-being-smart-it-s-about-being-scarce-6c352d0db93b?sk=350489c947824b70e9fbbf9307b80d16" target="_blank" rel="noreferrer noopener">Turns out keeping your job from AI isn’t about being smart. It’s about being scarce</a>«</em>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/02/la-inteligencia-artificial-ya-no-ayuda-ahora-empieza-a-despedir.html/feed</wfw:commentRss>
			<slash:comments>34</slash:comments>
		
		
			</item>
		<item>
		<title>Cuando la inteligencia artificial deja de ser «una opción»: el nuevo contrato laboral (y académico) ya está aquí</title>
		<link>https://www.enriquedans.com/2026/02/cuando-la-inteligencia-artificial-deja-de-ser-una-opcion-el-nuevo-contrato-laboral-y-academico-ya-esta-aqui.html</link>
					<comments>https://www.enriquedans.com/2026/02/cuando-la-inteligencia-artificial-deja-de-ser-una-opcion-el-nuevo-contrato-laboral-y-academico-ya-esta-aqui.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 27 Feb 2026 09:31:33 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[academic]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Big Tech]]></category>
		<category><![CDATA[education]]></category>
		<category><![CDATA[IE University]]></category>
		<category><![CDATA[learning]]></category>
		<category><![CDATA[technology]]></category>
		<category><![CDATA[technology adoption]]></category>
		<category><![CDATA[technology diffusion]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57352</guid>

					<description><![CDATA[Durante un tiempo, la conversación sobre inteligencia artificial en las organizaciones se mantuvo en esa zona cómoda de los verbos aspiracionales: «animar», «explorar», «experimentar», «probar». Pero esa fase se está agotando. Un artículo en el Wall Street Journal, «Tech firms aren’t just encouraging their workers to use AI. They’re enforcing it«, lo describe claramente y  <a href="https://www.enriquedans.com/2026/02/cuando-la-inteligencia-artificial-deja-de-ser-una-opcion-el-nuevo-contrato-laboral-y-academico-ya-esta-aqui.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/02/AI-in-class-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/02/AI-in-class-Dall·E.jpg" alt="IMAGE: A hyper-realistic scene of a professor in a modern classroom interacting with a luminous AI hologram while students observe, symbolizing the integration of artificial intelligence into everyday academic life " class="wp-image-57353" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/02/AI-in-class-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/02/AI-in-class-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/02/AI-in-class-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/02/AI-in-class-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante un tiempo, la conversación sobre inteligencia artificial en las organizaciones se mantuvo en esa zona cómoda de los verbos aspiracionales: «animar», «explorar», «experimentar», «probar». Pero esa fase se está agotando. Un artículo en el Wall Street Journal, <em>«<a href="https://www.wsj.com/tech/ai/tech-firms-arent-just-encouraging-their-workers-to-use-ai-theyre-enforcing-it-d43ebf84" target="_blank" rel="noreferrer noopener">Tech firms aren’t just encouraging their workers to use AI. They’re enforcing it</a>«</em>, lo describe claramente y sin eufemismos: en muchas tecnológicas, usar inteligencia artificial ya no es un extra simpático ni una habilidad diferencial, sino un requisito monitorizable, evaluable y, en la práctica, exigible. Se puntúa la «competencia en inteligencia artificial», se convierte en variable de desempeño, se observa en paneles, se integra en promociones y se filtra en la contratación. La inteligencia artificial no es una herramienta: es una norma cultural que, cuando madura, se convierte en política. </p>



<p>Lo interesante no es que esto ocurra en <em>startups</em> con obsesión por la productividad, donde un CEO puede declarar sin rubor que usa «zanahorias y palos» y asigna una puntuación de 1 a 5 a cada empleado en función de cómo utiliza inteligencia artificial, premiando incluso con incentivos económicos a quien diseñe el mejor proceso <em>«AI-driven»</em>. Lo verdaderamente relevante es que las grandes también están cruzando esa frontera: Amazon Web Services con paneles de uso para ingeniería, Google incorporando el uso de IA a algunas evaluaciones, Meta cuantificando código escrito con ayuda de inteligencia artificial, Microsoft pidiendo que se justifique y se cuantifique cómo se usa, Salesforce midiendo «adopción» y asumiendo que quien no usa inteligencia artificial probablemente está «rindiendo por debajo de sus posibilidades». </p>



<p>Cuando una organización invierte muchísimo en construir herramientas de inteligencia artificial (o en comprarlas y desplegarlas), la adopción deja de ser un <em>«nice to have»</em> y pasa a ser el modo de demostrar retorno. En el propio artículo se explica el mecanismo con una claridad inquietante: llega un punto de inflexión, «hay ya suficientes personas que usan una herramienta, y llega el mandato de usarla», y de pronto hasta procesos internos como solicitar las vacaciones se canalizan obligatoriamente a través de un agente de inteligencia artificial. Y entonces aparece la frase que debería encender todas las alarmas, o como mínimo, obligarnos a pensar: «probablemente no sobrevivirán a largo plazo», hablando de quienes se resisten. </p>



<p>Y si esta es la nueva normalidad en la empresa, en la universidad no debería sorprendernos que apareciese un fenómeno paralelo. Porque la universidad, aunque a veces pretenda vivir en una cápsula de excepcionalidad, no está al margen de las tecnologías de propósito general: las absorbe, las discute, las regula… y, finalmente, las institucionaliza. En <a href="https://www.ie.edu/university/" target="_blank" rel="noreferrer noopener">IE University</a>, esa institucionalización no se está produciendo de manera clandestina ni vergonzante, sino explícita y con voluntad de gobernanza. El <a href="https://docs.ie.edu/IE-University-Statement-on-AI.pdf" target="_blank" rel="noreferrer noopener"><em>Institutional Statement on Artificial Intelligence</em></a> lo plantea como parte del ADN de la institución y como una oportunidad para mejorar pedagogía y productividad, insistiendo además en el papel de la mediación humana, del pensamiento crítico y de un enfoque humanista de la innovación. Y, lo más importante para lo que estamos discutiendo aquí: deja claro que hay equipos académicos y pedagógicos adaptando programas y metodologías, diseñando contenidos y materiales, y desarrollando programas específicos para estudiantes, profesores y <em>staff</em>. </p>



<p>Eso tiene consecuencias prácticas, y no pequeñas. En IE University, los profesores no solo «podemos» usar inteligencia artificial: se espera que la usemos, se nos forma para ello, y la cartera de herramientas se amplía y se perfecciona de manera continua. No como moda, sino como infraestructura. Y se hace, además, con una condición que cambia por completo el debate: transparencia radical. No se trata de «ocultar» que se ha usado IA, ni de «disfrazarla» de producción humana, ni de convertirla en un atajo vergonzante. Se trata de decirlo, explicarlo, y trabajar con ello delante de los estudiantes. Porque cuando el uso es transparente y evoluciona desde el muy primario «lo pregunto, lo copio y lo pego» a modelos más razonables y de más valor añadido, el foco se desplaza: ya no discutimos si «se ha hecho trampa», sino si el diseño de la actividad, el criterio y la evaluación están bien construidos. </p>



<p>Aquí entra la parte que más me interesa: <a href="https://www.fastcompany.com/91493931/why-focusing-on-cost-cutting-during-the-ai-revolution-is-a-strategic-mistake" target="_blank" rel="noreferrer noopener">el resultado no se mide solo por «ahorrar tiempo» (esa promesa fácil, y a menudo decepcionante), sino por calidad supervisada</a>. La inteligencia artificial funciona bien cuando está insertada en procesos con control, revisión, trazabilidad y mejora continua, no cuando se tira sobre una mesa como si fuera una calculadora mágica. Precisamente por eso, el manifiesto de IE University insiste en <a href="https://www.ie.edu/university/news-events/news/ai-a-once-in-a-century-opportunity-to-transform-education-innovation-and-research-according-to-ie-university-manifesto/?utm_source=chatgpt.com" target="_blank" rel="noreferrer noopener">la necesidad de un enfoque ético, de políticas académicas para el uso en el aula, y de una perspectiva <em>«human-centered»</em> que no renuncie a las humanidades como herramienta para gestionar riesgos y oportunidades</a>. </p>



<p>Y entonces aparece la pregunta que muchos preferirían no formular: ¿se puede trabajar como profesor en IE University si no quieres usar inteligencia artificial? Por supuesto que sí, porque la libertad de cátedra no es un eslogan: está tan incrustada en la cultura desde su fundación que nadie la discute seriamente. Pero sería ingenuo ignorar la otra capa: la cultura organizativa empuja. Empuja porque hay formación, herramientas, acompañamiento, y porque el diferencial de calidad, cuando se hace bien, se hace evidente. Empuja porque los estudiantes lo piden, porque el mercado lo demanda, porque la investigación lo acelera, y porque, sencillamente, la alternativa empieza a parecer cada vez más anacrónica. No porque alguien «te obligue» con un formulario, sino porque, cuando todos a tu alrededor están elevando su productividad y su capacidad de diseño docente con inteligencia artificial, tu negativa se termina convirtiendo en una opción complicada. </p>



<p>La discusión, en realidad, no es «inteligencia artificial sí o inteligencia artificial no», igual que ya no discutimos «internet sí o internet no». La discusión es qué tipo de institución quieres ser: una que finge que nada cambia, o una que define reglas claras, invierte en formación, exige transparencia y supervisa resultados. <a href="https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research" target="_blank" rel="noreferrer noopener">UNESCO, en su guía sobre inteligencia artificial generativa en educación e investigación</a>, insiste precisamente en la necesidad de desarrollar capacidad humana, políticas, y una visión centrada en las personas para que estas tecnologías no se conviertan en un atajo irresponsable. Y <a href="https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_062a7394-en.html" target="_blank" rel="noreferrer noopener">la OCDE, desde otro ángulo, plantea salvaguardas para un uso efectivo y equitativo de la IA en educación</a>. </p>



<p>En el mundo corporativo, ya estamos viendo cómo la exigencia se formaliza: Accenture, por ejemplo, aparece <a href="https://www.theguardian.com/accenture/2026/feb/19/accenture-links-staff-promotions-to-use-of-ai-tools" target="_blank" rel="noreferrer noopener">vinculando promociones a la adopción regular de herramientas de inteligencia artificial y monitorizando el uso</a>. En la universidad, hacer coerción explícita sería sin duda un error cultural&#8230; pero la normalización seguramente acabe siendo igual de potente. La diferencia es que, si hacemos bien nuestro trabajo, la universidad puede ser el lugar donde esa normalización no derive en obediencia ciega, sino en competencia crítica: usar inteligencia artificial porque mejora los resultados, pero entenderla, auditarla, discutirla y enseñarla con honestidad. </p>



<p>La ironía final es deliciosa: durante años, muchas instituciones educativas estudiaron a las empresas para «modelizar la innovación». Hoy, en cambio, la empresa está enseñándonos otra cosa: cómo una tecnología se convierte en obligación sin necesidad de decretos grandilocuentes. Basta con medirla, entrenarla, incorporarla al flujo de trabajo, añadir <em>feedback</em>, mejorarla, y premiar sus resultados cuando efectivamente son buenos. En IE University, el reto y la oportunidad es demostrar que esa transición puede hacerse sin perder nuestra alma académica: con libertad, sí, pero también con responsabilidad. Con entusiasmo, sí, pero también con criterio. Con inteligencia artificial, sí, pero siempre con supervisión humana y con transparencia total. Para los viejos del lugar, que vivimos la llegada de internet y su incorporación a todo, es interesantísimo tener la oportunidad de volver a vivir algo parecido, ahora con la inteligencia artificial. Y si ese es el nuevo contrato, más vale que lo escribamos nosotros antes de que lo escriba, literalmente, una máquina. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em></em><em>This article is openly available in English on Medium</em>, «<a href="https://medium.com/enrique-dans/you-can-ignore-ai-but-your-organization-wont-dd07b33ae22a?sk=00f75784f8a9be637f45d5ac7b4a318a" data-type="link" data-id="https://medium.com/enrique-dans/you-can-ignore-ai-but-your-organization-wont-dd07b33ae22a?sk=00f75784f8a9be637f45d5ac7b4a318a" target="_blank" rel="noreferrer noopener">You can ignore AI—but your organization won’t</a>» </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/02/cuando-la-inteligencia-artificial-deja-de-ser-una-opcion-el-nuevo-contrato-laboral-y-academico-ya-esta-aqui.html/feed</wfw:commentRss>
			<slash:comments>29</slash:comments>
		
		
			</item>
		<item>
		<title>El día en que el Pentágono decidió que la ética era un estorbo</title>
		<link>https://www.enriquedans.com/2026/02/el-dia-en-que-el-pentagono-decidio-que-la-etica-era-un-estorbo.html</link>
					<comments>https://www.enriquedans.com/2026/02/el-dia-en-que-el-pentagono-decidio-que-la-etica-era-un-estorbo.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Thu, 26 Feb 2026 08:05:50 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[Dario Amodei]]></category>
		<category><![CDATA[democracy]]></category>
		<category><![CDATA[Donald Trump]]></category>
		<category><![CDATA[ethics]]></category>
		<category><![CDATA[Government]]></category>
		<category><![CDATA[Palantir]]></category>
		<category><![CDATA[surveillance]]></category>
		<category><![CDATA[US]]></category>
		<category><![CDATA[war]]></category>
		<category><![CDATA[weapons]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57337</guid>

					<description><![CDATA[Hay momentos en los que una noticia aparentemente técnica revela, en realidad, una mutación profunda del sistema político. La reunión convocada por Pete Hegseth con Dario Amodei, CEO de Anthropic, no es una discusión contractual sobre doscientos millones de dólares, ni un desacuerdo menor sobre cláusulas de uso. Es algo mucho más serio: el intento  <a href="https://www.enriquedans.com/2026/02/el-dia-en-que-el-pentagono-decidio-que-la-etica-era-un-estorbo.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/02/AI-war-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/02/AI-war-Dall·E.jpg" alt="IMAGE: A futuristic soldier with a glowing red visor stands in front of the Pentagon, surrounded by drones and digital surveillance screens, symbolizing AI-driven warfare and mass monitoring " class="wp-image-57338" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/02/AI-war-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/02/AI-war-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/02/AI-war-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/02/AI-war-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hay momentos en los que una noticia aparentemente técnica revela, en realidad, una mutación profunda del sistema político. La reunión convocada por <a href="https://en.wikipedia.org/wiki/Pete_Hegseth" target="_blank" rel="noreferrer noopener">Pete Hegseth</a> con <a href="https://en.wikipedia.org/wiki/Dario_Amodei" target="_blank" rel="noreferrer noopener">Dario Amodei</a>, CEO de Anthropic, no es una discusión contractual sobre doscientos millones de dólares, ni un desacuerdo menor sobre cláusulas de uso. Es algo mucho más serio: el intento explícito del Departamento de Defensa de forzar a una empresa de inteligencia artificial a eliminar sus últimas salvaguardas éticas para poder utilizar su modelo en vigilancia masiva doméstica y en armas que disparen sin intervención humana.</p>



<p>El tono es inequívoco: «<a href="https://www.axios.com/2026/02/23/hegseth-dario-pentagon-meeting-antrhopic-claude">o juegas o te vas</a>«, y no es una metáfora: <a href="https://www.bbc.com/news/articles/cjrq1vwe73po" target="_blank" rel="noreferrer noopener">la amenaza concreta es designar a Anthropic como «riesgo para la cadena de suministro»</a>, una etiqueta reservada normalmente para proveedores vinculados a potencias adversarias. Traducido al lenguaje real: la expulsión del ecosistema de defensa y <a href="https://www.axios.com/2026/02/25/anthropic-pentagon-blacklist-claude" target="_blank" rel="noreferrer noopener">la presión indirecta sobre cualquier empresa que trabaje con el Pentágono para que deje de utilizar Claude</a>.</p>



<p>El contexto importa. Anthropic firmó un contrato de doscientos millones de dólares con el Departamento de Defensa, y eso ha convertido a <a href="https://techcrunch.com/2026/02/23/defense-secretary-summons-anthropics-amodei-over-military-use-of-claude/" target="_blank" rel="noreferrer noopener">Claude en actualmente el único modelo de inteligencia artificial disponible en redes clasificadas del ejército estadounidense</a>. La relación no es anecdótica: es estructural. Y se volvió aún más delicada <a href="https://www.nbcnews.com/tech/security/anthropic-ai-defense-war-venezuela-maduro-rcna259603" target="_blank" rel="noreferrer noopener">tras la operación militar en Venezuela</a> que terminó con la captura de Nicolás Maduro, donde <a href="https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17" target="_blank" rel="noreferrer noopener">Claude fue utilizado durante la operación activa a través de su integración con Palantir</a>. </p>



<p>Ese episodio cambió el tono. Cuando ejecutivos de Anthropic preguntaron si su modelo había sido empleado en operaciones con fuego real, el Pentágono interpretó la consulta como una forma de cuestionamiento moral. La respuesta fue endurecer la posición: si el modelo va a estar dentro, estará sin límites privados. Solo la ley, interpretada por supuesto por el propio aparato estatal, podrá marcar la frontera. </p>



<p>La nueva <a href="https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF" target="_blank" rel="noreferrer noopener">Estrategia de Inteligencia Artificial para el Departamento de Guerra</a>, publicada en enero, deja clara esa filosofía: todos los contratos deberán incorporar en 180 días cláusulas de «cualquier uso lícito», eliminando restricciones éticas autoimpuestas por las empresas proveedoras. El mensaje político es evidente: la inteligencia artificial «responsable» es la que no impide librar guerras. </p>



<p>Aquí es donde el debate deja de ser tecnológico y se convierte en político. Anthropic ha aceptado eliminar prácticamente todas sus restricciones contractuales salvo dos: la prohibición de usar su modelo para la vigilancia masiva de ciudadanos estadounidenses y la negativa a permitir su uso en sistemas de armas completamente autónomos que puedan disparar sin intervención humana. Y esas son precisamente las dos líneas rojas que el Pentágono quiere borrar. </p>



<p>No estamos hablando de escenarios futuristas. La vigilancia masiva ya existe: lo que cambia con modelos de frontera como Claude es la escala y la capacidad de inferencia. <a href="https://www.scientificamerican.com/article/anthropics-safety-first-ai-collides-with-the-pentagon-as-claude-expands-into/">Incluso términos aparentemente claros como «vigilancia ilegal de ciudadanos estadounidenses» se vuelven elásticos</a> cuando entran en juego interpretaciones jurídicas amplias y tecnología de análisis masivo. Un sistema capaz de procesar millones de comunicaciones, cruzar bases de datos financieras, biométricas y de geolocalización, y extraer patrones conductuales en tiempo real no solo identifica sospechosos: puede anticipar comportamientos, mapear redes sociales completas y etiquetar estados emocionales o tendencias políticas.</p>



<p>La segunda línea roja es todavía más inquietante. El desarrollo de armas autónomas letales, es decir, sistemas capaces de identificar, seleccionar y destruir objetivos sin intervención humana directa, ya no es un debate académico. El Pentágono lleva tiempo avanzando en esa dirección, como analiza el Centre for International Governance Innovation al describir <a href="https://www.cigionline.org/articles/the-united-states-quietly-kick-starts-the-autonomous-weapons-era/" target="_blank" rel="noreferrer noopener">cómo Estados Unidos está impulsando de facto la era de las armas autónomas</a>. El desplazamiento semántico desde <em>«human-in-the-loop»</em> hacia <em>«human-on-the-loop»</em> y finalmente <em>«human-out-of-the-loop»</em> es progresivo, pero claro: la supervisión humana pasa de decisoria a decorativa. </p>



<p>El propio debate sobre quién debe establecer las reglas está ya sobre la mesa. Lawfare ha señalado que <a href="https://www.lawfaremedia.org/article/congress-not-the-pentagon-or-anthropic-should-set-military-ai-rules" target="_blank" rel="noreferrer noopener">no debería ser el Pentágono ni las empresas privadas quienes definan unilateralmente el marco normativo de la IA militar, sino el Congreso</a>. Sin embargo, ese debate apenas ha salido de círculos especializados.</p>



<p>Lo verdaderamente preocupante no es sólo lo que se quiere hacer, sino cómo se está haciendo. No hay un gran debate parlamentario sobre si el ejército debería tener acceso sin restricciones a modelos capaces de vigilar a la población o de tomar decisiones letales autónomas. No hay una ley específica que regule el uso de modelos generativos en selección de objetivos militares. Las reglas se están definiendo en negociaciones contractuales entre un secretario de Defensa y directivos de Silicon Valley. </p>



<p>Cuando la arquitectura normativa de tecnologías que afectan a la vida, la muerte y la privacidad de millones de personas se decide en reuniones a puerta cerrada bajo amenaza de sanciones industriales, <a href="https://www.washingtonpost.com/technology/2026/02/22/pentagon-anthropic-ai-dispute/" target="_blank" rel="noreferrer noopener">la pregunta deja de ser técnica y se vuelve institucional</a>. ¿Quién vigila a los vigilantes cuando el propio Estado amenaza con destruir a la empresa que intenta imponer límites? </p>



<p>La situación se agrava porque otras grandes compañías tecnológicas ya han mostrado mayor disposición a flexibilizar sus salvaguardas para asegurar contratos gubernamentales, lo que distintos analistas han descrito como una peligrosa carrera en materia de límites y ética. Si una empresa se resiste por razones de principios, otra puede ocupar su lugar. De hecho, <a href="https://www.axios.com/2026/02/23/ai-defense-department-deal-musk-xai-grok">la xAI de Musk acaba de obtener acceso a los sistemas del Pentágono y podrá ser utilizada para el control de armas o para la vigilancia masiva</a>. Y Anthropic, aunque <a href="https://x.com/WesRoth/status/2026307377344213406" target="_blank" rel="noreferrer noopener">su CEO acabe de decir</a> que <a href="https://apnews.com/article/anthropic-ai-pentagon-hegseth-dario-amodei-9b28dda41bdb52b6a378fa9fc80b8fda" target="_blank" rel="noreferrer noopener">no va a ceder ante el Pentágono</a>, acaba de anunciar que <a href="https://time.com/7380854/exclusive-anthropic-drops-flagship-safety-pledge/">renuncia a su Safety Pledge</a>, al que en su momento <a href="https://time.com/collections/time100-companies-2024/6980000/anthropic-2/" target="_blank" rel="noreferrer noopener">llevó a Dario Amodei a la portada de Time</a>. Malos tiempos para la lírica.</p>



<p>¿Siguen siendo los Estados Unidos una democracia? Formalmente, sí. Sustantivamente, la cuestión es más incómoda. Una democracia no se define solo por elecciones periódicas, sino por <strong>la existencia de límites efectivos al poder coercitivo del Estado</strong>. Si ese poder aspira a integrar vigilancia predictiva masiva y violencia automatizada bajo supervisión opaca, la distancia entre democracia y estado policial se reduce peligrosamente. </p>



<p>La cuestión no es si la inteligencia artificial debe emplearse en defensa nacional. La cuestión es <a href="https://www.newscientist.com/article/2516885-ais-cant-stop-recommending-nuclear-strikes-in-war-game-simulations/" target="_blank" rel="noreferrer noopener">quién decide sus límites y bajo qué mecanismos de control</a>. Si la respuesta es «el propio aparato militar, sin supervisión externa efectiva», entonces el problema no es tecnológico. Es puramente democrático.</p>



<p><strong>ACTUALIZACIÓN</strong> (27/02/2026): <a href="https://www.anthropic.com/news/statement-department-of-war" target="_blank" rel="noreferrer noopener">Dario Amodei ha contestado</a>. Y dice NO. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/the-pentagon-wants-to-rewrite-the-rules-of-ai-ccdc27883c8e?sk=72bac8edc3909a6902a6619d4c5ef968" target="_blank" rel="noreferrer noopener">The Pentagon wants to rewrite the rules of AI</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/02/el-dia-en-que-el-pentagono-decidio-que-la-etica-era-un-estorbo.html/feed</wfw:commentRss>
			<slash:comments>71</slash:comments>
		
		
			</item>
	</channel>
</rss>
