El último lanzamiento de la empresa Anthropic introduce una señal que excede lo técnico y abre una discusión económica de fondo. Su modelo Claude Opus 4.7 mantiene el mismo precio por token que la versión anterior. Sin embargo, distintos indicadores muestran que usar el modelo puede resultar más caro.

La explicación está en un cambio menos visible que la tarifa: el modelo consume más tokens por interacción.
Un ajuste técnico con impacto económico
Según la propia compañía, el nuevo modelo incorpora un tokenizador actualizado y un mayor nivel de “esfuerzo” por defecto en sus respuestas. En términos prácticos, esto implica dos efectos combinados: la misma entrada puede traducirse en más tokens y, al mismo tiempo, el sistema genera salidas más extensas.
Pruebas independientes registran incrementos de consumo que oscilan entre el 30% y el 46% según el tipo de tarea. En escenarios con procesamiento de imágenes, el aumento puede ser aún mayor debido a la mayor resolución soportada.
El dato no es menor: los tokens de salida —los que genera el modelo— son significativamente más costosos que los de entrada. Por lo tanto, cualquier incremento en ese volumen impacta de manera directa en el costo final.
Qué cambia cuando cambia el consumo
Hasta ahora, el cálculo económico de la inteligencia artificial parecía relativamente transparente: un precio definido por unidad de consumo (token) multiplicado por el uso.
El nuevo escenario introduce una variable adicional. El costo ya no depende únicamente del volumen de consultas, sino también de cómo el modelo decide procesarlas. Es decir, del nivel de razonamiento que aplica y de la cantidad de información que produce.
Este desplazamiento es sutil, pero relevante: el control del gasto deja de estar completamente del lado del usuario.
Más capacidad, más costo
El aumento en el consumo no es un error, sino una consecuencia directa del diseño del modelo. Más capacidad de análisis implica más pasos internos, más procesamiento y, en consecuencia, más tokens.
La ecuación es clara: mejor desempeño puede traducirse en mayor costo operativo.
Esto plantea un dilema concreto para quienes adoptan estas tecnologías a escala. La mejora en calidad y precisión debe evaluarse en relación con su impacto presupuestario.
Implicancias para el sector público
El fenómeno adquiere una dimensión particular en el ámbito estatal. A medida que los organismos incorporan inteligencia artificial en procesos críticos —automatización de trámites, asistentes digitales, análisis de datos—, el costo de operación deja de ser un aspecto secundario.
En este contexto, la pregunta ya no es únicamente qué modelo utilizar, sino cuál es el costo real de sostener su uso en el tiempo.
Infraestructura, no herramienta
Desde el CIID , este tipo de cambios refuerza una línea de trabajo sostenida: abordar la inteligencia artificial como parte de la infraestructura digital pública, y no solo como una capa de servicios.
Esto implica:
- diseñar arquitecturas que optimicen el consumo
- monitorear el uso en términos operativos y económicos
- evaluar la dependencia de proveedores y modelos externos
- incorporar criterios de eficiencia desde el inicio de cada implementación
En este marco, comprender la lógica de costos deja de ser un detalle técnico y pasa a ser una condición de sustentabilidad.
Una economía en transición
La llamada “inflación de tokens” no constituye, por ahora, un cambio explícito en los precios. Es, más bien, un efecto indirecto de la evolución de los modelos: más capacidad, más procesamiento, más consumo.
Para organizaciones públicas y privadas, el desafío será adaptarse a esta dinámica. La inteligencia artificial seguirá avanzando en complejidad y prestaciones. La pregunta es si los esquemas de uso y financiamiento evolucionarán al mismo ritmo.
#InteligenciaArtificial #GobiernoDigital #TransformacionDigital #InnovacionPublica #CIID #Tecnologia #IA #EconomiaDigital #Tokens #Datos


