Forbes Argentina
ChatGPT.
Innovacion

El ancla de los US$ 20: cómo este precio arbitrario está frenando la evolución de la IA

Andrew Filev Colaborador

Share

Mientras los modelos de inteligencia artificial se vuelven más potentes y costosos de operar, el mercado sigue atado a una referencia de precios que ya no refleja el valor real ni las necesidades actuales de los usuarios más exigentes.

15 Abril de 2025 21.00

Cuando OpenAI lanzó ChatGPT y Microsoft presentó GitHub Copilot, los dos fijaron el precio mensual en US$ 20. Y sin buscarlo, marcaron una ancla psicológica para todo el mercado. Ese valor se transformó en la referencia para medir cuánto "debería" costar una herramienta de inteligencia artificial.

Ese número tenía sentido en las primeras versiones. Eran asistentes limitados, con ventanas de contexto chicas, utilidad ocasional y sin herramientas complejas. Ofrecían un valor concreto, aunque con capacidades acotadas. Servían para completar código simple, generar contenido básico y responder consultas puntuales. La ecuación económica cerraba: operarlos no salía tan caro y el precio coincidía con lo que el usuario promedio estaba dispuesto a pagar.

Pero hoy la situación cambió por completo. Los modelos más recientes —Claude 3.7, Gemini 2.5 Pro o las versiones de investigación de OpenAI— mejoraron de forma notable. Resuelven problemas complejos con precisión, manejan contextos amplios y usan herramientas con criterio. Son mucho más útiles que sus versiones anteriores y, al mismo tiempo, mucho más caros de operar.

Copilot Microsoft
 

 

El dilema de la inteligencia premium

 

Las primeras IA alucinaban seguido, lo que hacía riesgoso su uso en tareas donde la precisión es clave. Por eso, el verdadero salto en productividad apareció con los modelos actuales, que incorporan mecanismos más complejos para reducir errores. Es el caso del modelo o1-pro de OpenAI, que valida sus procesos en paralelo, o del modelo Deep Research, que realiza búsquedas online para minimizar equivocaciones. En Zencoder, por ejemplo, usamos análisis profundo de código para mejorar el rendimiento de nuestros agentes de programación.

OpenAI ofrece actualmente dos planes pagos que marcan una diferencia clara en cuanto a capacidades y usos. El plan ChatGPT Plus, con un costo mensual de US$ 20, está pensado para usuarios individuales que buscan un mejor rendimiento y acceso al modelo GPT-4o. 

En cambio, el plan ChatGPT Pro, con un precio de US$ 200 mensuales, apunta a usuarios profesionales o empresas que necesitan capacidades avanzadas de procesamiento. Incluye acceso ilimitado al nuevo modelo o1, desarrollado para resolver problemas complejos con mayor precisión, y permite usar funciones más sofisticadas como el Modo de Voz Avanzado o herramientas futuras de productividad intensiva.

Desde adentro de la industria, podemos asegurar que pagar US$ 200 por mes por OpenAI Pro permite ahorrar miles. Tiene lógica si lo usás en tareas especializadas, donde el consejo de un experto humano puede salir US$ 500 por hora, y así obtenés respuestas en minutos, no días.

Obviamente, esta comparación tiene sentido solo en contextos donde se aprovechan al máximo las capacidades del modelo. No todas las tareas requieren una herramienta tan potente, pero en ámbitos como la programación avanzada, el análisis de datos, la investigación jurídica o la generación de estrategias de negocio, el retorno de inversión puede ser altísimo. La clave está en el uso que se le da.

Está claro que las capacidades avanzadas de la IA entregan un valor enorme, muy por encima del precio que se paga. Sin embargo, no todos necesitan algo tan sofisticado. Debería existir una opción intermedia, que combine practicidad con un costo razonable, parecido al que pagamos por otras herramientas de software.

inteligencia artificial IA
 

 

La economía oculta de la IA


Mucha gente piensa que, con el tiempo, usar inteligencia artificial sale cada vez más barato. Es una idea parecida a lo que pasó con la tecnología en general: lo que antes era caro, con el tiempo se volvió accesible. Entonces, se espera que lo mismo ocurra con la IA.

 Y en parte tienen razón: cada seis meses, más o menos, el precio que se paga por cada token —la unidad mínima de procesamiento en estos modelos— se reduce a la mitad. El problema es que las expectativas de los usuarios también suben al mismo ritmo. Entonces, lo que antes parecía razonable pagar por una herramienta básica, ahora se ve como poco por lo que esperan recibir a cambio de US$ 20.

Ahora bien, lo que para un ojo externo parece una mejora menor, muchas veces implica un salto enorme en recursos. Por ejemplo, el modelo o1 cuesta US$ 60 por millón de tokens generados, pero el o1-pro sube a US$ 600 por millón. En 2025, la tendencia dominante en IA son los sistemas agénticos. Tienen más capacidades, pero también exigen muchos más recursos.

Tener más contexto ayuda a entender mejor el problema y a dar respuestas más precisas. Pero eso exige procesar más tokens. Hoy, Gemini 2.5 Pro puede manejar hasta un millón de tokens, y Claude, hasta 200 mil. Esa capacidad mejora la utilidad del modelo, aunque también aumenta los costos computacionales. Cuanto más contexto se incluye, más recursos necesita el sistema para analizarlo y generar una respuesta coherente.

Google Gemini
 

 

Las herramientas como multiplicadores (de todo)


El uso de herramientas es una señal clara de inteligencia. En los últimos seis meses, la capacidad de los agentes de IA para usarlas mejoró de manera acelerada. Ya pueden operar con buscadores online, hacer análisis de datos, ejecutar código y trabajar con integraciones. Esto los vuelve más potentes, pero también exige que cada vez que una herramienta se activa, todo el contexto y su resultado se reprocesen. Eso eleva los costos.

En tareas de programación, por ejemplo, es común que el agente recurra a varias herramientas: una para buscar archivos, otra para interpretar el contexto y otra para editar.

Cuando aumenta la capacidad, también lo hace el uso. Y eso tiene un impacto económico. Desde que empezamos a usar asistentes de IA para reemplazar búsquedas en Google, el uso se disparó. Además, con agentes más preparados para programar, los desarrolladores también los usan durante horas. Por eso, ya no se trata de herramientas puntuales, sino de asistentes permanentes.

Así, cuando se combinan el uso de herramientas, el contexto expandido y el aumento en la frecuencia, el costo operativo puede multiplicarse por diez o incluso por cien. Ni las mejoras tecnológicas más rápidas logran cerrar esa brecha de forma inmediata. 

Es un caso típico de la llamada "paradoja de Jevons": aunque bajó el costo por unidad de inteligencia, el uso creció tanto que el gasto total terminó subiendo. El propio Sam Altman lo reconoció: "Estamos perdiendo plata con las suscripciones a OpenAI Pro" porque "la gente lo usa mucho más de lo que esperábamos".

Sam Altman - Open AI
 

 

¿Por qué no todos pagan más?

Si pagar US$ 200 por mes resulta tan conveniente, ¿por qué lo contratan tan pocas empresas? Porque evaluar la capacidad real de una IA no es sencillo. En el software tradicional, es fácil ver qué funciones están disponibles y cuáles no. Con IA, en cambio, las diferencias entre modelos suelen ser sutiles y dependen del contexto. Para alguien que no está metido en el tema, la distancia entre o1 y o1-pro puede pasar desapercibida. Sin embargo, cuando se trata de tareas complejas, la diferencia en el rendimiento es enorme.

Esto provoca distorsiones en el mercado: la mayoría no sabe qué nivel de precio garantiza el resultado que necesita. Como no hay mediciones claras ni comparables, muchos eligen lo más barato o se dejan llevar por la marca.

Las empresas de IA, presionadas por la necesidad de hacer rentables sus productos, restringen de forma artificial sus modelos para sostener el precio de los US$ 20. Raycast Pro, por ejemplo, promete acceso a Claude 3.7 como una "IA avanzada", pero en la práctica lo limita de forma notable frente a la versión de escritorio. Es el mismo modelo, pero con resultados muy distintos.

Hombre Sujetando La Taza Delante De La Computadora Portátil
 

Ahí está la clave: las restricciones lo cambian todo. Raycast, por ejemplo, limita las búsquedas web a unas pocas consultas. Claude Desktop, en cambio, permite hacer muchas más, lo que permite construir un contexto más profundo. El resultado: dos niveles de inteligencia completamente distintos con el mismo motor.

Los usuarios perciben esas diferencias. En Reddit, los reclamos se multiplican cada vez que hay un cambio de precio o se recortan funciones. En un post muy compartido, titulado "El camino de Cursor: de héroe a cero", un usuario contó cómo una herramienta de programación que antes valoraba bajó en calidad sin ajustar el precio. Muchos desarrolladores dijeron lo mismo: que se sacrificó la experiencia para evitar una suba.

Hoy, muchos usuarios quedaron atrapados: como no obtienen valor, no pagan. Como no pagan, acceden a versiones limitadas. Y como acceden a versiones limitadas, siguen sin ver el valor. El resultado es el estancamiento.

IA generativa Salesforce
 

Hay una salida: un esquema de precios más realista. Según mis cálculos, con un rango de entre US$ 40 y 60 se podría ofrecer una IA de nueva generación con más de una hora de uso diario. No alcanza para usarla ocho horas seguidas ni para correr cien agentes al mismo tiempo, pero la mayoría de los usuarios tampoco necesita eso.

En el mundo del software para empresas, pagar cientos de dólares por mes no sorprende. Salesforce, por ejemplo, cobra entre US$ 165 y 300 por usuario, y muchas compañías le suman otras herramientas encima. Pero cuando se trata de IA —una tecnología que impacta de forma directa en la productividad y tiene costos operativos muy altos— todavía hay una resistencia fuerte a superar el umbral de los US$ 20.

Esa resistencia impone límites artificiales. Y, al final, quienes más lo sufren son los usuarios intensivos.

datos inteligencia artificial
 

 

El precio del progreso


Para un desarrollador o una pyme, la cuenta tiene que cerrarse por el valor que recibe, no por el precio que paga. Si una IA te ahorra miles de dólares y horas de trabajo, pagar US$ 200 por mes es una ganga. A medida que la industria avance, es probable que aparezcan esquemas de precios más acordes al valor real que estas herramientas entregan. Las empresas que logren comunicar bien ese valor serán las que ganen.

Los US$ 20 mensuales sirvieron para que cualquiera pudiera acceder a la IA. Pero ahora que estas herramientas dejaron de ser una rareza para convertirse en aliados clave, también tiene que cambiar el modelo económico.

Empresas como OpenAI, que hoy marcan el ritmo del sector, tienen en sus manos la posibilidad de definir ese camino. Si logran ofrecer planes intermedios, con capacidades equilibradas —un punto medio entre los US$ 20 actuales y el escalón premium de US$ 200—, podrían ayudar a que el mercado empiece a entender cuánto vale, de verdad, la IA avanzada.

ChatGPT, OpenAI, IA, Inteligencia Artificial
 

Para una adopción masiva, el precio tiene que sentirse accesible, incluso si el valor es mucho mayor. La tensión entre capacidad, expectativas y costo será la que defina la próxima etapa de esta industria. 

Por ahora, lo que importa no es el precio en la etiqueta, sino los resultados que obtenés. Lo que venga será determinado por el equilibrio entre lo que estamos dispuestos a pagar y lo que estas herramientas realmente pueden hacer por nosotros.

Nota publicada en Forbes US. 

10