En 2022, cuando apareció públicamente el primer ChatGPT, muchos creyeron que se trataba de una moda tecnológica destinada a los laboratorios de élite o a curiosos del mundo digital. Tres años después, la realidad es otra: la inteligencia artificial se ha convertido en parte de la vida cotidiana, transformando silenciosamente la educación, la salud, la justicia, la economía y la política. La velocidad de este cambio no da tregua: quien no se forma y se adapta, queda relegado.
El punto de quiebre lo marcó GPT-5, lanzado en agosto de 2025 como un modelo de nueva generación. Su innovación central es la introducción de GPT-5 Thinking, una variante de razonamiento profundo que, mediante un sistema de enrutamiento automático, decide si conviene una respuesta rápida o una elaborada según la complejidad de la consulta. A diferencia de generaciones anteriores, ahora no se requiere elegir manualmente entre modelos simples o exhaustivos. Esto posiciona a GPT-5 como una herramienta capaz de desplegar distintos niveles de análisis según lo requiera la tarea.
GPT-5 es un modelo multimodal, lo que significa que no solo comprende y produce texto, sino que también puede interpretar y generar imágenes, audio e incluso video en una etapa inicial y limitada. Esta integración de diferentes lenguajes lo convierte en una herramienta versátil para abordar problemas complejos que combinan información escrita, visual y sonora. Uno de sus avances más destacados es la ampliación de la llamada ventana de contexto, es decir, la cantidad de información que puede procesar en un solo análisis sin perder coherencia. En su versión para la API alcanza aproximadamente 400 mil unidades lingüísticas (tokens), mientras que en ChatGPT llega a 256 mil. En términos prácticos, esto significa que es capaz de revisar cientos de páginas de manera continua, lo que resulta especialmente útil en campos como el derecho, la investigación científica o la ingeniería.
Además, GPT-5 ha mejorado notablemente en tres aspectos críticos: la precisión de sus respuestas, la coherencia de sus razonamientos y la reducción de errores conocidos como “alucinaciones” (cuando el sistema inventa datos inexistentes). Estos avances lo hacen más confiable para aplicaciones de alta exigencia en áreas sensibles como la salud, la justicia, la educación y la programación.

Referencial
Conviene aclarar que la función de generación de video todavía se encuentra restringida. Por ahora, está disponible únicamente para empresas y suscriptores de nivel profesional avanzado (Pro), y no para usuarios de versiones estándar como ChatGPT Plus. Los videos que produce son de corta duración y carácter demostrativo, pensados para apoyar procesos educativos o presentaciones, pero aún no alcanzan la calidad de una producción audiovisual avanzada.
Actualmente, GPT-5 se ofrece como modelo predeterminado en ChatGPT. Además, en la API existen variantes adaptadas a diferentes niveles de complejidad y recursos: mini, nano, Thinking, Thinking-Pro y Pro. Esta diversificación permite que los usuarios elijan la versión que mejor se ajuste a sus necesidades, desde tareas rápidas y simples hasta análisis de mayor profundidad y rigor.
Hoy, el entorno de la inteligencia artificial no está dominado por un único actor, sino por un ecosistema plural de modelos y plataformas: ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Copilot (Microsoft), Grok (xAI), LLaMA (Meta), Qwen (Alibaba), DeepSeek (China), Mistral (Europa), Haiku, Zhipu, Yi, Falcon, Command R, Perplexity AI, Amazon Bedrock, entre otros. Cada uno responde a lógicas distintas, compitiendo por velocidad, precisión, especialización y adaptabilidad. Estudios recientes muestran que Claude alcanza altos niveles de exactitud en el análisis jurídico, mientras Gemini se destaca por la rapidez de respuesta. Comprender estas diferencias ya no es un lujo académico: para países como Bolivia, puede ser la diferencia entre rezagarse o acceder oportunamente a información estratégica en educación, derecho o producción.
La clave está en cómo “razonan” estos modelos. GPT-5 Thinking introdujo lo que se denomina razonamiento deliberativo: la capacidad de decidir cuándo basta una respuesta inmediata y cuándo es necesario elaborar un análisis más profundo. Dicho en términos sencillos: la máquina ahora distingue entre operaciones elementales y razonamientos complejos, ajustando su esfuerzo cognitivo según la dificultad del problema. Esta característica elimina la necesidad de elegir manualmente entre modelos “rápidos” y modelos “lentos”, porque el propio sistema sabe cuándo conviene pensar más despacio.
Como mencionamos líneas arriba, la ampliación de la ventana de contexto en GPT-5 no es solo un detalle técnico, sino un cambio estructural en la forma de trabajar con información. Por primera vez, es posible procesar volúmenes extensos de datos de manera integrada, lo que transforma la práctica profesional: expedientes completos, bibliografía científica o manuales técnicos ya no necesitan fragmentarse para ser analizados. En un país como Bolivia, donde la dispersión documental ha sido históricamente un obstáculo, esta capacidad abre una oportunidad inédita para ordenar, comprender y aprovechar mejor el conocimiento.

A esta ampliación se suma la revolución de la multimodalidad. GPT-5 y sus competidores integran en un mismo sistema texto, imagen, sonido y video, lo que no significa únicamente describir imágenes o transcribir audios, sino también razonar sobre ellos. Un ingeniero civil puede subir un plano de construcción y recibir observaciones sobre posibles errores estructurales; un docente puede mostrar un esquema biológico y obtener explicaciones adaptadas al nivel de secundaria; un periodista puede introducir documentos, audios e imágenes y obtener un análisis comparativo. La convergencia entre palabra y visión abre una etapa inédita: aprender a dialogar con distintos lenguajes a través de una sola herramienta.
Pero la fascinación tecnológica no debe ocultar sus límites. Aunque GPT-5 puede manejar volúmenes masivos de información, no es infalible. En diálogos demasiado largos, su precisión puede caer en un 30 o 40%, lo que en medicina o derecho equivale a errores graves. La IA sigue siendo un asistente poderoso, pero jamás un sustituto del criterio humano. Confiar ciegamente en ella es abdicar de nuestra responsabilidad intelectual y ética.
El debate sobre la inteligencia artificial no es solo técnico, sino también político y cultural. El acceso constituye la primera frontera. Mientras en países industrializados una suscripción cuesta lo mismo que un almuerzo, en Bolivia el acceso profesional a estas plataformas puede representar hasta un 10% del salario mínimo, sin contar el sobreprecio del internet más caro de Sudamérica. Esta desigualdad abre una brecha peligrosa: quienes acceden avanzan, quienes no, se rezagan. Y en un mundo donde la alfabetización digital se ha convertido en la nueva alfabetización básica, la exclusión equivale a una forma de analfabetismo estructural.
El reto no se limita al acceso, sino también al uso. El error más frecuente es emplear la inteligencia artificial de manera superficial, copiando comandos sin auditar resultados. A nivel global, el 68% de los usuarios nunca explora las funciones avanzadas; en Bolivia, muchos repiten esa pasividad. El resultado es una dependencia peligrosa: la máquina inventa datos hasta en el 18% de las respuestas técnicas, algo inaceptable en salud, derecho o política pública. La brecha, entonces, no es tecnológica, sino de actitud. La herramienta no reemplaza la disciplina del pensamiento crítico.

La alfabetización en inteligencia artificial exige más que “saber preguntar”. Implica aprender a razonar en cadena, a identificar errores, a reconocer sesgos y a exigir explicaciones. Supone formar ciudadanos que no se conformen con respuestas inmediatas, sino que exijan evidencia y trazabilidad. En el ámbito educativo, esto significa diseñar rúbricas de verificación; en el ámbito jurídico, protocolos de contraste probatorio; en la administración pública, sistemas de auditoría. La ética ya no es una declaración abstracta, sino un conjunto de prácticas concretas para controlar y corregir a la máquina.
En este escenario, Bolivia enfrenta un dilema histórico. Puede limitarse a consumir pasivamente lo que otros producen o dar el salto hacia la creación y adaptación local. Esto implica construir corpus en español y lenguas originarias, establecer estándares nacionales de verificación, y formar profesionales capaces de exigir rigor a las plataformas internacionales. La soberanía digital no se decreta: se conquista con disciplina, creatividad y valentía.
El 2025 nos plantea, pues, una decisión ineludible. Podemos seguir siendo espectadores que repiten órdenes a una máquina, o protagonistas que usan la herramienta para transformar la educación, la justicia y la economía. La inteligencia artificial no es un lujo ni un simple entretenimiento: es el nuevo idioma del poder. Quien la domina, lidera; quien se resigna, queda a la deriva.
GPT-5 es, en última instancia, un espejo. Refleja nuestra capacidad de innovación o también nuestra disposición a quedarnos atrás. Si sabemos integrarlo con criterio y responsabilidad, puede convertirse en el motor de una Bolivia más justa, competitiva y libre. Si lo ignoramos o lo usamos sin espíritu crítico, confirmaremos la dependencia que nos condena desde hace décadas. La decisión es nuestra, y el tiempo apremia.
