El acceso abierto a herramientas de inteligencia artificial como ChatGPT disfraza una concentración de poder sin precedentes en manos privadas, cuyas decisiones éticas, técnicas y políticas están redefiniendo nuestra autonomía como sociedad.
Entre la gratuidad y la gobernanza opaca
En un mundo donde las aplicaciones de inteligencia artificial son tan accesibles como un clic y tan integradas como un asistente virtual en el móvil, la sensación general es de avance, democratización, y, por qué no, un poco de magia futurista. Pero bajo esa capa brillante de progreso se esconde un entramado menos visible, más complejo y definitivamente más preocupante. No hablamos solo de tecnología; hablamos de poder, de control, de dependencia estructural.
Empresas como OpenAI, Google, Meta o Microsoft no están simplemente desarrollando herramientas inteligentes. Están diseñando los nuevos sistemas de pensamiento que determinarán qué información se prioriza, qué se filtra, qué se censura, cómo se razona y hasta qué valores se reflejan en las decisiones automatizadas. ¿Es esto una exageración? No si atendemos a lo que está en juego: no solo mercados, sino modos de conocer, de decidir, de existir.
Un monopolio que ya no es económico, sino cognitivo
Hasta ahora, los monopolios nos sonaban a empresas que dominaban un sector y subían los precios. Pero la IA cambia las reglas. Aquí no se trata tanto de cuánto pagamos, sino de cómo accedemos al conocimiento, qué tipo de herramientas usamos para crear ideas, resolver dudas o incluso formular preguntas.
Sí, tú puedes usar ChatGPT gratis, puedes hacer preguntas, escribir poemas, pedirle que resuma el Quijote o que te ayude a redactar el currículo. Pero cada vez que lo haces, estás alimentando un sistema que no solo aprende de ti, sino que decide cómo y qué aprende. Y ese proceso está gobernado por un conjunto de criterios y valores definidos no por una comunidad democrática, sino por equipos de ingenieros, ejecutivos y, ocasionalmente, reguladores medio dormidos.
Los tres pilares del nuevo orden digital
1. Datos: la materia prima invisible
Los datos no son solo el combustible de la inteligencia artificial; son también la forma en que estos sistemas entienden el mundo. Y esos datos no los elige el azar. Son seleccionados, curados, filtrados y organizados por quienes controlan las plataformas. Lo que alimenta a los modelos de lenguaje refleja una cierta visión del mundo, una jerarquía de lo que importa y lo que no. Pregúntate: ¿quién decide qué entra y qué queda fuera?
2. Infraestructura: más allá de los servidores
Hablamos de centros de datos, GPU, redes de distribución, pero también hablamos de alianzas estratégicas, como la de Microsoft con OpenAI, que no solo facilitan el acceso al cómputo, sino que condicionan los límites de desarrollo y escalabilidad. No cualquier startup puede crear su propio modelo de IA. El acceso a la infraestructura define quién juega y quién mira desde la grada.
3. Gobernanza algorítmica: la moral del código
Quizá el aspecto más delicado: los parámetros. No los técnicos, sino los éticos. ¿Qué está permitido? ¿Qué se filtra? ¿Qué sesgos se corrigen, cuáles se toleran y cuáles, simplemente, se ignoran? Las respuestas no las da una comisión pública, ni una asamblea ciudadana. Las da un pequeño grupo de diseñadores y programadores en San Francisco, Redmond o Palo Alto.
El espejismo del empoderamiento digital
Nos han vendido que la IA empodera al usuario. Que nos hace más productivos, más creativos, más informados. Y en parte es cierto. Pero ese empoderamiento es, en muchos casos, un préstamo a plazo fijo: accedemos a herramientas que no controlamos, a contenidos generados bajo lógicas que no comprendemos del todo, y a respuestas que parecen imparciales, pero que son el reflejo de una lógica algorítmica con dueño.
El acceso es gratuito, sí. Pero como suele decirse, si no pagas por el producto, es que tú eres el producto. Tus consultas alimentan el sistema, tus ideas lo entrenan, tus patrones lo refinan. Y mientras tanto, los marcos legales y políticos que deberían poner límites a este juego están a años luz de entender la partida que se juega.
¿Dónde están los políticos? ¿Y la sociedad civil?
Mientras se debate si la IA debe usarse en educación, en tribunales, en sanidad o en las administraciones públicas, las grandes decisiones ya se han tomado: quién controla los modelos, quién decide los umbrales de riesgo, quién define qué es aceptable o no. Los parlamentos reaccionan tarde y mal. Las comisiones europeas escriben normativas, sí, pero ¿cómo aplicarlas a tecnologías que cambian cada seis meses?
¿Y la ciudadanía? Atrapada entre el entusiasmo y el desconcierto. Se nos invita a participar, pero siempre desde un lugar subordinado: usuarios, no diseñadores; receptores, no protagonistas.
¿Y si la IA no es neutral?
Aquí está el corazón del asunto. Nos han dicho que la IA solo refleja los datos. Que es objetiva, imparcial. Falso. Todo sistema de IA es una traducción de valores, una codificación de prioridades, una arquitectura de poder. Y no lo digo solo yo. Cientos de expertos han alertado sobre cómo los sesgos raciales, de género, culturales o económicos se replican en los algoritmos. Pero hay un sesgo más profundo: el de la estructura de control.
Cuando una IA responde a tu pregunta, te ofrece una versión del mundo. Esa versión puede estar cuidadosamente diseñada para evitar polémicas, para maximizar el confort del usuario, o para alinear el discurso con ciertas políticas corporativas. Pero nunca será neutra. Porque detrás de cada sistema hay elecciones, y toda elección es, por definición, una toma de posición.
Una dependencia que ya no se puede revertir (¿o sí?)
Cuanto más usamos la IA, más dependemos de ella. No solo en el trabajo, sino en cómo pensamos, cómo nos informamos, cómo escribimos, cómo nos relacionamos con el conocimiento. Esta dependencia no es solo tecnológica. Es epistemológica. Estamos dejando de construir el saber de forma comunitaria para consumirlo enlatado, diseñado por terceros, y ajustado a marcos que no cuestionamos.
¿Podemos revertir esta tendencia? No es fácil. Requiere voluntad política, alfabetización crítica, infraestructuras públicas de IA, regulaciones efectivas y, sobre todo, una conciencia colectiva de lo que está en juego.
Conclusión: una ilusión de control en un mundo automatizado
La inteligencia artificial no es solo una herramienta más. Es el nuevo lenguaje con el que se está escribiendo el mundo. Y como todo lenguaje, tiene gramática, normas, límites… y dueños. El riesgo no está en que las máquinas se rebelen. Está en que no sepamos que ya obedecemos a sus reglas, sin haberlas elegido.
Quizás la pregunta no sea si la IA será buena o mala, sino:
¿Estamos dispuestos a ceder nuestra autonomía a sistemas que no comprendemos, diseñados por entidades que no nos rinden cuentas?
¿Prefieres que sigamos fingiendo que esto solo va de ciencia ficción?