¿Seguir con la cortina de humo o crear una IA viable para el Sur Global?

-

spot_img

La narrativa dominante presenta a la Inteligencia Artificial (IA) como el faro indiscutible del progreso, una fuerza neutral e imparable llamada a redefinir nuestro futuro. Sin embargo, un examen más riguroso muestra una realidad mucho menos luminosa: la retórica publicitaria tropieza con dos obstáculos fundamentales como son la verdadera naturaleza de su supuesta “inteligencia” y la frágil sostenibilidad económica de las corporaciones que la impulsan. Su huella ambiental, aunque innegable, constituye solo un síntoma de problemas estructurales más profundos, los cuales se encubren bajo la promesa de desarrollo global, pero en la práctica se traducen en nuevas formas de precarización social, laboral y ecológica.

El espejismo de la inteligencia: un discurso al servicio del capital

Uno de los puntos más cruciales para desmitificar la IA es entender qué hay realmente detrás del término. Lejos de ser una mente consciente, los modelos de lenguaje avanzados, como los que impulsan a ChatGPT, Gemini o DeepSeek, han sido descritos en The AI Con (La estafa de la IA), por la lingüista Emily M. Bender y la socióloga Alex Hanna, como «loros estocásticos». Indican que su funcionamiento se basa en una compleja búsqueda de patrones estadísticos en los datos con los que fueron entrenados, creando una convincente ilusión de pensamiento gracias a nuestra propia tendencia psicológica, conocida como el «efecto Eliza», a proyectar inteligencia donde solo hay simulación.

El “efecto Eliza” describe la tendencia de las personas a atribuir cualidades humanas –como empatía o comprensión– a sistemas informáticos que en realidad solo siguen reglas simples. El término proviene de Eliza, un programa desarrollado en 1966 por Joseph Weizenbaum en el Instituto Tecnológico de Massachusetts (MIT), diseñado para simular a un terapeuta mediante la repetición y reformulación de frases de los usuarios. Aunque el programa no “entendía” nada, muchos llegaron a sentir que mantenían una conversación significativa, al punto de confiarle detalles íntimos de su vida personal.

Este fenómeno está estrechamente relacionado con el antropomorfismo, es decir, la inclinación humana a proyectar características humanas –intenciones, emociones, consciencia– sobre entidades no humanas, sean animales, objetos o, en este caso, máquinas. El antropomorfismo explica por qué un chatbot, un asistente de voz o incluso un robot con gestos simples pueden ser percibidos como “inteligentes” o “comprensivos”, cuando en realidad su funcionamiento se basa en algoritmos sin consciencia.

En la actualidad, el “efecto Eliza” se manifiesta con mayor fuerza en la interacción con sistemas de IA. Aunque estos modelos son mucho más sofisticados que Eliza, la proyección humana sigue siendo el punto neurálgico que da “vida” a estas máquinas. Confundimos fluidez verbal con entendimiento, y coherencia en las respuestas con intencionalidad. El concepto sirve como recordatorio crítico de que detrás de la ilusión de diálogo humano lo que existe son procesos matemáticos que imitan patrones de lenguaje sin compartir nuestra experiencia subjetiva.

Este concepto, de por sí complejo en términos técnicos, ha sido reducido y empaquetado bajo la etiqueta de “IA” hasta convertirse en una especie de “fórmula mágica” de marketing. Con ello se persiguen dos objetivos: atraer ingentes volúmenes de capital inversor y blindar a la tecnología frente a la crítica, otorgando a sus desarrolladores el aura de “visionarios”. Así la narrativa del progreso funciona como una cortina de humo que oculta los efectos reales y ya palpables de la IA: la precarización laboral, la reproducción de sesgos y, como veremos más adelante, su insostenibilidad ambiental.

Lo más preocupante es la capacidad del sistema para absorber y neutralizar la crítica. Cuando se denuncian problemas como los sesgos algorítmicos, las empresas los reducen a un “desafío técnico” más. Aplicando correcciones superficiales que no cuestionan la lógica central de la tecnología: la explotación de recursos y la concentración del poder y la riqueza. La dimensión ética queda así relegada, transformada en una oportunidad de negocio más. De este modo, la crítica se integra en el propio discurso corporativo, sin alterar el modelo económico que sostiene a la IA, un modelo todavía frágil que busca consolidarse generando dependencia creciente en los sectores donde estas herramientas logren mayor penetración.

La insostenibilidad económica de los negocios de IA

Si la inteligencia es una ilusión, el modelo de negocio que la sustenta parece serlo también para muchos actores del sector. Según el análisis “Why Most AI Startups Are BAD Businesses” del canal de YouTube Tech But MarketReal, la economía detrás de gran parte de la IA generativa es, en pocas palabras, «tremendamente no rentable». Se aleja radicalmente del tradicional software como servicio (SaaS), donde los márgenes suelen oscilar entre el 70% y el 90% y el costo de servir a un cliente adicional es casi cero.

En cambio, las aplicaciones nativas de IA, especialmente los «envoltorios» de modelos de lenguaje (LLM wrappers), operan con márgenes drásticamente más bajos (30%-60%) debido a sus enormes costos operativos continuos. Cada interacción de un usuario conlleva gastos en llamadas a APIs, tiempo de cómputo en servidores y licencias. Ejemplos elocuentes abundan: ChatGPT le costaba a OpenAI 700 mil  dólares diarios en 2023, y usuarios intensivos pueden costarle a la empresa más de los 200 dólares que el usuario paga al mes. GitHub Copilot, que se ofrece por 10 dólares al mes, le costaba a Microsoft casi 80 dólares por cada «usuario power».

Esto se combina con una alarmantemente baja tasa de conversión de usuarios gratuitos a usuarios que pagan por el servicio. A pesar de sus cientos de millones de usuarios, ChatGPT convierte a menos de un 2% de ellos en clientes, una señal clara de que el ajuste al mercado (PMF) es débil y que el alcance masivo está impulsado más por la expectativa mediática que por el valor real percibido.

El Product-Market Fit (PMF), o ajuste producto-mercado, ocurre cuando un producto satisface de manera efectiva y sostenible las necesidades de un grupo específico de clientes. No se trata únicamente de tener usuarios, sino de lograr que estos encuentren tanto valor en el producto que lo integren en su vida o trabajo, lo paguen sin grandes objeciones y lo recomienden a otros. Las señales de que se alcanzó el PMF incluyen una fuerte retención de clientes, crecimiento orgánico impulsado por el boca a boca, métricas financieras saludables y la disposición de los usuarios a pagar porque perciben que el valor entregado supera con creces el costo. Marc Andreessen, quien popularizó el concepto, lo resumió señalando que cuando se logra el PMF, la demanda se vuelve abrumadora y el producto parece venderse por sí solo.

En el contexto de la IA generativa la falta de PMF se ha hecho evidente para empresas con gran notoriedad, pero baja conversión de usuarios en clientes de pago. El caso de ChatGPT ilustra bien este problema: a pesar de tener cientos de millones de usuarios, menos del 2% paga por la versión premium, lo que sugiere que, más allá del interés inicial motivado por la novedad, la mayoría no lo considera indispensable ni lo integra en su vida diaria. Esto refleja un desajuste entre la promesa del producto y las necesidades reales del mercado. En última instancia, el PMF es el criterio que separa una innovación duradera y sostenible de una moda tecnológica pasajera.

El camino hacia la sostenibilidad del negocio no pasa por intentar vender la IA por sí sola. La verdadera oportunidad reside en resolver problemas antiguos y laboriosos de «industrias aburridas» como la legal, contable o de recursos humanos, utilizando la IA como una herramienta de mejora dentro de un producto que ya es valioso por sí mismo. La mina de oro no está en un chatbot, sino en un sistema que pueda negociar automáticamente con un abogado contrario.

Los costos que se ocultan detrás de la nube

Aunque de relevancia crítica, el impacto ambiental es en esta ecuación una consecuencia directa de la carrera impulsada por los puntos anteriores. La «sed» insaciable de energía eléctrica y de agua de los centros de datos necesarios para alimentar estos modelos es alarmante. Para refrigerar sus servidores estas instalaciones consumen volúmenes descomunales de agua, a menudo en regiones que ya sufren estrés hídrico.

La ironía es cruel: las zonas secas son ideales para el enfriamiento por evaporación, lo que lleva a empresas como Google, Microsoft y Amazon a construir masivos centros de datos en lugares como Querétaro (México), agravando la crisis local del agua mientras la población espera camiones cisterna. La falta de transparencia y regulación permite que este consumo se oculte bajo acuerdos confidenciales, aunque alternativas sostenibles de circuito cerrado, como las que practica la empresa europea Infomaniak, demuestran que existen soluciones técnicamente viables, aunque aún marginales y habrá que analizar cuán eficaces son realmente.

El problema se vuelve más irónico cuando se constata que una parte significativa de ese gasto se destina a usos triviales. Cada selfie alterada con filtros extravagantes, cada texto irrelevante o conversación vacía que se genera implican un consumo real de electricidad y agua. En contextos donde los centros de datos demandan millones de litros para enfriar servidores en zonas áridas, este uso resulta no solo desproporcionado, sino también éticamente cuestionable. Se trata, en esencia, de un despilfarro de recursos planetarios para sostener dinámicas de consumo que poco aportan al bienestar colectivo.

La otra cara de la paradoja es la desigualdad en el acceso y en el aprovechamiento de la tecnología. Mientras una persona con formación técnica o académica puede utilizar estas herramientas para tareas complejas como la síntesis de información científica o la programación avanzada, quienes carecen de esa base suelen restringirse a usos superficiales y sin valor productivo. La falta de infraestructura digital en muchas zonas del Sur Global, sumada a la brecha económica que impide pagar por versiones avanzadas de estos sistemas, amplía todavía más la distancia entre quienes pueden capitalizar la IA y quienes quedan relegados a la periferia digital.

Frente a este panorama, el desafío consiste en orientar el uso de la IA hacia aplicaciones que realmente multipliquen capacidades y resuelvan problemas concretos. No se trata de promover la IA como un juguete, sino como un asistente que ayuda a redactar cartas formales, traducir documentos, simplificar textos complejos o apoyar procesos educativos, agrícolas y de salud. La clave está en formar criterios de pensamiento crítico, enseñar a contrastar información y garantizar la seguridad digital para evitar riesgos con los datos personales. Un uso responsable implica también eficiencia: dar instrucciones precisas para ahorrar recursos y privilegiar resultados útiles en lugar de generar contenidos irrelevantes en serie.

La IA generativa es un recurso poderoso, pero con un costo ambiental y social que no puede ignorarse. Para las sociedades del Sur Global el reto es doble. Por un lado, exigir a nivel internacional mayor transparencia y sostenibilidad en la industria; por otro, fomentar un uso local crítico, inteligente y orientado al bien común. El objetivo no es que todos adopten la IA, sino que quienes lo hagan la utilicen de manera estratégica, evitando el desperdicio y orientando sus posibilidades hacia la emancipación real de la educación, la salud, la economía y la productividad, siempre protegiendo la autonomía de las personas y de las comunidades.

La IA desde el Sur Global ¿herramienta de emancipación o de nueva dependencia?

La IA generativa se revela como una tecnología de doble filo, con una huella ambiental insostenible y un modelo económico cuestionable, que llega a sociedades marcadas por profundas desigualdades estructurales. Ante esta realidad, el concepto de emancipación social –el proceso de liberación de relaciones de dominación y dependencia para construir una autonomía real– ofrece la lente crítica necesaria para evaluar su verdadero impacto.

El desarrollo actual de la IA, con su «sed» de recursos y su narrativa de progreso incuestionable, corre el riesgo de convertirse en otra estructura de poder que reproduce y agrava las desigualdades existentes. La brecha en el acceso y el aprovechamiento crea un nuevo eje de exclusión: quienes tienen la instrucción, la infraestructura y el capital pueden multiplicar su productividad y oportunidades; mientras que una mayoría podría quedar relegada al consumo superficial, la dependencia tecnológica nociva y la exposición de sus datos, sin obtener beneficios tangibles.

Por ello, la cuestión central no es técnica, sino política y social: ¿la IA servirá para emancipar o para someter? La respuesta depende de la orientación que como sociedad le demos.

En última instancia, el futuro de la IA en Latinoamérica, Bolivia y el Sur Global no debe importarse pasivamente. Debe construirse desde una posición de soberanía tecnológica y crítica activa, ligada a las luchas históricas por la igualdad y el reconocimiento. El objetivo debe ser subordinar la tecnología a un proyecto de sociedad más justo y equitativo, donde el conocimiento y sus herramientas estén verdaderamente al servicio de la libertad de los pueblos. Solo así la IA podría, potencialmente, dejar de ser un instrumento de dominación y convertirse en un facilitador de esa emancipación social en permanente construcción.

_________________________

Carlos Bonadona Vargas Boliviano, ingeniero de Sistemas y especialista en Energías Renovables

spot_img
spot_img

Bicentenario

Voces en Lucha

Últimas noticias

Cuatro recomendaciones de cine palestino

¿Se puede hablar de una poética de la imagen cuando esta nos muestra el dolor y la destrucción siendo...

Bots en Chile y el espejo latinoamericano de la política digital

La revelación de una red de cuentas falsas y bots que buscaba dañar las candidaturas presidenciales de Evelyn Matthei...

La Justicia boliviana al servicio del mejor postor

La Justicia en Bolivia se convirtió en el talón de Aquiles que marca, condiciona y deforma la vida del...

El oro que vuela

Bolivia es considerada un país minero. La Colonia tuvo su principal asentamiento en estas tierras producto de  los grandes...
- Publicidad -spot_imgspot_img

VIDEO │ Jorge Viaña: «la situación exige reconstruir desde abajo, volver a tener organizaciones y organismos con legitimidad en sus propuestas y capacidad de...

A continuación presentamos una versión editada de la entrevista realizada en El Taller al economista Jorge Viaña, quien además...

El escenario post electoral en Bolivia y la politización de la raza

La reciente y desafortunada declaración de una asambleísta chilena encontró un eco particular y amplificado en Bolivia. Sus palabras,...

Recomendados

Bots en Chile y el espejo latinoamericano de la política digital

La revelación de una red de cuentas falsas y...

La Justicia boliviana al servicio del mejor postor

La Justicia en Bolivia se convirtió en el talón...

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí