Alcances constitucionales y desafíos regulatorios del Proyecto de Ley N.º 178/2024-2025 sobre inteligencia artificial en Bolivia


Alcances constitucionales y desafíos regulatorios del Proyecto de Ley N.º 178/2024-2025 sobre inteligencia artificial en Bolivia: Hacia una IA plurinacional soberana frente a Brasil y Chile

Por: Ramiro Sánchez Morales

Visualice esto: un algoritmo bancario niega crédito a una tejedora aimara del Altiplano porque sus datos «rurales» la clasifican como riesgo alto. O un deepfake hace que un candidato guaraní parezca confesar corrupción días antes de las elecciones. La inteligencia artificial (IA) no es futurismo distante: ya opera en Bolivia, desde las transcripciones judiciales en el Tribunal Constitucional Plurinacional hasta las predicciones de sequías en el Chaco. Pero sin límites claros, esta tecnología puede perpetuar el colonialismo digital —Big Tech extrayendo datos bolivianos sin royalties— o democratizar el Vivir Bien. El Proyecto de Ley (PL) N.º 178/2024-2025 —»Promoción, Gestión y Uso de la Inteligencia Artificial»— aprobado por el Senado el 22 de octubre de 2025 y pendiente en Diputados, responde con ambición histórica: 31 artículos que crean la Autoridad de Regulación de la IA (ARIA), asignan a AGETIC una Estrategia Nacional en 180 días, establecen 12 principios plurinacionales y prohíben taxativamente siete abusos graves como la manipulación subliminal y el reconocimiento facial masivo sin habeas data judicial. Como autor de «La inteligencia artificial en Bolivia» (Cabildeo Digital, abril 2025), «Inteligencia artificial y abogacía en Bolivia» (febrero 2026) y análisis sobre deepfakes electorales, desarrollo aquí mi doctrina central: la IA es «constitucionalmente impulsada» (el artículo 103.II de la CPE obliga al Estado a promover la tecnología) pero «estrictamente condicionada» por la reserva de humanidad, el debido proceso (artículo 115) e igualdad plurinacional (artículo 14). Este ensayo desglosa su arquitectura normativa, evalúa su constitucionalidad material, compara críticamente con Brasil (PL 2338/2023) y Chile (Boletín 16821-19), analiza la diplomacia tecnológica boliviana tras la visita de Edmundo Lara a India y propone una hoja de ruta concreta para que Bolivia lidere una IA ética en el Sur Global.



En cuanto a su contenido normativo, nos encontramos entre la audacia pionera y generalidades peligrosas. El ámbito del proyecto es expansivo: aplica a toda persona natural o jurídica —pública o privada— que desarrolle, provea, use o implemente sistemas de IA en Bolivia o genere efectos territoriales, incluyendo algoritmos autónomos para predicción, generación de contenido o toma de decisiones. Cubre desde modelos generativos como ChatGPT hasta machine learning en agricultura de precisión. La arquitectura institucional es ambiciosa, estableciendo a la ARIA como un órgano descentralizado con autonomía funcional para reglamentar estándares éticos y técnicos, certificar sistemas, supervisar cumplimiento e imponer sanciones administrativas progresivas que incluyen multas, suspensión de operaciones y la reparación integral de daños, mientras que los casos penales se derivan al Ministerio Público. Por su parte, la AGETIC elaborará la Estrategia Nacional de IA en 180 días desde la promulgación, registrará bases de datos y algoritmos, emitirá lineamientos técnicos sectoriales en salud, justicia o elecciones y monitoreará impactos. Los doce principios fundacionales evocan la Constitución Política del Estado: beneficio colectivo sobre lucro privado, transparencia algorítmica total, explicabilidad comprensible para pueblos originarios, ética intercultural, no discriminación étnica, de género, rural o por edad, ciberseguridad robusta, protección de datos personales, innovación sostenible alineada al Vivir Bien, soberanía tecnológica explícita, dignidad humana inviolable, participación originaria de naciones y pueblos indígenas, y armonía con la Pachamama.

Las siete prohibiciones taxativas contenidas en los artículos 12 al 18 constituyen la joya del proyecto de ley. Estas prohíben la manipulación subliminal o psicológica de personas vulnerables; la explotación de vulnerabilidades por edad, discapacidad o pobreza extrema; el reconocimiento facial masivo sin autorización judicial previa mediante habeas data; los sistemas de puntuación social tipo crédito chino; la clasificación discriminatoria por fenotipo, origen étnico o comportamiento predictivo; los deepfakes o contenidos sintéticos lesivos de la honra, de los procesos democráticos o de derechos colectivos; y el desarrollo o uso de IA autónoma en armas letales. Las garantías ciudadanas concretas incluyen el derecho a no ser sometido a decisiones basadas únicamente en tratamientos automatizados cuando afecten derechos subjetivos, información clara y comprensible sobre el uso de IA en servicios públicos o privados, auditorías independientes de sesgos algorítmicos, derecho al olvido digital y reparación integral de daños causados. Los desarrolladores deben documentar exhaustivamente los datos de entrenamiento y los usuarios deben notificar activamente cuando operen con IA. En materia de incentivos y cronograma, se prevén exenciones fiscales y fondos públicos-privados para proyectos de IA ética que contribuyan al desarrollo sostenible, mientras que la disposición adicional primera ordena una Ley de Protección de Datos Personales en 180 días, reconociendo el vacío crítico de la obsolescente Ley 164 de 2011. Mi evaluación doctrinal sugiere que el contenido es pionero en su integralidad, pues pocos países regulan promoción y prohibición simultáneamente, pero es peligrosamente generalista. Los doce principios suenan hermosos, pero sin métricas concretas de cumplimiento —por ejemplo, determinar qué significa exactamente la ética intercultural— se arriesga una aplicación discrecional. Las prohibiciones salvan vidas, pero sin categorías de riesgo graduadas, la ARIA podría ahogarse en fiscalizaciones de carácter trivial.

=> Recibir por Whatsapp las noticias destacadas

Respecto a la constitucionalidad material y la doctrina de la IA impulsada pero condicionada, la Constitución Política del Estado de 2009 ofrece una habilitación explícita. El artículo 103.II ordena al Estado impulsar la investigación científica y tecnológica; el artículo 9.IX extiende la soberanía sobre recursos estratégicos a los datos como el nuevo petróleo plurinacional; y el artículo 308 legitima la innovación en la economía plural comunitaria. Pero esto impone límites materiales infranqueables, empezando por la tutela judicial efectiva y el debido proceso consagrados en el artículo 115. Mi tesis expuesta en «Inteligencia artificial y abogacía» exige una reserva de humanidad absoluta en decisiones que afecten derechos fundamentales. La IA puede transcribir audiencias con un 98 por ciento de precisión o generar borradores contractuales, pero nunca dictar sentencias ni reemplazar el juicio humano responsable. Es necesaria una cadena de custodia algorítmica donde todo proceso IA sea auditable, documentado, reversible y sometido a control jurisdiccional del Tribunal Constitucional Plurinacional. Por ejemplo, si una IA del Tribunal predice reincidencia con sesgo étnico, viola el artículo 115.II constitucional. Asimismo, la igualdad plurinacional sustantiva del artículo 14.II indica que prohibir la discriminación algorítmica es correcto pero insuficiente. Algoritmos entrenados con datos urbanos extranjeros sesgarán contra aimaras analfabetas digitales. Casos globales como COMPAS en Estados Unidos o los sesgos de contratación en Amazon gritan la lección: los datos de entrenamiento deben ser plurinacionales, representando a las 36 naciones, las 3 regiones autónomas y datos en aimara, quechua y afro boliviano. Respecto a la intimidad y datos personales del artículo 21, el vacío normativo es inconstitucional. Facebook extrae millones de perfiles bolivianos sin contraprestación y la remisión a una futura ley deja al proyecto de ley cojo desde su nacimiento. Sobre la distribución de poderes y el Estado regulador según el artículo 12, la ARIA concentra potestades cuasi judiciales bajo el Ejecutivo sin contrapesos claros, como el control parlamentario, la revisión judicial o la pluralidad intercultural mediante cupos para CIDOB y CONAMAQ. Existe un riesgo de discrecionalidad política en la certificación y sanciones. Mi doctrina se resume en legislar con valentía a través de una ARIA plural e independiente, educar con visión crítica mediante cátedras de IA ética interculturales, innovar con identidad propia usando algoritmos entrenados con cosmovisiones aimaras y participar soberanamente en foros asimétricos. Solo así la IA servirá al Vivir Bien y no al PIB de Silicon Valley.

Al analizar los desafíos regulatorios comparados y las lecciones críticas de Brasil y Chile, vemos que Bolivia se sitúa en una posición distinta. Brasil, con su Proyecto de Ley 2338/2023 aprobado por el Senado en diciembre de 2024, lidera la madurez técnica al clasificar riesgos explícitamente. La IA de alto riesgo en salud, justicia o vigilancia exige evaluación de impacto, transparencia de código fuente y supervisión humana obligatoria, mientras que el bajo riesgo se inclina por la autorregulación. Inspirado en la AI Act europea, incluye un sandbox regulatorio experimental donde las empresas prueban la IA bajo supervisión estatal sin sanciones inmediatas, y protege los datos de entrenamiento como derechos de autor para defender a los creadores frente a la IA generativa. Bolivia supera a Brasil en prohibiciones taxativas con sus siete vetos específicos frente al enfoque permisivo brasileño, pero peca de generalidad. Sin categorías de riesgo, la ARIA arriesga parálisis administrativa. Mi recomendación directa es adoptar la gradación brasileña manteniendo el veto plurinacional a la puntuación social colonial. Por otro lado, Chile, con su Boletín 16821-19, destaca por un pragmatismo enfocado en las PYMES. Su Agencia Nacional de Protección de Datos ofrece certezas jurídicas para startups, ideal contra nuestras brechas digitales, donde Bolivia puntúa bajo en el Índice Latinoamericano de IA frente a Chile. Chile clasifica riesgos concretos, pero Bolivia aventaja en soberanía tecnológica explícita y enfoque intercultural, aspectos ausentes en el modelo chileno centrado en el mercado. Sin sandboxes, la AGETIC quedará en buenas intenciones. Mi propuesta es usar la Agencia de Datos chilena como modelo para nuestra futura ley, pero adaptada con una localización de datos plurinacional. La ventaja competitiva boliviana radica en su soberanía anticolonial frente a los enfoques extractivistas de la región. Nuestros datos sobre biodiversidad andina y medicina tradicional son un tesoro estratégico. El híbrido ideal sería tomar los riesgos de Brasil, los sandboxes de Chile y la interculturalidad de Bolivia para que una armonización en la OEA o CELAC brinde al Sur Global contra las Big Tech.

La diplomacia tecnológica también juega un papel fundamental, con la visita del vicepresidente Edmundo Lara a India como encrucijada estratégica. Su participación en la Cumbre Global de IA en Nueva Delhi en febrero de 2026, con mesas técnicas sobre IA segura, factor humano y desarrollo inclusivo, abre la oportunidad de tratados bilaterales con un gigante del software que ofrece transferencia tecnológica accesible. El riesgo existencial es una dependencia colonial 2.0 con servidores extranjeros extrayendo datos amazónicos sin royalties. Mi doctrina clama por tratados con data localización obligatoria, transferencia tecnológica vinculante y cláusulas de derechos humanos interculturales para adaptar modelos indios a realidades andinas, como la traducción simultánea o predicciones climáticas en el Altiplano.

Finalmente, propongo una hoja de ruta concreta con seis propuestas accionables de manera inmediata. Primero, una ARIA verdaderamente plural con un 50 por ciento de cupos rotativos para naciones indígenas, participación de la academia, trabajadores y empresariado, bajo un estatuto de independencia técnica similar al del Banco Central. Segundo, importar la gradación de riesgos de Brasil mediante decreto de la AGETIC, priorizando la vigilancia de deepfakes electorales para 2026. Tercero, establecer sandboxes nacionales con tres pilotos iniciales en justicia rural en Oruro, agricultura en el Chaco y salud en Tiwanaku, con exoneraciones tributarias. Cuarto, una Ley de Datos Personales inmediata que exija la localización del 80 por ciento de los servidores en Bolivia, establezca royalties del 2 por ciento sobre utilidades de las Big Tech y sanciones penales por extracción no autorizada. Quinto, una educación masiva intercultural con diplomados en IA ética en lenguas originarias y mil becas para mujeres STEM rurales entre 2026 y 2028. Sexto, la creación de un Observatorio en el Tribunal Constitucional Plurinacional para auditorías anuales de algoritmos públicos. En conclusión, el Proyecto de Ley 178/2024-2025 catapulta a Bolivia como referente ético-plurinacional, superando a Chile en soberanía y a Brasil en precisión prohibitiva. Robustecido con contrapesos constitucionales y riesgos categorizados, convertirá a la IA en una aliada del Vivir Bien colectivo. El desafío trasciende lo técnico: es civilizatorio. No permitiremos que algoritmos externos dicten destinos aimaras; forjaremos tecnología soberana para las 36 naciones. La respuesta es política, urgente y colectiva: legislar con valentía, educar con crítica e innovar con identidad. El futuro digital plurinacional nos espera; construyámoslo antes de que nos construya.