
Por Lucas Kasosi (maasai, CS pasante)
Estamos al umbral de una nueva era digital, una época moldeada por la IA, los macrodatos y la toma de decisiones algorítmica. Desde modelos de lenguaje hasta sistemas de vigilancia, desde mapas de conservación hasta herramientas educativas, la IA está transformando el funcionamiento del mundo. Pero, como todo sistema dominante anterior, la IA arrastra consigo los sesgos, exclusiones y lógicas de explotación de sus creadores.
Para los Pueblos Indígenas, el auge de la IA presenta una promesa ambivalente: puede convertirse en una herramienta para el empoderamiento, el resurgimiento cultural y la soberanía, o puede ser una nueva frontera de colonización, tergiversación y extracción de recursos. Los sistemas de IA actuales a menudo no logran captar la complejidad y profundidad de las culturas y sistemas de conocimiento indígenas. Sin la participación activa de las comunidades Indígenas en el desarrollo y gobernanza de la IA, estos sistemas corren el riesgo de perpetuar patrones históricos de borrado cultural y explotación de datos.
Un collar unisex tradicional maasai.
Como maasai, he sido testigo directo del profundo impacto que la tergiversación cultural puede tener sobre la identidad de los Pueblos Indígenas. En 2024, el Departamento Estatal de Cultura de Kenia utilizó imágenes generadas por IA para representar la cultura maasai en una campaña pública. A primera vista, esta iniciativa parecía un intento bien intencionado de compartir el patrimonio maasai con una audiencia más amplia. Sin embargo, el uso de tecnologías de IA para generar imágenes del atuendo y símbolos culturales maasai reveló una tergiversación preocupante que va mucho más allá de un simple error estético. Uno de los errores más evidentes fue la representación de un brazalete de cuello, una joya tradicionalmente usada por mujeres, siendo usada por hombres.
Para los maasai, el simbolismo presente en la vestimenta cultural es profundo y específico. El brazalete de cuello, por ejemplo, es un símbolo de género: lo usan las mujeres para representar su rol, estatus y conexión espiritual dentro de la comunidad. De hecho, muchas de las prendas y ornamentos en la cultura maasai no son simplemente accesorios; representan edad, rango social, hitos espirituales y las complejas relaciones entre los individuos y el mundo natural que los rodea. El Isuri, una prenda tradicional usada exclusivamente por mujeres mayores, simboliza su sabiduría y liderazgo dentro de la comunidad, mientras que el Emiragie, usado por mujeres jóvenes, simboliza la fertilidad y vitalidad. Estas distinciones no son arbitrarias; son componentes clave de un sistema cultural transmitido por generaciones.
Esto no fue simplemente un error estético. Fue una transgresión cultural, una violación de sistemas simbólicos desarrollados durante siglos, reducidos por la lógica de las máquinas a una decoración arbitraria. Peor aún, reflejó una tendencia creciente: la apropiación y distorsión de la identidad Indígena a través de sistemas de IA entrenados con datos no verificados y descontextualizados. Estas distorsiones no solo ofenden, también contribuyen al borrado cultural. Fracturan la transmisión de conocimiento entre ancianos y jóvenes. Reducen tradiciones vivas a caricaturas digitales.
La Declaración de las Naciones Unidas sobre los Derechos de los Pueblos Indígenas (UNDRIP), en su Artículo 31, afirma claramente el derecho de los Pueblos Indígenas a “mantener, controlar, proteger y desarrollar su patrimonio cultural, conocimientos tradicionales y expresiones culturales tradicionales.” Cuando los Estados o desarrolladores tecnológicos usan IA generativa para reproducir imágenes sagradas sin supervisión cultural ni consentimiento, violan este derecho. Y cuando son los gobiernos quienes lo hacen, el daño es doble, exponiendo un vacío alarmante tanto en gobernanza digital como en alfabetización cultural.
Inteligencia Artificial generativa
La inteligencia artificial ofrece un potencial real para las comunidades Indígenas. Ya hay grupos Indígenas utilizando IA para la revitalización lingüística, la protección ecológica y la preservación histórica. Las herramientas de IA pueden digitalizar lenguas en peligro, transcribir tradiciones orales y modelar patrones climáticos que afectan tierras ancestrales. Para culturas que han sido silenciadas en instituciones dominantes, la IA puede amplificar el conocimiento Indígena en sus propios términos.
Pero la IA también es una herramienta de amplificación, dependiendo de cómo se construya. La mayoría de los sistemas de IA actuales se entrenan con datos recopilados de internet, bases de datos académicas o archivos gubernamentales. Estos conjuntos de datos rara vez priorizan los sistemas de conocimiento Indígena, al contrario, están moldeados por legados coloniales, ciencia extractiva y jerarquías racializadas. Como resultado, la IA a menudo reproduce, e incluso intensifica, los patrones de exclusión.
El riesgo es claro: sin una participación significativa de los Pueblos Indígenas, la IA seguirá marginando a las mismas comunidades que dice servir. Sin diseño ético, los datos, historias, símbolos, material genético y conocimientos ecológicos indígenas pueden ser extraídos, comercializados y descontextualizados. Esto no es una hipótesis. Ya está ocurriendo.
Soberanía de los datos Indígenas
En el centro de estas preocupaciones está el principio de la Soberanía de los Datos Indígenas: el derecho de los Pueblos Indígenas a gobernar, controlar y proteger los datos relacionados con sus culturas, territorios, lenguas y cuerpos. Los datos no son neutrales. Para las comunidades Indígenas, son ancestrales, relacionales y sagrados.
El Artículo 32 de la UNDRIP declara que los Pueblos Indígenas tienen derecho a determinar y desarrollar estrategias para el uso de sus tierras y recursos. En la era digital, los datos son un recurso. Eso incluye datos ambientales recopilados mediante sensores en territorios Indígenas, datos genéticos usados en investigaciones de salud, y datos culturales almacenados en plataformas digitales. Ningún uso de datos o patrimonio Indígena debería ocurrir sin el Consentimiento Libre, Previo e Informado (CLPI).
Cuando los sistemas de IA extraen, procesan y monetizan el conocimiento Indígena sin CLPI, no son innovadores, son coloniales. Perpetúan siglos de explotación bajo el disfraz del progreso. Esto es colonialismo de datos, y sus efectos no son menos destructivos que la extracción física de recursos que lo precedió.
Los problemas éticos de la IA no terminan con los datos. La infraestructura que la alimenta —centros de datos masivos, minería de tierras raras, y computación intensiva en energía— tiene un impacto ambiental directo. Entrenar un gran modelo de IA consume tanta energía como cinco automóviles durante toda su vida útil. Estos costos ambientales son invisibles, pero los asumen de manera desproporcionada las tierras y aguas de las que dependen los Pueblos Indígenas.
Justicia ambiental
El Artículo 25 de la UNDRIP reconoce la relación espiritual y física entre los Pueblos Indígenas y sus territorios. El Artículo 29(2) prohíbe el almacenamiento o eliminación de materiales peligrosos en tierras Indígenas sin consentimiento. Sin embargo, pocos desarrolladores tecnológicos o gobiernos evalúan las externalidades ambientales de la IA en territorios Indígenas. Ya sea la extracción de litio para baterías o las represas hidroeléctricas para alimentar centros de datos, la economía digital está expandiendo las fronteras coloniales de recursos, muchas veces sin regulación ni reparación.
Si la IA quiere ser verdaderamente sostenible, no basta con predecir el cambio climático: debe dejar de contribuir a él.
Transformación Indígena de la IA
Frente a estos riesgos, los Pueblos Indígenas no están retrocediendo frente a la tecnología. Están liderando su transformación. En todo el mundo, jóvenes, ancianos y tecnólogos Indígenas están co-creando IA que refleja sus valores, leyes y cosmovisiones.
En Aotearoa (Nueva Zelanda), iniciativas lideradas por los Māori como Te Hiku Media han construido modelos de lenguaje gobernados por la ley Māori (tikanga), asegurando que los datos permanezcan en manos Indígenas. En América del Norte, el Grupo de Trabajo de IA Indígena ha publicado protocolos basados en valores como la relacionalidad, el consentimiento y la rendición de cuentas hacia la tierra. En Kenia, el Proyecto de Lengua Maasai con IA está co-desarrollando herramientas para la revitalización del idioma maa, con los ancianos guiando cada paso del proceso.
Estos no son solo proyectos digitales. Son actos de soberanía. Encarnan lo que el Artículo 18 de la UNDRIP exige: el derecho de los Pueblos Indígenas a participar en la toma de decisiones “a través de representantes elegidos por ellos mismos conforme a sus propios procedimientos.” Estos esfuerzos no se tratan simplemente de inclusión. Se trata de jurisdicción Indígena sobre el diseño, implementación y gobernanza de las tecnologías emergentes.
Si la IA va a servir a la humanidad de manera equitativa, los Pueblos Indígenas no deben ser participantes simbólicos. Deben ser co-creadores de las reglas, sistemas y tecnologías que moldean sus vidas. Esto significa involucrarlos desde el inicio de los proyectos de IA, no después. Significa financiar el desarrollo tecnológico liderado por Indígenas, apoyar a instituciones de investigación indígenas e incorporar una ética culturalmente fundamentada en las políticas públicas de IA.
Los gobiernos deben alinear sus estrategias de IA con la UNDRIP. Las empresas tecnológicas deben adherirse a los Principios CARE para la Gobernanza de Datos Indígenas: Beneficio Colectivo, Autoridad para Controlar, Responsabilidad y Ética. Organismos internacionales como la UNESCO y el Consejo de Ética de la ONU sobre IA deben crear mecanismos dedicados para garantizar representación y supervisión indígena en la gobernanza global de la IA.
Sin estos pasos, la IA será otro dominio más donde se discuten los derechos Indígenas, pero nunca se respetan.
Conclusión
Al conmemorar el Día Internacional de los Pueblos Indígenas 2025, se nos llama no solo a reflexionar, sino a actuar. La IA no es solo una tecnología. Es un sistema de valores, un nuevo ámbito de gobernanza y una frontera de poder en rápida expansión. Si no somos intencionales, reproducirá las mismas jerarquías que promete desmantelar.
Pero el futuro aún no está escrito. Si así lo decidimos, la IA puede ser una herramienta de resurgimiento, una que preserve lenguas, proteja tierras y amplifique la sabiduría ancestral. Esto requerirá gobernanza ética, responsabilidad legal y liderazgo indígena en todos los niveles.
Seamos claros: el futuro ético de la IA no está en Silicon Valley, está en el conocimiento colectivo, los valores y la soberanía de los Primeros Pueblos del mundo.
En este día, y en todos los que siguen, no solo defendamos los derechos Indígenas, sino que también elevemos las visiones indígenas del futuro.
Porque la pregunta ya no es si los Pueblos Indígenas serán parte del mundo digital, sino si el mundo digital podrá volverse lo suficientemente justo como para merecerlos.