Descolonizando la
“Ética de la Inteligencia Artificial”*

Jonathan Piedra Alegría

Universidad Nacional, Costa Rica

Universidad de Salamanca, España

jonathan.piedra.alegria@una.cr

1. Contextualizando el debate

Ordinariamente, existen dos propuestas sobre cómo se deberían abordar los problemas procedentes de la implementación de la IA: (I) Un enfoque regulatorio duro (hard law) que busca la creación de un marco legal adecuado a los problemas propios de la IA, en cuanto a su investigación, desarrollo y utilización. Desde esta orientación es indispensable la creación de normas, leyes o reglamentos claros que definan el espacio de acción de las tecnologías de IA, así como la responsabilidad derivada de los posibles daños que puedan ocasionar. Para esto es necesario la participación del Estado (y organismos supranacionales) en la promoción de políticas públicas, así como de su efectivo cumplimiento. Un ejemplo de esta posición se encuentra en la propuesta china sobre IA del año 2017 —“New Generation Artificial Intelligence Development Plan” (AIDP)—. Teniendo como base este plan, dos años después —2019—, 19 municipalidades en China formularon 26 estrategias y políticas relacionadas con AI, con tal de cumplir con los objetivos propios de cada municipio (China New Generation Artificial Intelligence Development Report —2019—), pero siempre en consonancia con la propuesta general del país.

Frente a esta posición dura, se encuentra (II) un enfoque suave (soft law) basado en recomendaciones, declaraciones, manifiestos o propuestas que no tienen la fuerza vinculante, ni coactiva de la Ley, pero que pueden servir como elementos para mantener abierto el debate sobre la regulación y generar orientaciones que puedan ubicar los debates en ciertos aspectos de interés. Este rumbo es que ha tomado la Unión Europea (i.e Directrices Éticas para un IA fiable), los Estados Unidos (i.e Preparation for the Future of Artificial Intelligence) o Rusia (Кодекс этики в сфере —Código Ético de la Inteligencia Artificial—) por mencionar algunos casos.

El primer enfoque (I) es una discusión básicamente legal, dirigida por abogados, juristas o por policymakers. Desde esta posición, los dilemas y problemas de las tecnologías disruptivas son un asunto que se puede resolver con el cumplimiento de las normales legales existentes y en caso de que no fuera así, con la creación de nuevas. Mientras que la segunda postura (II) sería fundamentalmente un acercamiento ético conducido por filósofos especialistas en esta área, filosofía política e incluso académicos en general. Esta visión ha mostrado ser en los últimos años la que ha tenido mayor desarrollo. Desde esta posición, los problemas normativos de la IA no son únicamente aspectos jurídicos que se deban resolver exclusivamente con las herramientas de los sistemas legales. Es necesario indicar, que esta perspectiva no implica el desarrollo de alguna propuesta regulatoria concreta, ni un posicionamiento claro con respecto al tipo de marco normativo necesario, sin embargo, esto no ha impedido que bajo el nombre de “Ethical guidelines” en el año 2019 se pudieran encontrar 89 documentos de este tipo (Jobin et al. 2019). Llegando casi a duplicarse (más de 167 Guías Éticas sobre IA) en el año 2020 (Algorithm Watch 2020). Esto podría deberse a dos motivos: En primer lugar, debido al lobby e influencia de las grandes compañías privadas que dominan el campo de la IA. Es bastante conocido que muchas de ellas consideran que la regulación es inadecuada, en vista de que limita la innovación debido a una falta del conocimiento de la realidad tecnológica y de las dinámicas mercantiles. Por lo que la regulación dura se presenta como un obstáculo. Un ejemplo de esto, lo podemos encontrar en las propuestas empresariales, las cuales se basan en la idea de la autorregulación. Es decir, en que las mismas empresas se impongan lineamientos éticos que sirvan como base para de sus prácticas comerciales. En un contexto práctico, la autorregulación empresarial, es solo una forma de distracción que tiene como finalidad aparentar preocupación social (Piedra 2021a), pero con poca o ninguna incidencia real en los problemas que pretenden solucionar. Con el agravante de que retrasan la verdadera regulación, ubican los debates éticos en problemas generalísimos y en los casos que no es así, no existen soluciones técnicas concretas o viables.

El otro motivo que podría explicar la “explosión” de estas Ethical guidelines se encuentra en la base de un problema jurídico conocido como el “Regulatorisches Trilemma” (Teubner 1984). El Trilema es un modelo teórico socio-jurídico utilizado para identificar disfunciones sistémicas derivadas de la falta de armonía en la articulación estructural entre las esferas del Derecho, la Política y la Sociedad. Teniendo como resultado fallas regulatorias. Una de las premisas de este modelo es que la legitimación de las normas legales se consigue en una etapa reflexiva de los ordenamientos jurídicos, en donde por medio de una regulación indirecta (basada en la auto referencialidad de los sistemas sociales) se logra la regulación de las actividades de esta misma sociedad. A partir de esto, se infiere que una regulación excesiva, puede traer efectos inesperados creando nuevas disfunciones sistémicas.

Este sería precisamente uno de los principales problemas de los enfoques hard law. La regulación de la IA necesita una comprensión que va más allá de las formales clásicas de la legislación tradicional. Un acercamiento únicamente formal, podría destruir el sistema intervenido debido a una regulación excesiva. En el caso de la IA, este problema implica que la aplicación de una “normativa excesiva” podría provocar efectos secundarios inesperados debido a su carácter obligatorio. Una extensiva y detallada regulación de esta figura (i.e regulación estatutaria) podría no resultar ser adecuada para una tecnología como la IA, en donde los cambios ocurren muy rápidamente o en los cuales se requiere un alto grado de creatividad para su desarrollo. Desde esta posición, se puede concluir que la solución más adecuada para los problemas normativos de la IA se encuentra en normas menos directas (i.e normas éticas), ya que no es adecuado introducir normas rígidas en un área que se encuentra en constante cambio y transformación. Otra conclusión derivada de esta argumentación es que son las mismas empresas y compañías tecnológicas las que deberían dentro de su propia lógica solucionar los problemas de la IA, dejando el papel fuerte estatal en un plano secundario. Este acercamiento, se parece, mutatis mutandis, a la propuesta autorregulatoria de las grandes compañías. Aunque a diferencia del enfoque empresarial, el papel estatal no es innecesario ni un obstáculo en sí mismo, pero no debería ser la primera opción para corregir las contrariedades de la IA. Es así, como muchas de las orientaciones o Guías éticas (GE) sobre la IA pueden entenderse a partir de este contexto.

2. Una ética colonizada: Crítica al modelo principialista.

Este problema explica en parte la enorme cantidad de iniciativas públicas sobre la “Ética de la IA” (EIA) que han surgido recientemente. La otra parte de la explicación se encuentra en el deseo de las empresas privadas por evadir la verdadera regulación (Floridi 2019), centrando la discusión en soluciones técnicas que no abordan el fondo de los problemas o dirigiendo la atención sobre problemas abstractos (Wagner 2018) que parecen orientarse más a encontrar motivos para evitar la regulación, que servir como una verdadera guía o lineamientos sobre estos temas. En ambos casos, muchas de estas GE se caracterizan por una serie de propuestas vagas e indeterminadas que poco aportan a la creación de un verdadero marco de gobernanza.

Nuestro argumento se centra en que esto se debe, primordialmente, a que estos documentos se encuentran llenos de declaraciones generales, basadas en un enfoque principalista que sigue la tradición clásica anglosajona de la bioética (Floridi et al. 2018). Si bien, este modelo puede tomarse como la versión más célebre de una ética aplicada, no necesariamente es la más adecuada, ni tampoco la más conveniente para un “contexto global” en la IA.

Para comenzar, es necesario decir que los principios clásicos de la propuesta de Beauchamp y Childress redujeron la Bioética al ámbito biomédico exclusivamente. Particularmente la propuesta inicial de Potter (1971) quedó reducida a una serie de temas morales relacionados con la investigación biomédica, ajustados a lo que luego se conoció como el “Georgetown mantra”, en vista de la repetición mecánica (Clouser y Gert 1990) de estos cuatro principios, para resolver cualquier conflicto. Sustituyendo las teorías éticas e incluso invisibilizando propuestas morales alternativas. Una situación similar sucede en la EIA. En vista del éxito de este modelo, prácticamente todas las GE sobre la IA, se basan en este sistema orientado a unos pocos principios.

Los principios propiamente éticos que se mencionan en estas GE1 son, por lo general, muy pocos (debido a la influencia del modelo bioético) y cuando no lo son, es porque se presentan como versiones reiteradas de un mismo elemento, así como aclaraciones y/o extensiones de una idea o un tema central, por lo que aun cuando en un primer acercamiento parezca que se muestran una amplia gama de principios2, lo cierto es que se resumen a una pequeña lista que incluye: respeto por la autonomía (humana), prevención (o reducción) del daño, justicia y explicabilidad. En este último caso, la “explicabilidad” se muestra como un principio independiente, a pesar de que es habitual encontrarlo en una relación de dependencia con los principios de responsabilidad o la transparencia. La “transparencia” aparece como un quinto principio ético, aunque en este caso, lo que significa propiamente difiere según el documento en el que aparezca. Tampoco es extraño encontrar a la “privacidad” como un sexto principio. No obstante, en este caso, y aún a pesar de su supuesta autonomía frente al resto de principios, se encuentra intrínsicamente relacionado con la justicia y la prevención del daño.

Generalmente, estas GE implican una breve presentación de conceptos y algunos usos de la IA de manera superficial con tal de “explicar” estos principios. La mayoría de estas GE tiene estructuras muy definidas a partir de las cuales describen los temas. Por ejemplo, la mayoría se basan en un contenido probatorio, el cual tiene como objetivo principal mostrar los beneficios que brinda el uso concreto IA (i.e el documento francés “How can humans keep the upper hand? Report on the ethical matters raised by AI algorithms”). En ocasiones también presentan algunos problemas que podrían ocurrir o han ocurrido debido al mal uso de la IA (i.e Artificial Intelligence Ethics and Principles, and toolkit for implementation de los Emiratos Árabes Unidos). Finalmente, un número mucho menor de GE tiene un contenido resolutivo. La característica de este tipo de contenido se basa en la mejora real de un servicio o actividad a través de la IA, pero también ciertas limitaciones para tener en cuenta a la hora de desarrollar la IA. (i.e “A guide to using Artificial Intelligence in the public sector” del Reino Unido). A pesar de esto, ciertamente en la gran mayoría de estas GE solo encontramos una exposición vaga e indeterminada de algunos cuantos principios que poco aportan a la creación de un verdadero marco de gobernanza.

Famosas iniciativas privadas como AI at Google: our principles (2018), Perspectives on Issues in AI Governance (también de Google), Some Thoughts on Facial Recognition Legislation (2019) de Amazon, Microsoft AI principles (2019), IA Ethics de IBM, AI Principles (2008) de GE Healthcare o Guidelines for Artificial Intelligence (2019) de Deutsche Telekom, siguen esta línea que hemos expuesto. Lo mismo sucede con otra serie de propuestas públicas. La National Strategy for Artificial Intelligence (2018) de la India, la Australia’s Ethics Framework (2019), Ethical Principles for Artificial Intelligence (2020) del Departamento de Defensa de los Estados Unidos, Principles on Artificial Intelligence (2019) de la OECD o la propuesta de un grupo de expertos de alto nivel sobre IA (constituido por la Comisión Europea en el año 2018) se basan en un sistema de principios para una «IA Fiable». En Rusia, documentos derivados de alianzas público-privadas como el “Código Ético de la Inteligencia Artificial” (Кодекс этики в сфере искусственного интеллекта) plantean el mismo enfoque principialista que estamos mencionado.

Al igual que con la propuesta de Beauchamp y Childress, el “principialismo de la IA” carece de los elementos necesarios para resolver de manera adecuada las situaciones éticamente complejas que resultan de la interacción de la IA y la sociedad. Especialmente los dilemas relacionados con los Derechos Humanos o las estructuras económicas subyacentes a estas tecnologías. Es particularmente extraño como para una tecnología tan dinámica y cambiante se promueve una lista bastante limitada de principios éticos estáticos, sin criterios operativos o sin siquiera elementos contextualizadores. Como señala Mittelstadt (2019) a diferencia de la Bioética, la EIA de no posee objetivos comunes (basados por ejemplo en un ideal médico), un código deontológico para los profesionales de la IA, alguna metodología para traducir los principios a la práctica o mecanismos legales efectivos de responsabilidad profesional. No obstante, este principialismo parece ser la solución para todos los problemas relacionados con la IA, a pesar de que no existe ninguna fundamentación teórica clara en estas propuestas con la cual se puedan ubicar las soluciones en un marco conceptual que permita abordar los dilemas morales adecuadamente.

Hay que tomar en cuenta que cada principio refleja un ideal y, por lo tanto, cada principio implica un valor determinado. En el caso de la Bioética, estos principios, fueron creados a partir de una base moral común que reflejaba un aspecto particular de la moral de un país concreto: el pragmatismo estadounidense. Holm (1995) considera que este principialismo se encuentra influenciado por lo que él llamó American common-morality, es decir por la moral y la cultura estadounidense de ese momento. Esto mismo sucede en el caso de la EIA. La base de esta ética es una narrativa moral centrada en occidente. Con esto nos referimos a un perspectiva moral y cultural anglo-eurocéntrica basada en criterio liberal del ser humano y en una propuesta ética utilitarista, en la cual subyace una estructura de racionalidad tecno-instrumental consolidada en el sistema capitalista moderno.

Es en esta narrativa en donde se muestra el colonialismo ético de estas propuestas. Por un lado, es bastante pretencioso considerar que una serie de normas (i.e la propuesta europea o estadounidense) sirvan para regular todos los desarrollos mundiales en esta área3, sin tomar en cuenta las características de los problemas que pueden aparecer en otros países. Aquí es donde opera precisamente la colonialidad del saber, ya que esta EIA —universal— funciona como un dispositivo de dominación legitimado por unas dinámicas de control en el ámbito técnico, así como en el aspecto epistemológico. La colonialidad es “[…] es uno de los elementos constitutivos y específicos del patrón mundial de poder capitalista. Se funda en la imposición de una clasificación racial/étnica de la población del mundo como piedra angular de dicho patrón de poder, y opera en cada uno de los planos, ámbitos y dimensiones, materiales y subjetivas, de la existencia cotidiana y a escala social”. (Quijano 2007, 93). Si tomamos al principialismo como una categoría de análisis de construcción occidental se hace claro que la EIA, responde a ciertas reglas sistémicas que articulan de una manera sutil las relaciones entre los centros hegemónicos del conocimiento tecnocientífico y las periferias. Sirva como ejemplo de esto, el número de artículos publicados sobre la IA. Según el Artificial Intelligence Index Report del año 2019, el 86 por ciento de los artículos presentados en conferencias de IA en el año 2018 fueron de autores de Norteamérica (Estados Unidos y Canadá), Europa o Asia oriental. Con respecto a las otras regiones del mundo, menos del 10 por ciento provenían de lugares distintos4. Esto es una muestra de la desigualdad de poder entre el centro hegemónico y periferia en el conocimiento. Es a partir de los centros hegemónicos del conocimiento desde donde se produce una realidad científica y ética, basada como hemos mencionado en el contexto histórico-geográfico del colonialismo/colonialidad (Quijano 2014). Situaciones como estas se agravan en vista de que la mayoría de las editoriales internacionales reconocidas —por este mismo sistema excluyente— se encuentran en América del Norte (principalmente Estados Unidos) y Europa, propagando las creencias, modos culturales, formas morales e ideales centrados en Occidente (Chimakonam 2017). Esto genera, como es de suponer, una serie de distinciones que sirven de líneas limítrofes en cuanto al conocimiento científico. Santos (2010) llama a esto pensamiento abismal. El pensamiento occidental moderno se basa en una serie de distinciones abismales que crean dos universos diferentes: Occidente/Otros-Mundos. Los Otros-Mundos son todas las realidades culturales-morales que son excluidas y que son obligadas a ajustarse a las reglas del mundo occidental. Desde este marco de interpretación, la esfera ética se podría entender desde la imposición de valores anglo-eurocéntricos que se presentan como la única manera de conocer e interpretar la realidad. Esta colonialidad del saber en la IA niega la producción intelectual de otros contextos culturales (femeninos, indígenas, afrodescendientes etc.) como verdadero conocimiento (Walsh 2007). Si bien, en el colonialismo tradicional la negación se daba únicamente por el color de la piel o el lugar de origen, ahora el rechazo es más sutil (pero igualmente xenófobo y racista). Actualmente se presenta bajo el argumento de un saber neutral, objetivo y universal. La ontología nacional e identitaria propia de estas narrativas centradas en occidente toman primacía frente a las demás culturas (Maldonado-Torres 2007) que son simplemente oscurecidas sobre la base de un proyecto ético como el que señalamos. Esto genera una amplia desigualdad en la producción del conocimiento que “[…]se rige por mecanismos epistémicos que le otorgan validación al tipo de sistema social que busca ser implementado como el molde a reproducir en el orbe.” (Maldonado 2018, 41). En el caso de la ética esta distribución desigual del poder obstaculiza y entorpece una participación verdadera de los países de la periferia en las discusiones sobre ética, particularmente con respecto a la IA. Los debates “globales” sobre la ética de esta tecnología, parten de un marco epistemológico limitado en el cual no existe una conversación con otras lógicas culturales que permitan repensar otras alternativas frente a este modelo epistemológico colonial.

3. Éticas-otras

Esto lo podemos ver en el caso del principio de autonomía. Desde la perspectiva kantiana, la autonomía tiene que ver con la capacidad humana de darse sus propias leyes. Esto quiere decir una capacidad de auto legislarse sin someterse a algún elemento externo. Los seres humanos como seres racionales no se encuentran obligados por el cumplimiento de leyes morales impuestas externamente, sino que, por el contrario, “está sometido a su propia legislación” (Kant 2000, §432). En las sociedades liberales-utilitaristas occidentales esto se traduce en una serie de “libertades personales” que priorizan los derechos individuales y la utilidad sobre las relaciones sociales. Sin embargo, esto no sucede necesariamente en las culturas africanas, asiáticas o latinoamericanas. Como ya lo demostró The Moral Machine Experiment (Awad et al. 2018) los valores y elementos en consideración a la hora de tomar una decisión moral difieren fuertemente entre la ética individualista de las sociedades anglo-europeas y de la ética colectivista de los países de Medio Oriente, Asia y África. Desde una ética colectivista, las decisiones no se miden por el interés personal o la maximización de la utilidad, sino que se basan en las necesidades y características del grupo o colectivo. Lo mismo puede decirse del contexto latinoamericano, particularmente desde los valores y tradiciones ancestrales de la población indígena. Tomemos como referencia un caso concreto. En la ética comunitaria del Sumak Kawsay (una teoría moral de Ecuador y Bolivia), lo que se busca es “pensar bien, sentir bien para hacer bien con el objetivo de conseguir la armonía con la comunidad, la familia, la naturaleza y el cosmos” (Lajo 2008). El ser humano no es el centro de todas las decisiones, ni se espera que actúe conforme a una moralidad objetiva (como implica la perspectiva kantiana). La comunidad y las relaciones sociales existen antes que la idea de individuo. La ética del Sumak Kawsay está vinculada a una virtud comunitaria y no a una serie de valores individualistas. El ser humano es un elemento más de la Madre Tierra —Pachamama—. Este modelo busca el buen vivir de los demás y el bienestar de la comunidad, junto con un equilibrio de la naturaleza. Dentro de esta perspectiva, la autonomía incluso toma un matiz regional, ya que la base territorial es un elemento sustancial de la cultura. No podría existir la autonomía sin este elemento étnico-cultural. La perspectiva de una autonomía abstracta de un agente racional —basada en principios— no tiene cabida en un planteamiento como este.

Algo similar sucedería con el concepto de privacidad. Este concepto se usa de manera vaga para referirse a muchas ideas diferentes. No obstante, en el tema de la IA se asocia, grosso modo, a tres temas fundamentales (Tucker 2019) relacionados con los datos personales: La creación y persistencia de los datos en el tiempo, la utilización de estos datos y el derrame de datos. Como vemos, la privacidad está asociada a una esfera personal e individual del ser humano, específicamente en cuanto a su identificación. Esto implicaría que la privacidad es una derivación lógica de la individualidad. Una suposición razonable de esto sería que la autonomía se protege también por medio de la privacidad. Situación que es coherente con una moral individualista. Sin embargo, la noción de privacidad cambia según las distintas tradiciones y contextos sociales. Para las culturas indígenas latinoamericanas tampoco aplica la idea individualista de la privacidad. En este caso, sería más apropiado referirnos a una “privacidad colectiva”. Esto en vista, de que el ser humano se concibe como una totalidad y no como una individualidad aislada. El Todo existe antes que la idea individualidad. “Se trata de un tiempo y de un espacio subjetivado, o sea privado, que se refiere a un hábitat vital, en donde nuestro tiempo y nuestro espacio se funden en el hecho puro de vivir aquí y ahora cuando involucra el tiempo de mi vida, mi oficio, mi familia, y en este lugar, de mi comunidad”. (Kusch 1999, 422) El sentido de identidad se construye desde una base comunitaria y a partir de un sentido de pertenencia originaria con la naturaleza. La vida solo se puede comprender desde la colectividad —sumak kamaña—. Esto implica que la privacidad debe entenderse como un modo de ser social, y particularmente como un fenómeno relacionado con la forma en como los seres (humanos y no humanos) comparten el mundo entre sí.

Otra diferencia entre la posición individualista y la colectiva la encontramos en la visión instrumentalista de la naturaleza presente en la primera postura. En lo que respecta a los documentos de éticos de la IA, el ser humano se presenta como el núcleo del desarrollo de esta tecnología —human-centric approach— (i.e Código Ético de la Inteligencia Artificial de Rusia). Un argumento categórico, pero peligrosamente ambiguo, ya que no es solo evidente que todas las tecnologías deben estar basadas en los intereses y valores humanos, sino además porque casi siempre «“humancentric” seems to be synonymous with “anthropocentric”» (Floridi 2021, 218). Este tipo de pensamiento continua una línea de explotación que solo considera los aspectos ambientales desde el punto de vista de la utilidad. Un antropocentrismo que solo valora a la naturaleza solo como una reserva de materias primas. Esta manera de pensar es la que nos ha metido en todos los problemas ambientales del Antropoceno. La naturaleza se concibe desde un “extractivismo ontológico” (Grosfoguel 2016). Un modo ser propio de estas narrativas centradas en occidente. Una forma de estar en el mundo que solo busca la apropiación y el beneficio. Como claramente lo indican Harle et al (2018, 15) hay “Evident in the progression of modern Western technologies is the drive for power and exploitation.”. Una faceta más del colonialismo propio de la cultura occidental. Cualquier oposición a esta forma del ver el mundo es concebida como “anti-progresista”, y por lo tanto invisibilizada, ridiculizada o lo que es peor, eliminada. En lo referente a la EIA, la naturaleza se aborda desde una instrumentalización que despolitiza y descontextualiza a las diferentes culturas por medio de propuestas —como la principialista— que eliminan los diferentes sentidos y formas de ser o en mejor de los casos, asimilándolas a la matriz cultural moral anglo-europea.

Frente a este instrumentalismo y mercantilización de la naturaleza, podemos utilizar como ejemplo, de nuevo, el Sumak Kawsay como una herramienta decolonial que ha sido utilizada por algunos países sudamericanos como una alternativa al modelo económico capitalista y a su extractivismo ontológico. El buen vivir parte de un desarrollo económico que respeta y que tiene como límite a la Pachamama. En este contexto la naturaleza no es objeto de protección, sino que es sujeto de derechos. Si el clásico antropocentrismo supone una superioridad destructiva del ser humano frente a todo lo demás, el paradigma ético del Sumak Kawsay busca una relación de equilibrio y plenitud con la naturaleza. Una forma armónica de vivir colectivamente basada en la responsabilidad social y no en la explotación del medio ambiente o en el beneficio propio.

La visión ética de estos pueblos revela un sistema unificado de valores, así como un enfoque que muestra una cosmovisión basada en el buen vivir, la cohesión social, la sostenibilidad ambiental, así como el respeto por las tradiciones culturales y la espiritualidad comunitaria. Todos estos elementos deberían ser considerados a la hora de estimar las tensiones normativas y políticas subyacentes en conceptos clave para la IA como la autonomía o la privacidad, por ejemplo. Sin embargo, las iniciativas de la EIA se basan en declaraciones generales en las que aparecen una serie de principios vagos que prometen ser orientaciones para la acción, pero que en la práctica brindan pocas recomendaciones específicas. Si a esto le sumamos que este conjunto de principios está basado en narrativas centradas en modos de vida occidentales (que invisibilizan las posiciones éticas alternativas), la EIA se reduce a una mera selección mecánica y repetitiva de principios que poco aportan en un nivel práctico. Una propedéutica que contribuye muy poco al análisis y comprensión de los actuales fenómenos que se desarrollan en el campo de la IA.

Las perspectivas descolonizadoras nos brindan una mejor comprensión de los aspectos morales y jurídicos que se presentan en la implementación y desarrollo de la IA. Ya que nos permiten reflexionar críticamente sobre los problemas y controversias éticas, políticas, económicas y sociales de los sistemas de conocimientos que se muestran como universales, objetivos o neutros. La incorporación de la producción intelectual de otros contextos culturales, así como la inclusión de diferentes epistemologías y de conocimientos no-occidentalizados nos brindan una gran oportunidad para afrontar los desafíos globales contemporáneos relacionados con la IA. Desafíos que en la actualidad parecen encontrar algunas respuestas (teóricas y abstractas) en un principialismo reduccionista. Es necesario considerar seriamente todo lo que se puede aprender de distintos marcos epistémicos y morales con tal de plantear verdaderas soluciones que incorporen, por ejemplo, a la sustentabilidad social y ambiental en el debate de la EIA. La protección a la cultura (i.e los derechos culturales) o la identidad colectiva son temas que igualmente deben ser considerados no solo para las GE, sino para la EIA en general. Superar estos marcos occidentales de pensamiento e incorporar otras perspectivas éticas, es necesario para contrarrestar todas las prácticas coloniales, los supuestos culturales y los prejuicios dentro de los sistemas occidentales de pensamiento (en este caso el ético). La descolonización de la EIA es un reto más a la narrativa excluyente (anglo-eurocéntrica) que busca invisibilizar, reprimir o silenciar todos conocimientos que no se ajustan a su propio marco epistémico, moral o económico.

4. Conclusiones

Se necesitan más estudios sobre las propuestas éticas de la IA con tal de mostrar las implicaciones políticas y sociales de este tipo documentos (en países latinoamericanos, por ejemplo). No obstante, hemos mostrado un problema importante de estas GE: La invisibilización y exclusión de diferentes epistemologías, así como de conocimientos no-occidentalizados en lo relacionado con axiologías culturales alternativas. La EIA se encuentra atascada en una ruta estrecha que tiene poco espacio para la diversidad de pensamiento o el debate ético basado en conocimientos y cosmovisiones alternativas. La propuesta de la autorregulación empresarial tampoco es la solución, ya que no busca un cambio real y lo único que hace es postergar un auténtico debate sobre cuestiones primordiales (Piedra 2021a).

El verdadero potencial de las GE desaparece en un discurso que intenta imitar el principialismo bioético, sin tomar en cuenta sus limitaciones, o sin siquiera considerar la características sociales, culturales o estructurales de los países en los cuales se busca desarrollar e implementar las tecnologías de IA.

Las implicaciones de esto son claras. Se deben repensar desde un marco decolonial conceptos como privacidad, autonomía o el manejo de datos, entre muchos otros tópicos. Temas como la robótica social, por ejemplo, plantean desafíos particulares (Piedra 2021b) que ocupan mucha investigación empírica adicional, así como un debate que tenga presente y valore múltiples contextos que sirvan para integrar diversos puntos de vistas, así como diferentes propuestas éticas. Es necesario legitimar y reconocer posiciones epistemológicas y morales diferentes a la perspectiva universalista anglo-eurocéntrica. Es ineludible una conversación verdaderamente global sobre la IA, en donde no se marginalice el conocimiento no-occidental. Para esto es preciso que las recomendaciones o GE tengan en cuenta los contextos y las peculiaridades de los diferentes grupos sociales. Esto solo será posible si en los comités y órganos que debaten estos temas, se conformen grupos interdisciplinarios con personas de muy distintos orígenes y condiciones vitales.

Esto propone un reto doble para la EIA: En primer lugar, es necesario la descolonización epistémica de las propuestas teóricas con pretensión universal. Habilitar el conocimiento de otras subjetividades y otros espacios geográficos, ampliando así los relatos anglo-eurocéntricos respecto a la EIA que constantemente se reproducen como los únicos marcos cognoscitivos válidos. Un aspecto muy importante es el acceso y participación en las plataformas científicas con tal de poder visibilizar paradigmas alternativos. Los investigadores de la “periferia epistémica” con tal visibilizar sus ideas se ven obligados a publicar en editoriales internacionales (que solo publican en inglés) que posean altas “tasas de impacto”5, pero poco espacio para posiciones distintas a las anglo-eurocéntricas o que de hecho no tienen ningún interés por los saberes alternativos. Como muy acertadamente lo mostraron Halffman y Radder (2015), este tipo de prácticas (aun dentro del mismo “centro epistémico”) ni siquiera garantizan la calidad y lo que, de hecho, provocan es que “They ignore and destroy the variety of knowledge forms and practices in various fields of study” (Halffman y Radder 2015, 167). En América Latina, por ejemplo, a pesar de que existen muchos medios alternativos de excelente nivel, estos no están legitimados por la institucionalidad, lo que produce una especie de crisis en el conocimiento. Es necesario dedicarles más recursos financieros a estos medios alternativos, así como a las investigaciones provenientes de estos espacios excluidos.

Esto nos lleva al segundo reto: la dimensión praxeológica (Maldonado 2018). Descolonizar la EIA implica también, una reflexión sobre el poder. Se debe trabajar en la crítica de la base socioeconómica de estas propuestas, la tendencia al monopolio de las empresas y las condiciones materiales que implica el uso de la IA. La atención no debe centrarse únicamente en el aspecto tecnológico. También hay que repensar las actuales condiciones estructurales, ambientales y económicas en la cuales se basan estas tecnologías.

Finalmente, es claro que una serie de principios (cualesquiera que sean) no pueden garantizar por sí solos la EIA. Frente a esto, los acercamientos no reduccionistas, interculturales y decoloniales serían beneficiosos para generar soluciones o paradigmas alternativos que promuevan contribuciones epistémicas diferentes. Generando un verdadero debate global sobre todos estos temas.

Referencias

Algorithm Watch. (2020). AI Ethics Guidelines Global Inventory. Algorithm Watch. https://inventory.algorithmwatch.org/

Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., et al. (2018). The moral machine experiment. Nature, 563(7729), 59-64. https://doi.org/10.1038/s41586-018-0637-6

Brussels Bureau (2021). US-EU need to write the rules for new technologies ‘before China’. Retrieved 18 June 2021, from https://www.euronews.com/2021/06/15/us-and-eu-need-to-write-the-rules-for-new-technologies-before-china-says-us-secretary-raim

CEPAL. Comisión Económica para América Latina y el Caribe. (2004). Retrieved 25 May 2022, from https://www.cepal.org/es/comunicados/america-latina-caribe-rezagada-investigacion-desarrollo

Chimakonam, J. O. (2017). African philosophy and global epistemic injustice. Journal of Global Ethics, 13(2), 120-137. https://doi. org/10.1080/17449626.2017.1364660

Clouser KD, Gert B. (1990) A critique of principlism. Journal of Medicine and Philosophy 15 (2):219-236  https://doi :10.1093/jmp/15.2.219

Fjeld, Jessica, Nele Achten, Hannah Hilligoss, Adam Nagy y Madhulika Srikumar. (2020) “Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI.” Berkman Klein Center for Internet & Society. https://doi.org/10.2139/ssrn.3518482

Floridi, L. (2019). Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical. Philosophy & Technology, s13347-019-00354-x. https://doi.org/10.1007/s13347-019-00354-x

Floridi, L. (2021) The European Legislation on AI: a Brief Analysis of its Philosophical Approach. Philosophy & Technology. :1-8 DOI: 10.1007/s13347-021-00460-9 

Floridi, L., Cowls, J., Beltrametti, M. et al. (2018). AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds & Machines 28689-707. https://doi.org/10.1007/s11023-018-9482-5

Harle, J; Abdilia, A y Newman, A (eds) (2008). Decolonising the Digital: Technology as Cultural Practice. Old Ways, New. Sidney. Australia.

Grosfoguel, R. (2016). Del extractivismo económico al extractivismo epistémico y al extractivismo ontológico: una forma destructiva de conocer, ser y estar en el mundo. Tabula Rasa, nº 24, pp. 123-143.

Halffman, W., y Radder, H. (2015). The Academic Manifesto: From an Occupied to a Public University. Minerva, 53(2), 165-187. doi:10.1007/s11024-015-9270-9 

Holm, S. (1995). Not just autonomy--the principles of American biomedical ethics. Journal of Medical Ethics, 21(6), 332-338. doi:10.1136/jme.21.6.332 

Jobin, A., Ienca, M., y Vayena, E. (2019) “The global landscape of AI ethics guidelines.” Nature Machine Intelligence, 1(9): 389-399. DOI:10.1038/S42256-019-0088-2

Jonsen AR. (2003) The birth of bioethics. New York, Oxford University Press.

Kant, I. (2000). Lógica. Un manual de lecciones. Madrid, Akal.

Kusch, Rodolfo (1999). Obras completas II. Rosario, Santa Fe: Editorial Fundación Ross.

Lajo, J (2008) ¿Qué dice el Sumaj Kawsay? La escuela indígena de “Qhapaj Ñan”. ¿Qué dice el Sumaj Kawsay? La escuela indígena de “Qhapaj Ñan”. Retrieved 14 June 2021, from https://sumakkawsay.tieneblog.net/?p=1988

Maldonado, C. (2018) De-colonialidad en la era tecnomediática. Ediciones CIESPAL.

Maldonado-Torres, N. (2007). Sobre la colonialidad del ser: contribuciones al desarrollo de un concepto. En S. Castro-Gómez y R. Grosfoguel (eds.) El giro decolonial. Reflexiones para una diversidad epistémica más allá del capitalismo global (pp. 127-167). Bogotá: Iesco-Pensar-Siglo del Hombre Editores.

Mittelstadt, B. Principles alone cannot guarantee ethical AI. Nat Mach Intell 1501-507 (2019). https://doi.org/10.1038/s42256-019-0114-4

ONU (2018). El racismo, un obstáculo para el desarrollo en América Latina. (2018). Retrieved 25 May 2022, from https://news.un.org/es/story/2018/08/14406

Piedra, J. (2021a) Venditio fumi: Autorregulación Empresarial e Inteligencia Artificial. Sincronía. Año XXVI / Número 81. Enero-junio. DOI: 10.32870/sincronia.axxvi.n81.12a22

Piedra, J. (2021b). El despertar de los robots (sociales). En: Luces en el camino: filosofía y ciencias sociales en tiempos de desconcierto. España. Editorial Dykinson S.L. ISBN 978-84-1377-322-3

Potter, V.(1971). Bioethicsbridge to the future. New Jersey: Prentice-Hall

Quijano, A. (2000). Colonialidad del poder, eurocentrismo y América Latina. En E. Lander (ed.) La Colonialidad del saber: Eurocentrismo y Ciencias Sociales. Perspectivas Latinoamericanas (pp. 201-245). Caracas: CLACSO.

Quijano, A. (2007). Colonialidad del poder y clasificación social. En: S. Castro-Gómez & R. Grosfoguel (eds.) El giro decolonial. Reflexiones para una diversidad epistémica más allá del capitalismo global (pp. 93-126). Bogotá: Iesco-Pensar-Siglo del Hombre Editores.

Quijano, A. (2007). Colonialidad del poder y clasificación social. En: S. Castro-Gómez y R. Grosfoguel (eds.) El giro decolonial. Reflexiones para una diversidad epistémica más allá del capitalismo global (pp. 93-126). Bogotá: Iesco-Pensar-Siglo del Hombre Editores.

Quijano, A. (2014). Cuestiones y horizontes: de la dependencia histórico estructural a la colonialidad/descolonialidad del poder. CLACSO.

Santos, B. (2010). Para descolonizar Occidente. Más allá del pensamiento abismal. Buenos Aires, CLACSO.

Springboard (2020). Tech Companies’ Investment in R&D Pushes the U.S. Economy Forward - (2020). Retrieved 25 May 2022, from https://springboardccia.com/2020/03/26/tech-companies-investment-in-rd-pushes-the-u-s-economy-forward/

Steering Commitee (2019). Artificial Intelligence Index Report 2019 Steering Commitee https://hai.stanford.edu/sites/default/files/ai_index_2019_report.pdf

Teuber, G. (1984). Das regulatorische Trilemma. Zur Diskussion um post-instrumentale Rechtsmodelle. Quaderni fiorentini per la storia del pensiero giuridico moderno. Vol. 13, Nº. 1. 109-149

Tucker, C (2018). “Privacy, Algorithms, and Artificial Intelligence,” NBER Chapters, in: The Economics of Artificial Intelligence: An Agenda, pages 423-437, National Bureau of Economic Research, Inc.

Wagner, B. (2018). Ethics As an Escape From Regulation.: From “Ethics-Washing” To Ethics-Shopping? In Bayamlioğlu E., baraliuc I., Janssens L., y Hildebrandt M. (Eds.), Being Profiled: Cogitas Ergo Sum: 10 Years of Profiling the European Citizen (pp. 84-89). Amsterdam: Amsterdam University Press. doi:10.2307/j.ctvhrd092.18

Walsh, Catherine (2007). ¿Son Posibles Unas Ciencias Sociales/culturales Otras? Reflexiones En Torno a Las Epistemologías Decoloniales. Nómadas (26): 102-113.

Notas al final

1. Información obtenida de “AI Ethics Guidelines Global Inventory” de AlgorithmWatch. Hasta la fecha, al menos 145 de estas iniciativas de EIA han creado documentos que describen principios éticos, valores o posturas generales para el desarrollo y la implementación de la IA.

2. Por ejemplo, el “principio de no discriminación” está muy relacionado con el principio de justicia. Es normal encontrarlos en una relación de género y especie.

3. Tal como y lo dijo la secretaria de Estado Unidos, Gina Raimondo (Brussels Bureau 2021).

4. Ciertamente, esto se debe a una gran variedad de factores. Quizá, el más evidente es que estas regiones poseen más recursos económicos, lo que les permite esta acumulación de poder y conocimiento. Por ejemplo, según un informe del año 2004 de la Comisión Económica para América Latina y el Caribe (CEPAL) en Latinoamérica solo se invierten en I+D el 0,5 por ciento del su producto interno bruto (PIB). Frente a un 2,5 y 3 por ciento del PIB de Estados Unidos o Japón. Así como los 2 puntos porcentuales que le dedica la Unión Europea a estos asuntos (CEPAL 2004). Estos montos se quedan cortos frente a los 65.000 millones de dólares americanos que solamente en el año 2018, las empresas Amazon, Alphabet, Microsoft, Apple e Intel, invirtieron en investigación y desarrollo (Springboard 2020). Pero si bien esto es un factor importante, no es el único. Los países de la “periferia del conocimiento” son países con una larga tradicional colonial que pervive aún hoy. El racismo sistémico, la xenofobia, la violencia estructural y social, las condiciones de empobrecimiento (que entre otras cosas provocan una gigantesca “fuga de cerebros”), las migraciones forzadas o la presencia de una cultura fuertemente machista son temas que influyen en perpetuar estas relaciones coloniales entre los centros hegemónicos del conocimiento tecnocientífico y su relación con las periferias. Por ejemplo, en América Latina “Debido a su exclusión y discriminación los afrodescendientes tienen casi tres veces más posibilidades de vivir en la pobreza, tienen menos acceso a la educación y al empleo y están poco representados en cargos de toma de decisiones.” (ONU 2018). Estos problemas sociales y políticos no pueden desvincularse de los motivos por los cuales existe una concentración en el conocimiento tecnocientífico.

5. Esto no solo pasa en la periferia, sino también en los países del “centro” del conocimiento. Por ejemplo, “In the Netherlands, counting output started off with the number of publications, then international publications, after which only English-language publications counted, thereafter articles in high-impact journals, and eventually often-cited publications (leading to a high ‘h-index’).” (Halffman y Radder 2015, 167).