El conocimiento es poder. Tu aportación cuenta.
¿Por qué es la inteligencia artificial una cuestión emergente?
La industria de la inteligencia artificial (IA) está creciendo a una velocidad imparable. Los países compiten para ganar la "carrera de la IA". El presidente ruso, Vladimir Putin, cree que la nación que salga victoriosa "gobernará el mundo". La empresas están invirtiendo miles de millones de dólares para asegurarse la mayor cuota de mercado. Las simulaciones muestran que para 2030 cerca del 70% de las empresas habrán adoptado algún tipo de tecnología de IA. La razón es sencilla. Ya sea para modelar el cambio climático, seleccionar candidatos para un puesto de trabajo o predecir si alguien va a cometer un delito, la IA puede sustituir a los humanos y tomar decisiones de forma más rápida y barata.
Sin embargo, los sistemas de IA suponen una amenaza para nuestros derechos fundamentales. Por ejemplo, los que moderan los contenidos en las plataformas de las redes sociales pueden restringir la libertad de expresión de manera injusta e influir en el debate público. Las tecnologías de vigilancia masiva biométrica violan nuestro derecho a la privacidad y desalientan la participación democrática. Los algoritmos se basan en conjuntos masivos de datos personales, cuya recopilación, procesamiento y almacenamiento a menudo viola nuestros derechos de protección de datos. El sesgo algorítmico puede perpetuar las estructuras de desigualdad existentes en nuestras sociedades y suponer una mayor discriminación y alienación de las minorías. Un ejemplo de ello son los algoritmos de contratación (que se utilizan para seleccionar candidatos) que suelen preferir a los hombres sobre las mujeres y a las personas blancas sobre las negras, porque los datos de los que se alimentan dicen que los "candidatos exitosos" suelen ser hombres blancos.
Estos problemas se ven agravados por la complejidad de la IA. Aún no sabemos bien cuáles son los posibles riesgos que los sistemas de IA pueden implicar para nuestras sociedades. Jenna Burrell, investigadora de la Universidad de California, ha identificado tres tipos de opacidad de estos sistemas. Los que se mantienen intencionadamente opacos, porque las empresas o los Estados quieren mantener secretos. Los que son consecuencia del analfabetismo técnico, porque son demasiado complicados para que la sociedad en general los entienda. Y los que surgen de las complejas características de los algoritmos de aprendizaje automático. Es decir, aquellos que ni siquiera los programadores acaban de entender o captar.
Juntos podemos exigir responsabilidades a las grandes tecnológicas.
Al igual que tú, nos indigna que se sacrifiquen los derechos humanos para que las Big Tech puedan maximizar sus beneficios. Únete a Liberties para que la IA sea segura para todas las personas.
Ayuda a Liberties a plantarle cara a las grandes tecnológicas y a los gobiernos del Gran Hermano.
Nuestro equipo de personas expertas en IA está presionando a la UE para que proteja tus derechos de los riesgos derivados de la misma. Pero los lobbies de las empresas de IA, sobradamente financiados, están logrando convencer a los responsables políticos para que limiten estas garantías. En tanto que observatorio pequeño e independiente, esta lucha es como la de David contra Goliat. Pero no podemos permitir que el lucro triunfe sobre los derechos humanos. Refuerza Liberties realizando una aportación hoy mismo.
Para prevenir o protegernos de estas amenazas, se debe regular la IA. A día de hoy, aún no se ha diseñado en ningún lugar un sistema de leyes que regulen específicamente el uso de la IA, permitiendo así que muchas empresas desarrollen sistemas que pueden generar daños a las personas con el fin de lucrarse. Algunos de estos sistemas ya existen y se utilizan. Debido a la falta de transparencia de las autoridades, a menudo no lo sabemos. Las fuerzas policiales de toda la UE utilizan tecnologías de reconocimiento facial y sistemas de policía predictiva. Como explicamos en otro artículo, estos sistemas contienen obligatoriamente un sesgo y, por ende, perpetúan la discriminación y la desigualdad.
En este artículo analizamos por qué es preciso regular el uso de la IA, qué tipo de regulación existe ya, qué debería contener una regulación y de qué depende el futuro de la misma.
¿Por qué es preciso regular la IA?
Debemos regular la IA por dos razones fundamentales. En primer lugar, porque gobiernos y empresas la utilizan para tomar decisiones que pueden generar un impacto significativo en nuestras vidas. Por ejemplo, los algoritmos que calculan el rendimiento escolar pueden tener un efecto devastador. En Reino Unido, el secretario de Estado de Educación utilizó un algoritmo para determinar la nota del examen final de los estudiantes de todo el país. El resultado: casi el 40 por ciento de los estudiantes recibieron notas más bajas que las emitidas previamente por sus profesores. Pero el algoritmo no solo era inexacto, sino que además favorecía a los alumnos de los colegios privados frente a los de los públicos. La IA también ha mostrado sus limitaciones en el sector privado. En otro caso, una tarjeta de crédito introducida por el gigante tecnológico Apple ofrecía límites de crédito más bajos para mujeres que para hombres. Los sistemas de IA que calculan la probabilidad de reincidencia y determinan la duración de las penas de prisión de las personas acusadas pueden alterar significativamente la vida de una persona. Sin una regulación adecuada, los sistemas tienen más probabilidad de ser inexactos y sesgados, ya que las empresas tienen menos incentivos para invertir en medidas de seguridad y garantizar la calidad y la imparcialidad de sus datos.
En segundo lugar, porque siempre que
alguien toma una decisión que nos afecta, tiene una responsabilidad sobre la misma, debe rendir cuentas
ante nosotros. La legislación de derechos humanos
establece unas normas mínimas que todo el mundo reconoce y puede esperar y otorga a todas las personas el derecho a recurrir cuando se incumplen y se sufre un daño. Teóricamente, los gobiernos deben garantizar el respeto de estas normas y de que toda persona que las
infrinja tiene que rendir cuentas, normalmente a través del derecho
administrativo, civil o penal. Esto significa que todo el mundo,
incluidas las empresas y los gobiernos, tienen que seguir ciertas
normas a la hora de tomar decisiones. Cuando alguna persona se salta las normas
acordadas y perjudica a otra, debe responder por ello. Sin embargo, ya existen indicios de que las empresas que
están detrás de la IA pueden eludir la responsabilidad de los
problemas que causan. Por ejemplo, cuando en 2018 un coche autónomo de Uber mató a una peatona, al principio no estaba claro
quién sería el responsable. ¿El fabricante del coche, Uber o la
persona que iba en el coche? A pesar de que los investigadores descubrieron
que el coche tenía
problemas de seguridad (no tenía en cuenta a los
peatones que cruzaban la calle por lugares que no fueran pasos de cebra), Uber fue declarado "
sin responsabilidad penal". Fue la persona al volante quien fue acusada de homicidio por negligencia, ya que estaba viendo un
episodio de un programa de televisión.
¿Qué sabemos de las normativas regionales y nacionales existentes?
Como ya hemos mencionado,
actualmente no existe una legislación específicamente diseñada
para regular el uso de la IA. Más bien, los sistemas de IA se regulan por otras normativas existentes. Entre ellas, las leyes de protección de datos, de protección de los consumidores y
de competencia en el mercado. Sí se han aprobado proyectos de ley
para regular ciertos sistemas específicos de IA. En Nueva York, es
posible que proximamente las empresas tengan que
revelar cuándo utilizan
algoritmos para elegir a sus empleados y varias ciudades de Estados
Unidos ya han prohibido el uso de tecnologías de reconocimiento
facial. En la UE, la Ley de Servicios Digitales tendrá un
impacto significativo en el uso por parte de las plataformas en línea
de algoritmos que clasifican y moderan el contenido,
predicen nuestras preferencias personales y, en última instancia,
deciden lo que leemos y vemos, los también llamados
algoritmos de moderación de contenido.
Los gobiernos nacionales y municipales han comenzado a adoptar estrategias y a trabajar en nuevas leyes desde hace varios años, pero aún no se ha aprobado ninguna legislación. China, por ejemplo, desarrolló en 2017 una estrategia para convertirse en líder mundial en IA en 2030. En Estados Unidos, la Casa Blanca publicó diez principios para la regulación de la IA. Entre ellos figuran la promoción de "aplicaciones de IA seguras, sólidas y fiables", la participación pública y la integridad científica. Los organismos internacionales que asesoran a gobiernos, como la OCDE o el Foro Económico Mundial, han elaborado directrices éticas. El Consejo de Europa creó un Comité para desarrollar un marco jurídico para la IA.
Sin embargo, la propuesta más ambiciosa hasta ahora procede de la UE. El 21 de abril de 2021, la Comisión Europea presentó una propuesta de nueva ley sobre IA. El proyecto sugiere que se ilegalice el uso de la IA para fines considerados "inaceptables". Entre ellos, tecnologías de reconocimiento facial, los sistemas que se utilizan para clasificar a las personas en función de su "fiabilidad", y los sistemas que manipulan a las personas o explotan las vulnerabilidades de grupos específicos; por ejemplo, un juguete que utiliza la asistencia por voz para manipular a los niños para que hagan algo peligroso. El enfoque de la propuesta se basa en el riesgo: cuanto mayor sea el riesgo de una determinada utilización de la IA para nuestras libertades, más obligaciones de transparencia tendrá la autoridad o la empresa sobre el funcionamiento del algoritmo y de informar a los reguladores sobre cómo se ha utilizado. Aunque parezca que la Comisión Europea se toma en serio la regulación de los sistemas de IA perjudiciales, en realidad la propuesta antepone lo empresarial a los derechos fundamentales. Aunque la Comisión se jacte de afirmar que ha prohibido la tecnología de reconocimiento facial, la propuesta ofrece lagunas que permiten que las empresas y las autoridades la utilicen. Además, las obligaciones de transparencia para los sistemas de alto riesgo tienen un fallo importante: la tarea de comprobar si la IA implica riesgos se deja en manos de las propias empresas que crean estos sistemas. Son empresas con ánimo de lucro que tienen interés en ver sus productos en el mercado, por lo que es probable que resten importancia a los riesgos.
¿Qué debería contener la regulación de la IA?
Una regulación eficaz de la IA que proteja los derechos debe contener, como mínimo, las siguientes salvaguardas. En primer lugar, debe prohibir las tecnologías que violan nuestros derechos fundamentales, como la vigilancia masiva biométrica o los sistemas de policía predictiva. La prohibición no debe incluir excepciones que permitan que las empresas o a las autoridades públicas las empleen "bajo ciertas condiciones".
En segundo lugar, debe haber normas claras que establezcan exactamente
la información que las empresas tienen que hacer pública acerca de sus
productos, deben proporcionar una descripción detallada del propio
sistema de IA. Desde información sobre los datos que utiliza, el proceso
de desarrollo, la finalidad del sistema y dónde y quién lo utiliza.
También es esencial que las personas expuestas a la IA tengan
información sobre la misma, por ejemplo en el caso de los algoritmos de
contratación. Los sistemas que pueden tener un impacto significativo en
la vida de las personas deberían someterse a un escrutinio adicional y
figurar en una base de datos de acceso público. Esto facilitaría que
investigadores y periodistas puedan comprobar si las empresas y los
gobiernos protegen adecuadamente nuestras libertades.
En tercer lugar, los individuos y organizaciones que protegen a los consumidores deben poder pedir responsabilidades a los gobiernos y a las empresas en caso de que provoquen problemas. Las normas existentes sobre responsabilidad debenadaptarse para reconocer que las decisiones son tomadas por un algoritmo y no por el usuario. Esto podría significar que la empresa que desarrolla el algoritmo tenga la obligación de comprobar los datos con los que se entrenan los algoritmos y las decisiones que toman para poder corregir los problemas.
En
cuarto lugar, la nueva normativa debe garantizar la existencia de un
organismo regulador que compruebe que las empresas y las autoridades
cumplen las normas correctamente. Este organismo de control debe ser
independiente y contar con los recursos y poderes necesarios para hacer
su trabajo.
¿De qué depende el futuro de la
regulación de la IA?
Cuando la UE cree normas sobre IA, probablemente acabará marcando la pauta para el resto del mundo debido a todas las empresas que trabajan y tienen su sede en la UE. Por ello, tiene la gran responsabilidad de hacerlo bien, porque estas normas afectarán la forma en que se utilizan los sistemas de IA en partes del mundo menos democráticas. Por ejemplo, los algoritmos que pretenden predecir la orientación sexual de una persona pueden llevar a la muerte a personas en países en los que ser gay sigue estando castigado con la muerte.
Ahora son los responsables políticos y los dirigentes de la UE quienes deben elaborar normas que mejoren nuestra calidad de vida y fomenten la igualdad. Los negociadores de la UE pueden sentir la tentación de adoptar sistemas de IA porque creen que puede suponer un ahorro o porque estimulará la economía. Pero los atajos en los servicios públicos o utilizar la IA cuando no conlleva ningún beneficio social acabarán perjudicando nuestro modo de vida y las libertades que valoramos. La pregunta que debe hacerse la UE es cómo pueden nuestras sociedades utilizar la IA para llevar a cabo nuestros derechos y libertades.
Valora el conocimiento, apoya Liberties.
Todos los grandes movimientos comienzan con la difusión de información. Nuestros artículos te ayudan a comprender los problemas más urgentes de derechos humanos para que juntxs podamos defenderlos. Apóyanos invitando a unx de nuestrxs autorxs activistas a un café.
Suma tu voz a la nuestra. Dona hoy.