El conocimiento es poder. Tu aportación cuenta.
1. Desempleo
Ante el creciente temor de que la automatización y la IA cambien la forma de trabajar y conduzcan al crecimiento del desempleo, se plantean preguntas sobre qué trabajos serán sustituidos por máquinas en el futuro. Algunos expertos señalan que los posibles cambios en el trabajo son inminentes: en 2030 calculan que entre 75 y 375 millones de trabajadores (entre el 3 y el 14% de la población activa mundial) tendrán que cambiar de trabajo y aprender nuevas profesiones. Este dato revela una gran diferencia en las predicciones, desde las más optimistas hasta las más pesimistas, y refleja que muchos expertos de los sectores tecnológicos y empresariales no comparten una visión común sobre el futuro de nuestro mercado laboral.En resumen: es muy difícil determinar cuántos puestos de trabajo se perderán realmente.
La transición a un mundo más automatizado será un reto importante para muchos países, ya que garantizar que la fuerza de trabajo cuente con las competencias y el apoyo necesario para la transición a los nuevos empleos no es tarea fácil. Sobre todo porque el impacto de la automatización es más acusado en los empleos poco cualificados, como las funciones administrativas, la construcción o los servicios logísticos. Así pues, la implantación de la robótica y la IA contribuye a la reducción de los puestos de trabajo disponibles para los sectores menos formados y tiene un efecto negativo sobre los empleos menos remunerados. Esto podría conducir a un aumento de la polarización de los ingresos y del desempleo masivo. La inseguridad económica -como bien sabemos por el pasado- puede constituir una enorme amenaza para nuestras democracias, provocando lapérdida de confianza en las instituciones políticas, pero también el malestar con el sistema en general. Por consiguiente, la forma en que la IA cambia la manera de trabajar podría allanar el camino para que los votantes simpaticen con partidos populistas, y favorecer las condiciones para que adopten una postura despectiva hacia las democracias liberales representativas.
Juntos podemos exigir responsabilidades a las grandes tecnológicas.
Al igual que tú, nos indigna que se sacrifiquen los derechos humanos para que las Big Tech puedan maximizar sus beneficios. Únete a Liberties para que la IA sea segura para todas las personas.
Ayuda a Liberties a plantarle cara a las grandes tecnológicas y a los gobiernos del Gran Hermano.
Nuestro equipo de personas expertas en IA está presionando a la UE para que proteja tus derechos de los riesgos derivados de la misma. Pero los lobbies de las empresas de IA, sobradamente financiados, están logrando convencer a los responsables políticos para que limiten estas garantías. En tanto que observatorio pequeño e independiente, esta lucha es como la de David contra Goliat. Pero no podemos permitir que el lucro triunfe sobre los derechos humanos. Refuerza Liberties realizando una aportación hoy mismo.
2. Falta de transparencia
La inteligencia artificial puede ser defectuosa en muchos aspectos, por lo que la transparencia es extremadamente importante. Los datos que utiliza para alimentarse pueden estar plagados de errores o mal filtrados. También es posible que los científicos e ingenieros que entrenaron el modelo hayan seleccionado involuntariamente conjuntos de datos sesgados. Por ello, debido a las muchas cosas que pueden salir mal, el verdadero problema es la falta de visibilidad: no saber por qué no está funcionando adecuadamente, o peor aún: a veces, ni siquiera se sabe que está funcionando mal. En el desarrollo de una aplicación típica, hay una garantía de calidad, así como procesos y herramientas de prueba que pueden detectar rápidamente cualquier error.
Pero la IA no es únicamente una cuestión de códigos, los modelos subyacentes no pueden analizarse sin más para localizar los fallos: algunos algoritmos de aprendizaje automático son inexplicables o se mantienen en secreto (ya que esto redunda en los intereses comerciales de sus productores), o ambas cosas. Esto implica una comprensión limitada de los sesgos o fallos que puede generar la IA. En Estados Unidos, los tribunales empezaron a utilizar algoritmos para determinar el "riesgo" de que un acusado cometa otro delito, y así fundamentar las decisiones sobre la fianza, la sentencia y la libertad condicional. El problema es tal que no existe una buena supervisión y transparencia en cuanto al funcionamiento de estas herramientas.
Sin las debidas salvaguardias y sin leyes federales que establezcan normas o exijan una inspección, estas herramientas amenazan con erosionar el Estado de derecho y mermar los derechos individuales. En el caso del acusado Eric Loomis, por ejemplo, el juez de primera instancia le impuso una larga condena debido a la puntuación de "alto riesgo" que recibió tras responder a una serie de preguntas que luego se introdujeron en Compas, una herramienta de evaluación de riesgos. Compas es una herramienta de evaluación de riesgos tipo "caja negra": el juez, o cualquiera en realidad, ciertamente no sabía cómo Compas llegó a la decisión de que Loomis es de "alto riesgo" para la sociedad. Por lo que sabemos, Compas puede basar sus decisiones en factores que consideramos injustos, puede ser racista, edadista o machista sin que lo sepamos.
3. Algoritmos sesgados y discriminatorios
Lo que nos lleva a nuestro siguiente tema: el "sesgo", que no es únicamente un problema social o cultural, también se encuentra en el ámbito técnico. Los defectos de diseño o los datos defectuosos y desequilibrados que se introducen en los algoritmos pueden producir un software y unos dispositivos técnicos sesgados. De esta forma, la IA acaba reproduciendo los mismos estereotipos de raza, género y edad que existen en la sociedad, profundizando así las desigualdades sociales y económicas. Probablemente hayas leído alguna noticia sobre la contratación experimental de Amazon hace unos años. Empleaba una herramienta que utilizaba inteligencia artificial para encontrar candidatos clasificándolos de una a cinco estrellas, de forma parecida al modo de calificar los productos en Amazon. Era discriminatoria para las mujeres, pues los modelos informáticos de Amazon estaban entrenados para analizar a los candidatos mediante la observación de patrones en los CVs enviados a la empresa durante un período de 10 años, y, al estar basado en los empleados actuales, que eran sobre todo hombres,
el algoritmo fijó su criterio del candidato perfecto
como masculino, penalizando directamente cualquier solicitud que
contuviera la palabra "mujer".
Además de la bases de datos sesgadas, los equipos de desarrolladores informáticos homogéneos, que no representan la diversidad social, también suponen un problema, pues incorporan sus puntos ciegos culturales y sus prejuicios inconscientes al ADN de la tecnología. Por tanto, las empresas que carecen de diversidad corren el riesgo de desarrollar productos que excluyan a sus clientes. Hace cuatro años, un estudio reveló que algunos programas de reconocimiento facial clasifican incorrectamente a menos del 1% de los hombres de piel clara, pero a más de un tercio de las mujeres de piel oscura. Los productores afirmaron que el programa era eficiente, el problema era que el conjunto de datos que utilizaron para evaluar el rendimientoestaba compuesto por más de un 77 por ciento de hombres y más de un 83 por ciento de blancos.
4. La creación de perfiles
La IA puede utilizarse para construir perfiles de personas alarmantemente precisos. Los algoritmos se desarrollan para detectar patrones, por lo que al someter a prueba sus capacidades de recopilación de datos personales en un concurso, quedó claro que eran capaces de predecir la ubicación futura probable de un usuario observando su historial de ubicaciones pasadas. La predicción era aún más precisa cuando se empleaban también los datos de localización de amigos y contactos sociales. A veces, se quita importancia a esta particularidad de la inteligencia artificial. Puede que pienses que no te importa quién conoce tus movimientos, al fin y al cabo no tienes nada que ocultar. En primer lugar, lo más probable es que eso no sea del todo cierto. Incluso si no haces nada malo o ilegal, puede que no quieras que tu información personal sea pública. Al fin y al cabo, no te mudarías a una casa con paredes transparentes. Entonces, ¿realmente no te importa compartir el historial de ubicaciones de tu dispositivo? ¿Y el historial de ubicaciones de tu hija adolescente? ¿Realmente te sentirías cómodo si alguien publicara tus datos de localización, incluidas las predicciones? Seguramente no. La información es poder, y la información que cedemos es poder sobre nosotros.
5. Desinformación
El aumento de la desinformación es una de las consecuencias negativas de la inteligencia artificial que ya estamos constatando. En 2020, el grupo activista Extinction Rebellion creó un deepfake para producir un discurso ficticio de la primera ministra belga Sophie Wilmès. Utilizaron un video real de un discurso de Wilmès y emplearon IA para manipular sus palabras. El resultado: desinformación. En el falso vídeo Wilmès aparece hablando del COVID-19, afirmando que la pandemia está directamente relacionada con la "explotación y destrucción por parte de los humanos de nuestro entorno natural". Por desgracia, este no ha sido un caso aislado. En el futuro, los deepfakes se utilizarán cada vez más para campañas de desinformación dirigidas, amenazando así nuestros procesos democráticos y provocando la polarización de la sociedad. A estos problemas de desinformación se suman los bots, que pueden generar textos falsos, como artículos de noticias alterados para promover la difusión de opiniones o tuits falsos. La herramienta lingüística de IA, GPT-3, compuso recientemente tuits que decían "No pueden hablar de los aumentos de temperatura porque ya no están ocurriendo", con el objetivo de crear escepticismo sobre el cambio climático. En los últimos años, durante los cuales Trump ha calificado constantemente a los medios de comunicación de falsos, este tipo de tecnologías podría significar, como dice The Atlantic, el "colapso de la realidad". Con los deepfakes y los bots difundiendo desinformación, la línea que separa la realidad de la ficción se difumina, desestabilizando la confianza en nuestras instituciones políticas.
6. Impacto medioambiental
Aunque la IA puede tener un impacto medioambiental positivo, por ejemplo, facilitando que las redes inteligentes se adapten a la demanda eléctrica o que las ciudades sean inteligentes y emitan bajas emisiones de carbono, una de las desventajas es que también puede causar un daño ambiental importante debido a su uso intensivo de energía. Un estudio de 2019 reveló que un tipo particular de IA (aprendizaje profundo en el procesamiento del lenguaje natural) tiene una enorme huella de carbono debido al combustible que requiere el hardware. Los expertos afirman que el entrenamiento de un solo modelo de IA produce 300.000 kg de emisiones de CO2, lo que equivale a 125 vuelos de ida y vuelta de Nueva York a Pekín o a 5 veces las emisiones durante la vida útil de un coche medio (estadounidense). Y el entrenamiento de los modelos, por supuesto, no es la única fuente de emisiones. El impacto de las emisiones de carbono de la infraestructura que rodea el despliegue de la IA por parte de las grandes empresas tecnológicas también es significativo: hay que construir los centros de datos y los materiales necesarios deben ser extraídos y transportados.
7. Dominio de las grandes empresas tecnológicas
La IA está dominada por las grandes empresas tecnológicas (Big Tech). Desde 2007, Google ha comprado al menos 30 empresas de IA que trabajan en todo, desde el reconocimiento de imágenes hasta voces de ordenador que suenan más humanas, estableciendo un enorme monopolio de la tecnología de IA. Pero no es el único: en 2016, Google, Apple, Facebook, Microsoft y Amazon, junto con las grandes empresas chinas, invirtieron hasta 30.000 millones de dólares de un total mundial estimado de 39.000 millones en investigación, desarrollo y adquisiciones relacionadas con la inteligencia artificial. El hecho de que adquieran nuevas empresas de IA en todo el mundo es peligroso, pues desempeñarán un papel excesivo a la hora de determinar la dirección que tomará la tecnología de la IA. Con el control de las búsquedas, las redes sociales, el comercio minorista en línea y las tiendas de aplicaciones, estas empresas tienen casi un monopolio sobre los datos de los usuarios y se están convirtiendo en los principales proveedores de IA para todos los demás en la industria. Esta concentración de poder es peligrosa, ya que se corre el riesgo de que las grandes empresas tecnológicas se impongan a los gobiernos elegidos democráticamente.
Para saber más:
10 efectos de la inteligencia artificial en nuestra vida cotidiana
¿Son los algoritmos de toma de decisiones siempre fiables, justos y correctos o NO?
Artificial Intelligence vs Human Rights?
Créditos de los imágenes: Alena Darmel, Anastasia Shuraeva, Darina Belonogova, Keira Burton, Ron Lach, Tim Douglas, Vazhnik /Pexels.com
Valora el conocimiento, apoya Liberties.
Todos los grandes movimientos comienzan con la difusión de información. Nuestros artículos te ayudan a comprender los problemas más urgentes de derechos humanos para que juntxs podamos defenderlos. Apóyanos invitando a unx de nuestrxs autorxs activistas a un café.
Suma tu voz a la nuestra. Dona hoy.