Wiedza to potęga. Twój wkład ma znaczenie.
1. Bezrobocie
Wraz z rosnącymi obawami o to, że automatyzacja i sztuczna inteligencja zmienią sposób naszej pracy i skażą wiele osób na bezrobocie, pojawiają się pytania o to, jakie miejsca pracy zostaną w przyszłości zastąpione przez maszyny. Niektórzy eksperci wskazują, że potencjalne zmiany zawodów do 2030 r. są nieuchronne, szacując, że od 75 do 375 milionów pracowników (od 3 do 14% światowej siły roboczej) będzie musiało zmienić pracę i nauczyć się nowych umiejętności. Prognozy są bardzo zróżnicowane, od optymistycznych do bardzo pesymistycznych. Coraz wyraźniej widać, że wielu ekspertów z sektora technologicznego i biznesowego nie ma wspólnego poglądu na przyszłość naszego rynku pracy. Krótko mówiąc: naprawdę trudno powiedzieć, ile miejsc pracy zostanie faktycznie utraconych.
Przejście do bardziej zautomatyzowanego świata będzie dużym wyzwaniem dla wielu krajów, ponieważ zapewnienie pracownikom umiejętności i wsparcia potrzebnego do zmiany pracy wcale nie jest łatwe. Dzieje się tak zwłaszcza dlatego, że wpływ automatyzacji jest bardziej wyraźny w przypadku prac wymagających niskich kwalifikacji, takich jak zadania administracyjne, usługi budowlane lub logistyczne. Rozpowszechnienie robotyki i sztucznej inteligencji przyczynia się do zmniejszenia liczby dostępnych miejsc pracy dla mniej wykształconych i ma negatywny wpływ na gorzej opłacane miejsca pracy. Może to prowadzić do wzrostu polaryzacji dochodów i masowego bezrobocia. Niepewność gospodarcza – jak wiemy z przeszłości – może stanowić ogromne zagrożenie dla naszych demokracji, powodując utratę zaufania do instytucji politycznych, ale także ogólne niezadowolenie z systemu jako całości. W konsekwencji sposób, w jaki sztuczna inteligencja zmienia metody naszej pracy, może zaszczepić wśród wyborców sympatię dla partii populistycznych i stworzyć im warunki do rozwijania pogardliwej postawy wobec reprezentatywnych liberalnych demokracji.
2. Brak przejrzystości
Sl może być wadliwa, dlatego tak istotną rolę odgrywa potrzeba przejrzystości. Wprowadzone dane mogą być pełne błędów lub słabo “oczyszczone”. Albo informatycy i inżynierowie, którzy trenowali dany model, w pierwszej kolejności przypadkowo wybrali stronnicze dane. Przy tak wielu rzeczach, które mogą pójść nie tak, prawdziwym problemem jest brak przejrzystości: brak wiedzy na temat tego, dlaczego sztuczna inteligencja słabo działa. A czasem nawet nie to, że źle pracuje. W ramach standardowego tworzenia aplikacji istnieją procedury i narzędzia zapewniające sprawdzanie jakości, które mogą szybko wykryć wszelkie błędy.
Razem możemy pociągnąć Big Tech do odpowiedzialności
Podobnie jak Tobie nie podoba nam się, że mamy poświęcić nasze prawa człowieka, żeby korporacje Big Tech mogły maksymalizować swoje zyski. Dołącz do nas i zadbaj o to, by sztuczna inteligencja była bezpieczna dla nas wszystkich.
Pomóż Liberties przeciwstawić się technologicznym gigantom i rządom Wielkiego Brata.
Nasz zespół ekspertów ds. AI naciska na UE, aby chroniła Twoje prawa przed zagrożeniami związanymi ze sztuczną inteligencją. Jednak dobrze finansowani lobbyści korporacyjni zajmujący się sztuczną inteligencją skutecznie przekonują prawodawców do łagodzenia tych zabezpieczeń. Dla nas, jako dla małej organizacji strażniczej, to walka typu Dawid kontra Goliat. Nie możemy jednak pozwolić, aby chęć zysku wygrała z prawami człowieka. Wesprzyj Liberties i zacznij działać już dziś.
Sztuczna inteligencja to nie tylko kod. Podstawowych modeli nie można po prostu zbadać, aby zobaczyć, gdzie pojawiły się błędy – niektóre algorytmy uczenia maszynowego są niewyjaśnione, trzymane w tajemnicy (ponieważ leży to w interesie biznesowym ich producentów) lub jedno i drugie. Prowadzi to do ograniczonego zrozumienia uprzedzeń lub błędów, które może popełniać sztuczna inteligencja. W Stanach Zjednoczonych sądy zaczęły używać algorytmów do określenia „ryzyka” popełnienia przez oskarżonego kolejnego przestępstwa oraz informowania o decyzjach dotyczących zwolnienia za kaucją, wyroku skazującego i zwolnienia warunkowego. Problem polega na tym, że istnieje niewielki nadzór i przejrzystość w zakresie działania tych narzędzi.
Bez odpowiednich zabezpieczeń i przepisów federalnych określających standardy lub wymagających weryfikacji, narzędzia te mogą prowadzić do naruszenia praworządności i ograniczenia praw jednostki. Na przykład w przypadku oskarżonego Erica Loomisa sędzia skazał Loomisa na długi wyrok ze względu na ocenę „wysokiego ryzyka”, jaką otrzymał po udzieleniu odpowiedzi na serię pytań, które zostały następnie wprowadzone do narzędzia oceny ryzyka Compas. Co ważne, ani sędzia ani ktokolwiek inny w tej sprawie z pewnością nie wiedział, w jaki sposób Compas doszedł do wniosku, że Loomis stanowi dla społeczeństwa „wysokie ryzyko”. Z tego, co wiemy, Compas może opierać swoje decyzje na czynnikach, które uważamy za niesprawiedliwe – bez naszej wiedzy może dokonywać dyskryminacji ze względu na rasę, wiek lub płeć.
3. Uprzedzone i dyskryminacyjne algorytmy
To prowadzi nas do kolejnego tematu. „Uprzedzenie” to nie tylko problem społeczny czy kulturowy, ale występuje również w sferze technicznej. Wady projektowe lub wadliwe i mało zróżnicowane dane, które są wprowadzane do algorytmów, mogą prowadzić do stronniczego oprogramowania i artefaktów technicznych. Tak więc sztuczna inteligencja po prostu odtwarza uprzedzenia rasowe, płciowe i wiekowe, które już istnieją w społeczeństwie i pogłębia nierówności społeczne i ekonomiczne. Prawdopodobnie kilka lat temu czytałeś o eksperymentalnym zatrudnianiu przez Amazon. Narzędzie to wykorzystywało sztuczną inteligencję do wyszukiwania kandydatów, oceniając ich od jednej do pięciu gwiazdek – podobnie jak kupujący oceniają produkty na Amazon. Okazało się, że w ten sposób dyskryminowano kobiety, ponieważ modele komputerowe Amazona zostały przeszkolone do weryfikacji kandydatów poprzez obserwację wzorów życiorysów przesyłanych do firmy przez okres 10 lat, skutecznie preferując kandydatów płci męskiej i eliminując CV zawierające słowo „kobieta”.
Oprócz stronniczej bazy danych problem stanowią również jednorodne, niereprezentatywne zespoły programistów. Z uwagi na małą różnorodność wplatają swoje kulturowe ślepe punkty i nieświadome uprzedzenia w DNA technologii. Firmy, którym brakuje różnorodności, ryzykują zatem opracowywanie produktów, które wykluczają ich klientów. Cztery lata temu badania wykazały, że niektóre programy rozpoznawania twarzy błędnie klasyfikują mniej niż 1% białych mężczyzn, ale ponad jedną trzecią czarnoskórych kobiet. Producenci twierdzili, że program jest sprawny, ale zestaw danych, których użyli do oceny wydajności, zawierał ponad 77 procent mężczyzn, a ponad 83 procent stanowiły osoby białe.
4. Profilowanie
SI może służyć do budowania przerażająco precyzyjnych profili ludzi. Algorytmy są opracowywane w celu wyszukiwania wzorców, więc podczas testowania ich umiejętności gromadzenia danych osobowych stało się jasne, że były w stanie przewidzieć prawdopodobną przyszłą lokalizację użytkownika, obserwując historię jego lokalizacji. Prognozy były jeszcze dokładniejsze, gdy korzystano również z danych lokalizacyjnych znajomych i kontaktów towarzyskich. Możesz teraz powiedzieć, że nie obchodzi cię, kto zna twoje ruchy, w końcu nie masz nic do ukrycia. Istnieje jednak duże prawdopodobieństwo, że to nie do końca prawda. Nawet jeśli nie zrobisz nic złego lub niezgodnego z prawem, możesz nie chcieć, aby twoje dane osobowe były ogólnie dostępne. W końcu nie przeprowadziłbyś się do domu o przezroczystych ścianach. Czy więc naprawdę nie zależy ci na udostępnianiu historii lokalizacji swojego urządzenia? A co z historią lokalizacji twojej nastoletniej córki? Czy naprawdę czułbyś się komfortowo, gdyby ktoś opublikował takie dane na jej temat? Na pewno nie. Informacja to władza, a informacja, którą oddajemy ma władzę nad nami.
5. Dezinformacja
W 2020 r. grupa aktywistów Extinction Rebellion wykorzystała deepfake i opublikowała fikcyjną przemowę belgijskiej premier Sophie Wilmès. Grupa wzięła autentyczny adres wideo stworzony przez Wilmès i wykorzystała sztuczną inteligencję do manipulowania jej słowami. Rezultat: dezinformacja. W fałszywym wideo Wilmès mówi o Covid-19, twierdząc, że pandemia jest bezpośrednio związana z „eksploatacją i niszczeniem naszego środowiska naturalnego przez ludzi”. Niestety nie był to jedyny przypadek. Deepfake będą w przyszłości stopniowo wykorzystywane w ukierunkowanych kampaniach dezinformacyjnych, zagrażając naszym procesom demokratycznym i powodując polaryzację społeczną. Dodatkowymi problemami związanymi z dezinformacją są boty, które mogą generować fałszywe teksty, w tym artykuły lub tweety, aby rozpowszechniać kłamstwa. Narzędzie językowe GPT-3 opublikowało niedawno tweety o treści: „Nie mogą mówić o wzroście temperatur, ponieważ to się już nie dzieje”, co miało wywołać sceptycyzm wobec zmian klimatycznych. Z uwagi na ostatnie lata, kiedy Trump stale mówił o fałszywych mediach, takie technologie mogą oznaczać, jak ujął to miesięcznik The Atlantic, „upadek rzeczywistości”. Dzięki deepfake'om i botom internetowym rozpowszechniającym dezinformację społeczeństwo może stanąć w obliczu zacierania się granic między rzeczywistością a fikcją, destabilizując zaufanie do naszych instytucji politycznych.
6. Wpływ na środowisko
Sztuczna inteligencja może mieć pozytywny wpływ na środowisko, na przykład umożliwiając inteligentnym sieciom dostosowanie zapotrzebowania na energię elektryczną lub umożliwiając inteligentne i niskoemisyjne miasta. Jednak SI może również powodować znaczne szkody dla środowiska z powodu intensywnego zużycia energii. Badanie z 2019 r. wykazało, że określony rodzaj sztucznej inteligencji (uczenie głębokie w przetwarzaniu języka naturalnego) pozostawia ogromny ślad węglowy ze względu na paliwo, jakiego wymaga sprzęt. Eksperci twierdzą, że szkolenie na jednym modelu SI powoduje emisję 300 tys. kg CO2 w przybliżeniu równoważną 125 lotom w obie strony z Nowego Jorku do Pekinu lub 5-krotność emisji przeciętnego (amerykańskiego) samochodu w okresie użytkowania. Oczywiście szkolenie modeli nie jest jedynym źródłem emisji. Infrastruktura związana z wdrażaniem sztucznej inteligencji przez Big Tech ma również istotny wpływ na emisję dwutlenku węgla: centra danych muszą być budowane, a wykorzystywane materiały wydobywane i transportowane.
7. Dominacja firm Big Tech
SI jest zdominowana przez firmy Big Tech. Od 2007 r. Google kupił co najmniej 30 firm zajmujących się sztuczną inteligencją, które pracują nad wszystkim, od rozpoznawania obrazów po bardziej ludzko brzmiące głosy komputerowe – tworząc ogromny monopol technologii sztucznej inteligencji. Google nie jest jedynym strażnikiem. W 2016 r. Google, Apple, Facebook, Microsoft i Amazon wraz z chińskimi megagraczami wydali do 30 miliardów dolarów z szacowanej globalnej sumy 39 miliardów dolarów na badania, rozwój i przejęcia firm zajmujących się SI. Firmy przechwytujące start-upy SI na całym świecie są niebezpieczne, ponieważ w konsekwencji będą odgrywać znaczącą rolę w wyznaczaniu kierunku, w jakim podąża technologia SI. Dominując w wyszukiwarkach, mediach społecznościowych, handlu internetowym i sklepach z aplikacjami, firmy te mają niemal monopol na dane użytkowników i stają się głównymi dostawcami sztucznej inteligencji dla wszystkich w branży. Taka koncentracja władzy jest niebezpieczna, ponieważ może prowadzić do dyktowania warunków demokratycznie wybranym rządom przez ogromne firmy technologiczne.
Dalsza lektura:
Wpływ sztucznej inteligencji na nasze codzienne życie
Czy algorytmy podejmujące decyzje faktycznie zawsze mają rację, są sprawiedliwe i godne zaufania?
Sztuczna Inteligencja vs Prawa człowieka?
Zdjęcia: Alena Darmel, Anastasia Shuraeva, Darina Belonogova, Keira Burton, Ron Lach, Tim Douglas, Vazhnik /Pexels.com
Doceń wiedzę, wesprzyj Liberties.
Wielkie ruchy zaczynają się od wymiany informacji. Nasze artykuły pomagają zrozumieć najpilniejsze kwestie związane z prawami człowieka, dzięki czemu razem możemy stanąć w obronie tego, co ważne. Wesprzyj nas kupując filiżankę kawy jednemu z naszych autorów.
Wzmocnij nasz głos. Przekaż darowiznę już dziś.