Słyszeliście kiedyś o etyce sztucznej inteligencji? Jestem przekonana, że tak. Mogę się założyć, że w 2019 roku przeczytaliście co najmniej dwa artykuły na temat wyborów, jakie będą musiały podejmować samojeżdżące samochody. Czy zawsze powinny w pierwszej kolejności próbować ratować życie pasażerów, a nie pieszych? Czy może powinny oszacować liczbę ofiar śmiertelnych we wszystkich możliwych scenariuszach i wybrać to rozwiązanie, które przewiduje najmniej ofiar? Co jeśli jedną z pieszych jest matką z nowo narodzonym dzieckiem? Co jeśli jeden z pasażerów to bardzo stary lekarz, który jest bliski ukończenia godnych Nagrody Nobla badań nad rakiem mózgu?
Zawodowi etycy zacięcie dyskutują na temat decyzji, jakie takie pojazdy powinny podejmować. Są to z pewnością niezwykle interesujące debaty i pod żadnym pozorem nie chcę sugerować, abyście je ignorowali. Uważam jednak, że może zanim spróbujemy znaleźć rozwiązanie w kwestii wszystkich zawiłości, o których powinien pamiętać projektant samojeżdżących samochodów, powinniśmy najpierw wywrzeć nacisk na nasze rządy, tak by stosowały się do minimalnych standardów, które już zostały uzgodnione - i wykorzystały przepisy z zakresu praw człowieka do ochrony przed potencjalnie szkodliwymi konsekwencjami technologii.
Samojeżdżące samochody nie są częścią naszej codziennej rzeczywistości - w przeciwieństwie do innych rzeczy, które już nią są lub będą wkrótce. Moja koleżanka Eva Simon pracuje obecnie nad europejskimi przepisami dotyczącymi automatycznych filtrów treści (wiecie, takimi, które mogą zniszczyć memy). W nadchodzącym miesiącu wraz z Evą napiszemy dla Was artykuły na temat niebezpieczeństw, jakie może stwarzać sztuczna inteligencja i spróbujemy wyjaśnić, w jaki sposób zautomatyzowane podejmowanie decyzji może lub już wpływa na nasze życie.
Tak ma marginesie, prawdopodobnie wybrałabym życie naukowca prowadzącego badania nad rakiem. Nie zgadzacie się? Zatrzymajcie tę myśl, będzie możliwość przedyskutowania takich kwestii na naszych kanałach społecznościowych.