Mai sentito parlare dell'etica dell'intelligenza artificiale? Sicuramente sì. Sono pronto a scommettere che nel 2019 avrai letto almeno due articoli sulle scelte che le auto a guida autonoma dovranno fare. Si deve sempre scegliere di salvare la vita delle persone sedute al suo interno piuttosto che quella dei pedoni? Si deve prevedere il numero di vite perse in tutti i possibili scenari e scegliere quello che comporta il minor numero di vittime? E se uno dei pedoni fosse una madre con un neonato? E se uno dei passeggeri fosse un medico molto anziano che sta per terminare la sua ricerca sul cancro al cervello, meritevole del premio Nobel?
Le decisioni che devono essere prese da questi veicoli sono oggetto di un acceso dibattito etico. Dibattiti di grande interesse, che non intendo minimizzare in alcun modo. Tuttavia, penso sia importante sottolineare che forse, prima di cercare di concordare tutte le complessità di cui un programmatore di auto a guida autonoma deve tener conto, dovremmo fare pressione sui nostri governi affinché applichino gli standard minimi che abbiamo già concordato e utilizzino la legge sui diritti umani per proteggerci dalle conseguenze potenzialmente dannose della tecnologia.
Le auto a guida autonoma non fanno parte della nostra realtà quotidiana, ma altre cose lo sono o stanno per esserlo. Ad esempio, la mia collega Eva Simon sta attualmente studiando la normativa europea sui filtri di caricamento automatizzati (sai, quelli che possono uccidere i memi). Nel prossimo mese, lei ed io vi daremo diversi articoli sul pericolo che può essere rappresentato dall'uso dell'intelligenza artificiale e su come il processo decisionale automatizzato possa influenzare o già influenza la nostra vita.
PS: Io probabilmente sceglierei la vita del ricercatore oncologico. Non sei per niente d'accordo con me? A breve apriremo uno spazio per discutere di questi temi sui nostri social network, e non vediamo l'ora di sentirti!