giovedì 30 giugno 2016

Dell'algoritmo etico

Un interessante articolo di oggi, variazione e proiezione tecnologica del classico dilemma etico "del carrello" (sul quale, ad esempio si può leggere un bel pezzo qui)

Dalle leggi della robotica di Asimov a oggi: agli algoritmi serve un'etica

di Simone Cosimi (da «La Repubblica» di oggi, 30/06/2016)

QUALCHE giorno fa ha fatto molto discutere la notizia sul robot in grado di violare la prima “legge della robotica” teorizzata da Isaac Asimov nei suoi romanzi fantascientifici. Costruito da un ingegnere e artista dell’università di Berkeley, quel braccio robotico è stato infatti programmato per scegliere se ferire o meno un essere umano. L’altro giorno è invece saltato fuori sul web un nuovo video rilasciato da quei cervelloni della Boston Dynamics, l’azienda acquistata da Google nel 2013 dalla quale Mountain View ha tuttavia annunciato di volersi svincolare. Nella clip, al solito raggelante, si vede il nuovo cane robot “Spot Mini” imbastire un tira e molla col “padrone”, chiamiamolo così, intorno a una lattina di birra. In questo come in altri casi non dotati di una plasticità antropomorfa – dagli algoritmi ai codici con cui sono e saranno programmati i miliardi di oggetti connessi fino ai network d’intelligenza artificiale – la domanda di fondo, che tutti conoscono e nessuno riesce davvero a sciogliere, è tuttavia sempre la stessa: cosa accadrà quando l’etica umana verrà scombussolata da sistemi dotati di una serie di regole in contrasto con le nostre?
 
A dire il vero qualcuno l’allarme l’ha lanciato: l’astrofisico Stephen Hawking e il folle imprenditore Elon Musk (Telsa, Space X e così via) si sono per esempio detti molto preoccupati sui rischi legati all’evoluzione dell’intelligenza artificiale. Questioni simili se le pongono in molti, dai filosofi (come lo svedese Nick Bostrom, che insegna a Oxford) alle tante grandi menti impegnate con i colossi dell’hi-tech internazionale (vedi alla voce Ray Kurzweil, in forze a Google), con esiti e posizioni ovviamente diverse. Al solito, la forchetta si muove fra apocalittici e integrati. Forse, però, una delle prime esperienze che ci porranno la questione concretamente di fronte sarà quella delle auto a guida autonoma. È intorno al cuore del codice che forniremo a quei veicoli senza pilota che si giocherà il primo tempo di questa partita. Prima che le altre forme d’intelligenza artificiale possano raggiungere livelli di cui preoccuparsi.
 
Chi salvare in caso d’incidente? Una ricerca pubblicata su Science ha spalancato ancora una volta la questione etica proponendo un quesito di fondo. Anzi, il quesito: “Supponiamo che un’auto senza conducente debba scegliere tra colpire un gruppo di pedoni o deviare e andare a sbattere danneggiando i propri passeggeri. Cosa dovrebbe fare?”. Mettere a rischio la vita dei passeggeri evitando magari una carneficina numericamente più consistente o tutelare gli occupanti ponderando, per così dire, le perdite potenziali? Le risposte dei cittadini statunitensi interpellati sul tema manifestano la frattura morale in tutta la sua profondità. Il risultato è che sarebbe sacrosanto limitare i danni ma d’altronde nessuno si mostrerebbe disponibile a farsi trasportare da un mezzo così programmato. Quasi tutti la penseremmo d’altronde così. Si apre insomma un gioco a somma zero.
 
La questione si muove ovviamente sulla scala valoriale. Per parlare davvero di etica è necessario che le macchine (stradali, robotiche o algoritmiche) siano in grado di produrne una autonoma leggendo e riordinando il mondo. Altrimenti tutto continuerà in fondo a dipendere solo da come le abbiamo programmate. Lo stesso dilemma, in un contesto diverso, si pone per esempio nel caso dei droni armati in grado di identificare autonomamente i bersagli e sparare. Insomma, per molti i veri problemi nasceranno quando i programmatori avranno davvero perso il controllo di ciò che hanno creato. Per altri, invece, la questione rimane comunque alla base: servirebbe un coding etico, cioè un modo di istruire le macchine in maniera che non possano mai arrivare a sciogliere da sole specifiche questioni. Tuttavia rimarrebbe sospeso l’ennesimo quesito: quali sono quelle specifiche questioni?
 
In altre parole, si tratta della responsabilità morale di chi scrive gli algoritmi di cui parla per esempio da tempo David Orban della Singularity University. Affronta la questione sotto diversi punti di vista, da quello finanziario all’internet delle cose. Sì, perché siamo già oggi immersi in una ragnatela di decisioni che ci sfuggono, dal trading delle Borse alle ricerche su internet fino alle mappe intelligenti che decidono come ricalcolare i nostri percorsi. L’auto autonoma sarà tuttavia l’emersione più importante della faccenda perché fisica, concreta, applicata a una dimensione capillare e portatrice di sviluppi complessi: dai software modificabili all’intreccio di normative che incroceranno legislazione, assicurazioni, acquirenti.
 
“La risposta è sì, serve un’etica dell’algoritmo e quell’etica va costruita attraverso un confronto esterno al mondo dei laboratori – risponde Giovanni Boccia Artieri, sociologo e docente di internet studies all’università di Urbino – perché deve mettere appunto in chiaro delle soglie limite sull’utilizzo delle macchine. Dovranno essere soglie universali, che si applichino oltre la singola invenzione o scoperta”. Insomma, oggi sono le driverless car, domani sarà una sempre più pervasiva intelligenza artificiale di cui magari c’innamoreremo, dopodomani chissà: “In fondo, e Asimov ne è solo un esempio, sono temi non così inediti – aggiunge Boccia Artieri – li abbiamo già affrontati. Ci si ripresentano ora che quelle sue tre leggi della robotica hanno motivo di essere implementate perché molte delle cose previste in quelli e altri romanzi sono possibili. Il punto però è uno: stavolta dobbiamo cercare di arrivare prima e non dopo. Dobbiamo sottrarre alla contingenza dei programmatori la risoluzione di queste questioni, per puntare a una visione complessiva dei valori che vogliamo non vengano intaccati dalla dittatura dell’algoritmo”. Anche perché, spesso senza accorgercene, stiamo già correndo il rischio di cambiare i nostri atteggiamenti e le nostre scelte. In un lento lavoro di mutazione: “Nel momento in cui la scarsa trasparenza degli algoritmi che ci aiutano nelle azioni di tutti i giorni diventa la normalità, cioè il nostro quotidiano, abbiamo già smarrito un pezzo dell’etica individuale”.

Nessun commento:

Posta un commento