di Giulio Coraggio

La crescita dell’Internet of Things (IoT) e delle tecnologie dell’intelligenza artificiale (AI) sollevano interessanti quesiti sull’opportunità che agiscano in modo etico.

Ho partecipato all’IoT Solutions World Summit lo scorso mese, uno dei più grandi eventi del mondo su Internet of Things, e ho avuto il piacere di essere parte di un panel sul tema “Ethical uses of data “, insieme con Edy Liongosari di Accenture, Prith Banerjee di Schneider Electric, Derek O’Halloran del World Economic Forum, Sven Schrecker di Intel e David Blaszkowsky del Financial Semantica Collaborativo.

La discussione è stata molto interessante anche grazie ad un argomento che è abbastanza raro in questo tipo di eventi. Di seguito, i principali spunti che sono emersi dal dibattito:

 

  • Gli individui si preoccuperanno della loro privacy

In pochi anni, quasi nulla sarà di nostra proprietà. La nostra auto, la nostra casa e tutto ciò che usiamo durante il corso della giornata diventerà un semplice servizio. In questo contesto, l’unico bene che rimarrà di proprietà degli individui sarà la propria “identità digitale”.

Di conseguenza, è ragionevole aspettarsi che gli individui daranno sempre maggiore rilevanza alla tutela della loro privacy. Al fine di evitare, però, che la conformità con la normativa privacy divenga un costo insostenibile per le imprese, le aziende devono “educare” i propri clienti. Questo per garantire che la conformità con la normativa privacy divenga un vantaggio competitivo, piuttosto che un costoso svantaggio. Ed è interessante vedere come questo accadrà solo dopo l’approvazione del nuovo Regolamento privacy europeo che porterà ad un cambiamento nell’approccio al rispetto della privacy, anche a causa delle sanzioni applicabili.

 

  • Il semplice rispetto degli obblighi normativi non sarà più sufficiente per IoT e AI

In un precedente articolo, avevo invocato una standardizzazione delle misure di sicurezza da attuare nel campo delle tecnologie dell’Internet of Things e di AI, così come in qualsiasi altra tecnologia, al fine di creare un più elevato livello di certezza che è necessario per stimolare gli investimenti.

Sono ancora un forte sostenitore degli standard di sicurezza per le nuove tecnologie. Tuttavia, come era già emerso durante il dibattito del DLA Piper European Tech Summit, la crescita delle tecnologie dell’internet of Things richiede la creazione di un rapporto di fiducia tra il fornitore ed i suoi clienti.

Nessun software può essere sicuro al 100%, ma la capacità di dimostrare la diligenza della società nell’aver eseguito tutto ciò che era necessario per adempiere agli obblighi vigenti, insieme con la capacità di reagire prontamente ad un data breach, sono aspetti assolutamente cruciali per acquisire clienti ed evitare di perderli rapidamente in caso di problemi.

La certificazione di conformità diventerà un “must-have“, soprattutto una volta che le nuove sanzioni previste dal Regolamento europeo sul trattamento dei dati personali diventeranno applicabili. Ma questa è solo una soluzione volta ad evitare eventuali sanzioni, mentre non sarà sufficiente a garantire che i clienti realmente si fidino di una società.

 

  • Le macchine devono agire in modo etico, non solo razionale

Nel corso del dibattito, c’è stata una lunga discussione riguardante sistemi di intelligenza artificiale, come quelli delle self-driving car: ci si chiedeva se avessero dovuto essere educati ad avere anche un comportamento etico. L’esempio più comunemente usato è quella di una self-driving car che sta colpendo un autobus con dei ragazzini e non volta per dirigersi al di fuori della carreggiata, in quanto giunge alla conclusione che statisticamente il miglior comportamento da adottare doveva essere di rimanere sulla strada.

In questo scenario, il proprietario del veicolo potrebbe agire contro il produttore dell’auto per richiedere il risarcimento dei danni? Questo rischio è rilevante specialmente nel caso in cui il produttore del veicolo non sia in grado di dimostrare adeguatamente perché quel comportamento specifico era stato ritenuto più opportuno dal sistema di AI. E, come ho già avuto modo di discutere, sistemi di intelligenza artificiale potrebbero essere così complessi da rendere impossibile la ricostruzione del ragionamento seguito dalla macchina.

 

Questa situazione rischia di mettere i produttori di sistemi di intelligenza artificiale in una posizione piuttosto debole in un eventuale contenzioso.

L’alternativa sarebbe:

  1. Progettare sistemi di intelligenza artificiale in modo che siano in grado di tracciare e giustificare la loro condotta. E ciò è molto importante soprattutto dopo l’entrata in vigore del Regolamento europeo sul trattamento dei dati personali;

  2. Comunicare previamente ai clienti in modo trasparente che il sistema di AI è stato progettato in modo da garantire anche comportamenti etici. Ciò richiederebbe di definire quello che è etico, non solo nelle condizioni generali, ma anche nelle impostazioni a disposizione dei clienti, senza definizioni troppo complesse;

  3. Evangelizzare” i clienti sulla necessità di garantire comportamenti etici, stabilendo anche un comitato etico interno alla società.

 

Non c’è dubbio che ci sarà ancora interesse per questo argomento. L’etica e le sue diverse interpretazioni potrebbero portare a infinite controversie.