di Giulio Coraggio

L’intelligenza artificiale è un’enorme opportunità, ma innesca alcuni rischi che non possono essere risolti attraverso regolamentazioni eccessive che potrebbero danneggiare il mercato.

3 rivoluzioni tecnologiche simultanee che scatenano l’intelligenza artificiale

Uno dei temi principali del World Economic Forum 2017 è stato l’intelligenza artificiale (AI). Ho trovato estremamente interessante l’intervista a Ginni Rometty, la Presidente, Presidente e CEO di IBM. Ha affermato che siamo in un periodo unico poiché ci sono state contemporaneamente 3 rivoluzioni tecnologiche che rendono questo momento diverso dai precedenti:

  1. L’ascesa del cloud computing;
  2. L’aumento dei dati; e
  3. L’ascesa della mobilità.

A causa di queste 3 rivoluzioni, c’è un’enorme quantità di informazioni che non possono essere trattate dagli esseri umani, ma che diversamente hanno bisogno di sistemi in grado di gestire dati, ragionare su di essi e imparare. Ciò ha portato all’aumento dell’intelligenza artificiale.

Ho letto una serie di articoli su come l’intelligenza artificiale possa rappresentare una minaccia per i lavoratori. E’ abbastanza recente la notizia della compagnia di assicurazioni giapponese Fukoku Mutual Life Insurance che sta licenziando 34 dipendenti per sostiutirli con IBM Watson Explorer AI. Ma il punto sollevato dalla signora Rometty è che l’IA non sostituisce gli umani, fa qualcosa che gli umani non possono fare fisicamente poiché nessun essere umano sarebbe in grado di gestire una quantità così grande di informazioni e l’IA può raggiungere risultati dai quali chiunque può trarne beneficio.

L’intelligenza artificiale ed i robot stanno diventando esponenzialmente parte della nostra vita quotidiana e le potenzialità di tali tecnologie non possono essere sempre controllate dagli esseri umani. Si pensi al progetto Google DeepMind in cui l’intelligenza artificiale non è programmata/insegnata per risolvere i problemi, ma ha bisogno di imparare da sé come risolverli. Ciò significa che raggiungeremo uno stadio in cui le macchine prenderanno decisioni il cui ragionamento non può essere spiegato dagli umani!

La richiesta di norme sull’intelligenza artificiale

La stessa Rometti ha menzionato come parte della sua intervista che una quarta rivoluzione riguarda la sicurezza e la privacy e come tali problemi potrebbero ancora far deragliare la rivoluzione che le tre componenti menzionate sopra hanno creato.

E su questo argomento, potrebbe non essere una coincidenza che la Commissione Affari Legali del Parlamento Europeo abbia approvato un report chiamando la Commissione Europea per l’introduzione di una serie di regole sulla robotica. Tali norme includono:

Chi è responsabile e in che modo devono essere recuperati i danni?

Il Comitato ha l’obbligo di introdurre norme di responsabilità oggettiva per i danni causati, richiedendo solo la prova che il danno è avvenuto e l’instaurazione di un nesso causale tra il comportamento dannoso del robot e il danno subito dalla parte lesa.

Ciò non risolverebbe il problema della ripartizione delle responsabilità per i robot “autonomi” come Google DeepMind che non hanno ricevuto istruzioni dal produttore. E questo è il motivo per cui il Comitato propone l’introduzione di un regime di assicurazione obbligatoria per i produttori o i proprietari di robot (ad esempio, nel caso di produttori di auto a guida autonoma). Il problema è capire se tale obbligo rappresenterebbe un costo aggiuntivo che sarebbe sopportato dai clienti o addirittura impedirebbe lo sviluppo di tecnologie.

Robot trattati come umani?

Ciò che sembra abbastanza inusuale e onestamente un po’ ‘”spaventoso” è che il Comitato chiede anche l’introduzione di uno “status legale” per i robot delle persone elettronichecon diritti e doveri specifici, incluso quello di risarcire i danni che possono causare, e applicare la personalità elettronica ai casi in cui i robot prendono decisioni autonome intelligenti o interagiscono in modo diverso con terzi in modo indipendente“.

Il rapporto non chiarisce completamente come tale status legale dovrebbe funzionare nella pratica, ma sembra che stiamo già provando a distinguere la responsabilità dell’intelligenza artificiale stessa da quella del suo produttore/proprietario. Ciò deve essere valutato caso per caso in relazione ai robot autonomi, ma le norme di diritto civile devono assolutamente evolvere per accettare tali principi.

Sono necessarie regolamentazioni di tipo etico?

Il Comitato ha sottolineato la necessità di creare un quadro etico per la progettazione, la produzione e l’uso di robot. Ciò funzionerebbe in congiunzione con un codice di condotta per gli ingegneri di robotica, di un codice per i comitati etici di ricerca durante la revisione dei protocolli di robotica e delle licenze di modelli per i progettisti e gli utenti.

Ho già discusso in un post precedente sui problemi etici dell’intelligenza artificiale. La mia previsione è che la maggior parte delle società che investono nella zona dovranno istituire, il prima possibile, un comitato etico interno. Ma il problema è capire se le leggi statutarie sull’etica siano necessarie poiché potrebbero limitare la crescita del settore.

La privacy come “valuta” non può influenzare le persone

È la prima volta che vedo la privacy associata ad una “valuta”. Tuttavia, è vero che forniamo i nostri dati personali per l’acquisto di servizi. E la questione è ancora più complicata in caso di robot complessi il cui ragionamento non può essere mappato. Tale circostanza potrebbe innescare problemi di protezione dei dati che ho già discusso in un post precedente. Ma è importante che il Comitato abbia richiesto garanzie necessarie per garantire la privacy e la sicurezza anche attraverso lo sviluppo di standard.

La reazione del mondo industriale

L’Associazione Europea di Robotica ha reagito immediatamente a questo rapporto affermando in un position paper che:

Se è vero che” l’industria europea potrebbe beneficiare di un approccio coerente alla regolamentazione a livello europeo” e che le imprese trarrebbero vantaggio dalla certezza del diritto in alcune aree, l’eccessiva regolamentazione ostacolerebbe ulteriori progressi. Ciò rappresenta una minaccia per la competitività non solo del settore della robotica ma anche dell’intera industria manifatturiera europea “.

Questo è il solito problema che viene discusso anche in relazione alla recente consultazione europea sulle norme per le tecnologie dell’Internet of Things. Può essere difficile stabilire regole così specifiche su tecnologie in rapida evoluzione. La preoccupazione è che le normative possano rischiare di limitare gli investimenti nel settore, mentre a mio avviso dovremmo accogliere regolamenti che creino maggiore certezza e promuovano l’innovazione.