Il processo di diffusione dei sistemi di Artificial Intelligence è già in atto, anche se molti di noi non se ne rendono conto (ancora). A ciò contribuisce il fatto che i sistemi di A.I. attualmente in commercio e destinati al grande pubblico appartengono alla categoria di A.I. “debole” e cioè a quel tipo di intelligenza artificiale che imita le facoltà dell’intelletto umano, in una versione semplificata e molto spesso “single-purpose”, laddove lo scopo (purpose) è predeterminato dal programmatore.
Ma ci sono già dei casi di intelligenze artificiali cosiddette “forti” che hanno attirato l’attenzione dei media e di alcuni curiosi. Un esempio è l’algoritmo di trasformazione delle foto satellitari utilizzato da uno spin off dell’università di Stanford, in collaborazione con alcuni ingegneri di Google, che ha imparato a barare. Infatti i ricercatori, a valle dell’addestramento della macchina, si sono resi conto che, nella fase di trasformazione delle foto satellitari in mappe cartografiche, alcuni elementi che la macchina aveva imparato a riconoscere come irrilevanti, venivano automaticamente rimossi, laddove, quasi magicamente, riapparivano durante il processo inverso, da versione cartografica ad immagine satellitare. Merita sicuramente una menzione anche il progetto Nautilus, portato avanti dall’università del Tennessee, il quale ha previsto l’impiego dell’intelligenza artificiale per l’analisi di un vasto database di notizie locali, in parte tratte anche da archivi della BBC o del New York Times, che coprivano svariati decenni del dopoguerra. Il risultato è che, sulla base di un addestramento fondato sulla ripetizione di determinate “mood words”, cioè parole indicative dello stato emotivo (es. horrible, nice) delle persone, in correlazione con i fatti descritti all’interno degli articoli, si è visto che il sistema era capace di prevedere il malcontento crescente delle masse. Addirittura avrebbe previsto, con una certa chiarezza, anche i movimenti della ‘primavera araba’ dello scorso decennio.
Poi alcuni robot umanoidi hanno già preso parte a numerosi eventi aperti al pubblico e a trasmissioni televisive (provate a cercare su YouTube “humanoid robot” o simili e troverete diversi esempi).
Il campanello probabilmente è meglio avvertito negli ambienti giuridici e d’impresa, laddove si sta verificando un vero sconquasso in conseguenza dell’impatto della A.I. sulla privacy, sulla governance aziendale, sul diritto del lavoro e, non ultima, sulla proprietà intellettuale.
Per adesso, in tema di IP, i tempi non sembrano maturi per riconoscere una soggettività giuridica autonoma ai sistemi di intelligenza artificiale (interessante a questo proposito l’articolo di Simone Milli “Quando l’intelligenza artificiale inventa o crea”).
Infatti, vi è un ostacolo di natura più generale al riconoscimento in capo alla macchina di una capacità giuridica e di agire piena.
Dal lato delle responsabilità probabilmente alcune norme cardine del nostro sistema possono essere, con i dovuti adattamenti, ben utilizzate per riparare gli incidenti e i danni causati dal sistema-macchina. Si pensi ad esempio alla norma sulla circolazione stradale, art. 2054 c.c., che attribuisce la responsabilità comunque al proprietario del veicolo/macchina, salvo che non provi di aver fatto tutto il possibile per evitare il danno. O ancora all’articolo 2050 c.c., riferito allo svolgimento di attività pericolose, che imputa la responsabilità a chi esercita l’attività, salvo che provi di avere adottato tutte le misure idonee a evitare il danno (bene potrebbe funzionare in tema di robot-chirurgia). Più complesso sembra invece riconoscere diritti in favore di sistemi di A.I. nonostante, a livello di creatività, di fatto questi si siano già dimostrati capaci di eguagliare alcune opere umane. Lo dimostra il ritratto di Edmond Belamy, frutto della rielaborazione da parte di un sistema di A.I. di circa 15.000 ritratti eseguiti tra il quattordicesimo e il ventesimo secolo, completamente nuovo e creativo, battuto all’asta per la cifra record di circa 400.000 dollari.
Eppure l’impostazione normativa attualmente in uso in Italia, in Europa ed in diversi paesi extra europei si appunta su un concetto formalistico ed antropomorfico dell’autorialità, in qualche caso, optando per soluzioni “di ripiego”, come quella adottata dallo UK Design Patent & Copyright Act, secondo cui ci può essere un creatore “di primo livello”, sempre umano, ed uno “di secondo livello”, a cui però non appartengono i diritti.
Per questo stesso motivo ad oggi l’ufficio brevetti europeo non riconosce autorialità, prima ancora che inventività, ai sistemi elaborati dall’intelligenza artificiale. Ne sono dimostrazione i brevetti depositati nei casi DABUS. Due domande di brevetto sono state depositate nel 2019 dal signor Thaler, designatosi titolare in qualità di “datore di lavoro” e proprietario della A.I., indicata invece come inventore. Il primo brevetto si riferiva ad un contenitore per alimenti e l’altro ad un dispositivo per la segnalazione luminosa da utilizzare in caso di soccorsi o ricerche.
Dette domande sono state rigettate sulla base di motivi formalistici, in quanto l’inventore, secondo l’Ufficio, deve avere un nome, un cognome e un indirizzo e quindi deve essere un umano, dotato di piena personalità giuridica. Ciò premesso, il sistema di A.I. non può esser né inventore né tantomeno titolare, a cui il primo, dovrebbe cedere i diritti economici sull’invenzione.
Queste soluzioni mostrano evidentemente i propri limiti e appaiono come un tendaggio diafano, dietro al quale si scorge, incombente, la questione etica e sostanziale, che non è più rinviabile.
È auspicabile ed opportuno che il dibattito politico inizi seriamente ad occuparsi del problema della soggettività dei sistemi di A.I., e delle conseguenze ad esso connesse, perché la tecnologia viaggia ad una velocità infinitamente maggiore dei ritmi delle nostre aule parlamentari ed il tempo sta venendo a mancare.
Quindi, per adesso, potremmo dire Formalismo normativo 1 – Intelligenza artificiale 0. Ma siamo solo al primo round.
© BUGNION S.p.A. – Marzo 2021