Cerca e trova immobili
Anche i robot vogliono i loro diritti

STATI UNITIAnche i robot vogliono i loro diritti

13.12.21 - 06:05
Sempre più spesso si parla di attribuire ai sistemi automatizzati una "carta dei diritti" e un riconoscimento morale
AFP
Anche i robot vogliono i loro diritti
Sempre più spesso si parla di attribuire ai sistemi automatizzati una "carta dei diritti" e un riconoscimento morale
Anche le macchine hanno una loro responsabilità giuridica.

WASHINGTON - Ci siamo mai chiesti cosa pensa un robot? Probabilmente no. Siamo abituati, infatti, a considerare i sistemi di Intelligenza Artificiale come mere appendici dell’uomo, che se ne serve per gli scopi più vari. Eppure, a dispetto di quello che la maggioranza di noi pensa, la questione etica del riconoscimento di una serie di diritti agli strumenti di A.I. sta diventando di stringente attualità e non è più confinabile al mondo della fantascienza. Nel 2014, dei ricercatori canadesi elaborarono un esperimento sociale per misurare il grado di fiducia che un sistema di A.I. può riporre negli esseri umani. Venne quindi costruito un robot autostoppista, chiamato hitchBOT, che divenne popolare dopo un viaggio in autostop compiuto in Europa e in Canada.

KeystoneL'autostoppista hitchBOT

Morte di un autostoppista robot - Nell’agosto del 2015, hitchBOT venne distrutto, a Filadelfia, in un atto di vandalismo e la notizia della sua scomparsa suscitò un’onda inimmaginabile di commozione e sdegno. “Non posso mentire-scrisse un giornalista su Twitter-sono ancora devastato dalla morte di hitchBOT”. Lo stesso grado di empatia e sofferenza, come raccontato dal giornalista Nathan Heller al New Yorker, si ebbe nei confronti di un robot, simile a un millepiedi, costruito per sminare i terreni in operazioni di guerra, perdendo, di conseguenza, tutte le zampe di cui era composto. Pur sapendo, quindi, che si trattava di una macchina finalizzata, per così dire, al sacrificio di sé, un colonnello dell’Esercito ordinò l’interruzione dell’operazione ritenendola “disumana”. Entrambi i casi citati, ma ce ne sarebbero tanti altri, dimostrano che, a dispetto del comune sentire, il riconoscimento di una "parità morale" alle Intelligenze Artificiali, in tema di diritti, è un argomento più complesso di quel che si pensi, proprio per la difficoltà di stabilire cosa sia, in effetti, tale parità e su quali criteri si fondi.

Perché no - In questi ultimi decenni, lo sviluppo tecnologico è progredito a un ritmo tale da dare concretezza a temi che, un tempo, si sarebbero considerati solo bizzarrie fantascientifiche. Oggigiorno, invece, non solo esistono macchine a guida automatiche, ma ci sono robot che vengono utilizzati in strutture sanitarie, che tengono compagnia alle persone anziane e che, addirittura, esplicano la funzione di sacerdoti. Il tema della responsabilità giuridica dei robot, era già sorta, anni fa in occasione del primo incidente mortale causato da un’auto a guida automatica. Anche se la responsabilità legale dell’incidente, venne attribuita alla disattenzione dell’autista di sicurezza, tenuto a vigilare sulla strada durante tutta la durata del viaggio, il dibattito che ne è conseguito, e che è ancora in corso, ha posto l’attenzione sull’importanza di una sorta di "carta di diritti" da riconoscersi ai robot.

AFP

Perché sì -Secondo Hugh McLachlan, docente emerito di Filosofia pratica alla Glasgow Caledonian University, ci sono due ordini di argomenti che inducono l’opinione pubblica a ritenere poco plausibile l’attribuzione di diritti ai sistemi di A.I.: in primo luogo, l’idea che una macchina costruita dall’uomo possa essere "altro" rispetto alla mente che l’ha concepita e, in secondo luogo, la certezza che solo un corpo vitale possa essere suscettibile di un ordine morale. Con riguardo al primo argomento, McLachlan afferma che così come la coscienza, i sentimenti e il pensiero non siano riconducibili a semplici fenomeni materiali, così anche una intelligenza artificiale non può essere ricondotta unicamente a un ammasso di cavi e componenti in silicio. Sarebbe l’iterazione con altri fenomeni, quali l’elettricità, a far "esistere" il computer, prescindendo dai singoli componenti elettronici che lo compongono, esattamente come ciò che viene definita una mente cosciente non può essere ricondotta a un ammasso di molecole e di altri elementi necessari al suo funzionamento. Con riguardo alla seconda argomentazione, il docente fa notare come gli esseri umani tengano in massima considerazione sia le persone defunte che coloro che non sono ancora nati. In entrambi i casi, si tratta di persone che sono prive di vita e di un corpo materiale, eppure non meno "viventi" nel sentire generale. Per McLachlan, quindi, il non riconoscere un rispetto morale anche ai robot, in quanto essere non viventi dotati di un corpo non naturale ma artificiale, si ridurrebbe a un atto arbitrario che necessiterebbe di una giustificazione molto meno scontata di quanto sostenuto fino ad oggi.

Si attiva anche il Parlamento europeo - Lo stesso concetto venne rimarcato nel 2016 dal, già citato, giornalista Nathan Heller che, in un suo articolo sul New Yorker, arrivò alla conclusione che, se avere abilità cognitive simile alle nostre è il discrimine per la concessione di standard morali verso altre specie animali, non si capisce perché tale concessione non venga fatta anche alle forme di vita artificiale molto avanzate. Nel febbraio del 2017, il Parlamento europeo ha votato una risoluzione, presentata dalla Commissione giuridica che raccomandava alla Commissione europea l’istituzione di uno status giuridico specifico per i robot e la redazione di un codice etico per chi li progetta. Uno degli obiettivi che ci si prefiggeva era quello di rendere possibile l’attribuzione di responsabilità a quelle macchine, così complesse e sofisticate, che siano capaci di prendere decisioni autonome nell’ambito di certi contesti. Alla base della risoluzione adottata dal Parlamento europeo vi è l’idea che “più i robot sono autonomi, meno possono essere considerati meri strumenti nelle mani di altri agenti”. Per la prima volta, si è voluta creare una cornice legislativa capace di regolare la robotica, il suo utilizzo e la sua finalità. Così come riconosciuto dalle istituzioni europee, il dibattito sulla necessità di estendere dei diritti e delle responsabilità ai sistemi di Intelligenza Artificiale, non è più rinviabile e merita un serio approfondimento, in considerazione del fatto che esistono attualmente sistemi in grado di svolgere attività tipicamente umane e di mettere in atto processi cognitivi assimilabili a quelli umani.

AFP

Uomo e umanoidi, un rapporto di inizio secolo - La questione dei diritti da riconoscersi ai robot, a ben vedere, affonda le sue origine nei primi anni del secolo scorso quando si iniziò a ipotizzare la coesistenza dell’uomo con degli umanoidi robot, dal termine di origine ceca "robota" che significa "lavoro forzato". A livello filosofico, la questione acquisì una certa rilevanza già nel 1965 quando Hilary Putnam, durante una lezione tenutasi al Massachusetts Institute of Technology di Boston, introdusse l’ipotesi di riconoscere dei diritti civili ai robot, concetto poi sviluppato, nel 1985, da Robert Freitas il quale, nella sua opera "The legal rights of robots", confermò la necessità di riconoscere dei diritti a tutte quelle macchine complesse che si dimostrino capaci di sviluppare dei pensieri propri.

Come gli animali - Molto spesso, gli studiosi che, negli anni, hanno approfondito la questione etica del riconoscimento dei diritti alle macchine, si sono serviti del parallelo robot-animali per chiarire maggiormente le proprie idee. Rispetto ad un passato, anche recente, in cui agli animali non era riconosciuto alcun diritto, si è passati, in epoca recente, a un cambio di prospettiva e a essi sono stati riconosciuti una serie di diritti che giudichiamo, alla luce di una coscienza moderna, come appropriati e necessari. Sempre secondo il giornalista Nathan Heller «finché non saremo in grado di individuare cosa ci è richiesto dagli animali, non avremo chiaro ciò che dobbiamo ai robot, o ciò che loro devono a noi». Il mancato riconoscimento di certi diritti agli strumenti di A.I, sarebbe, quindi, frutto di un nostro pregiudizio che non ci fa riconoscere empaticamente come simili i robot, così come, in tema di riconoscimento di diritti agli animali, secondo l’etologo Jonathan Balcombe, le persone tendono a sentirsi più vicine «a un criceto che sbatte le palpebre e tiene il cibo tra le zampe piuttosto che ad un pesce senza dita e senza ciglia». Eppure, sempre secondo l’etologo, «presumere che la piccolezza del cervello dei pesci sia sinonimo di stupidità, è come sostenere che i palloncini non possono volare perché non hanno le ali». La conclusione a cui si dovrebbe giungere è che se noi riusciamo a pensare ai pesci come a dei nostri “pari”, riconoscendo loro dei doveri morali, allo stesso modo ci si dovrebbe comportare con i robot. Ciò che siamo abituati a pensare come un prossimo futuro è, in realtà, il presente che stiamo già vivendo dove bot, droni, macchine e robot sono sempre più autonomi rispetto a coloro che li hanno progettati e sviluppati. Non sembra lontano, quindi, il tempo in cui i robot saranno considerati come titolari di diritti e doveri, anche se rimangono tutt’ora da risolvere spinose questioni di carattere etico e morale che dividono, in modo anche radicale, studiosi ed esperti del settore.

Entra nel canale WhatsApp di Ticinonline.
NOTIZIE PIÙ LETTE