Il meglio (FORSE) del blog-bottega /272…. andando a ritroso nel tempo (*)
INFORMAZIONE DI SERVIZIO: trattasi di lettera apprezzabile soprattutto da bipedi terrestri che dispongano di buoni ricordi robotici-asimoviani… ma potrebbe interessare anche chi non ami le guerre e dunque ad esse si opponga.
Gentile dottoressa Calvin, ho un problema e desidero consultarla. Spero che in uno dei mondi paralleli lei sia disponibile a rispondermi.
Per prima cosa riporto i dati di cui dispongo.
Il 24 novembre 2013 E. C. il «Corriere della sera» – uno dei quotidiani più venduti (in tutti i sensi) in Italia – titolò a pagina 24: «Il codice dei doveri dei robot “Obbedite e non uccidete”». Sottotitolo: «A Pisa gli scienziati che preparano la Carta europea»; occhiello «Sarà pronta a maggio» eccetera. Il lungo articolo era di Marco Gasperetti ma c’erano anche due box, illustrazioni – con l’inevitabile quanto fuori luogo immagine del film «Metropolis» di Fritz Lang – e un corsivo di Anna Meldolesi con l’accattivante titolo «Sembra Asimov, ma non è fantascienza».
Ecco Gasperetti.
Il grande libro delle leggi e dei diritti dei robot sarà consegnato alla Commissione europea a maggio. Non avrà un titolo d’ispirazione biblica e non farà alcun riferimento ai Comandamenti e ai grandi saggi dell’etica, ma più prosaicamente si chiamerà «Linee guida per la regolamentazione della robotica». Eppure, queste semplici pagine dattiloscritte, potrebbero cambiare il modo con il quale oggi guardiamo le macchine e lanciare le basi della futura giurisprudenza degli automi e persino della loro etica personale quando un giorno lontanissimo dovessero diventare così intelligenti da avere una parvenza di Io: l’autocoscienza. Ci sta lavorando da anni un gruppo di scienziati europei (uniti dal progetto RoboLaw) composto da informatici, ingegneri, giuristi e filosofi delle università di Reading (Regno Unito), Tilburg (Olanda), Ludwig Maximilians (Monaco) e coordinati dalla Scuola Superiore Sant’Anna di Pisa, ateneo d’eccellenza dove hanno studiato il premier Enrico Letta e la ministra Maria Chiara Carrozza, che ne è stata rettore. Sono una quindicina i «cervelloni», tra i quali lo scienziato inglese Kevin Warwick, il primo al mondo a farsi impiantare chip sotto la pelle per sperimentare la status di cyborg, e discutono anche temi futuribili che il 28 e il 29 novembre saranno al centro di convegno internazionale a Pisa. Elucubrazioni che oggi possono apparire fantascientifiche, ma destinate a diventare di quotidiana attualità. Come accaduto per Internet e con i nuovi reati informatici. Qualche esempio? Il problema legato alla violenza e all’uso dei robot come armi. Che non è affatto utopia se si pensa all’ultima generazione di droni capaci di colpire in autonomia o agli esoscheletri e alle protesi che trasformano il più debole degli umani in un incredibile Hulk. «Una macchina non deve uccidere un uomo e questo ci sembra un principio universale – spiega Pericle Salvini, 39 anni, quattro figli, dottorato di ricerca in biorobotica alla Sant’Anna e project manager di RoboLaw – anche se in questa stesura non affronteremo i problemi legati alle guerre e agli eserciti. Stiamo discutendo molti temi, tra i quali quello del lavoro e la spinosa questione della macchina che toglie occupazione alle persone, cercando di arrivare a una sintesi tra il bisogno della tecnica e dello sviluppo industriale, l’annullamento di impieghi pericolosi e degradanti (sempre più affidati alle macchine) e l’aumento di posti di lavoro».Poi c’è il problema della personalità virtuale. «Un robot deve essere riconosciuto come tale – continua Salvini – e non deve mai ingannare le persone, né per le sembianze fisiche, né per le capacità cognitive, né per gli pseudo sentimenti. Con un’eccezione: l’impiego in alcune terapie».E ancora se un automa provoca un danno di chi è la colpa? «Sempre e comunque di un umano – continua il ricercatore di RoboLaw – progettista, costruttore, programmatore, assemblatore, venditore o proprietario che sia. Ogni robot dovrà essere dotato di una scatola nera da cui sarà possibile, eventualmente, risalire alle cause di un mal funzionamento». Ma sarà poi un malfunzionamento, oppure l’inizio di quella parvenza d’autonomia e di coscienza individuale che si manifesta con un effetto collaterale non previsto? «Come per i farmaci anche gli atomi dovranno essere sperimentati – risponde la professoressa Erica Palmerini, docente di diritto privato dell’Istituto Dirpolis (Diritto, politica, sviluppo) della Sant’Anna e coordinatrice del progetto RoboLaw – e i produttori dovranno informare gli utenti sui possibili effetti collaterali». Sino a quando la macchina diventerà autocosciente.
Se vi siete stupiti dell’uso della parola «utopia» in questo articolo, confermo: c’era scritto «utopia», dunque la violenza e l’uso dei robot come armi «non è affatto utopia». Buono a sapersi, fino a oggi io credevo che l’utopia fosse magari lontana ma desiderabile.
Ed ecco Anna Meldolesi.
«Presto anche i robot avranno una Carta dei diritti e dei doveri. Per ora è solo una bozza, ma le linee guida ufficiali potrebbero arrivare in primavera. Alla stesura degli articoli ha contribuito la Scuola Superiore Sant’Anna di Pisa all’interno del consorzio RoboLaw finanziato dall’Unione europea. L’obiettivo è stabilire le regole per una pacifica e vantaggiosa convivenza con le macchine intelligenti che ci affiancheranno sempre più spesso in case, ospedali, posti di lavoro. Le prime leggi della robotica le scrisse Isaac Asimov ma si trattava di fantascienza. Numero 1: un robot non può danneggiare un essere umano. Numero 2: deve obbedire agli umani purché non gli venga chiesto di violare la prima legge. Numero 3: deve proteggere la propria esistenza a patto di non infrangere le altre leggi. La bozza europea conserva questa impronta, stabilendo che «i robot non potranno mai darci ordini, solo consigli». Le preoccupazioni dei robo-eticisti però non sono puramente fantascientifiche. Dicendo che «i robot non possono essere programmati per uccidere», si esclude lo sviluppodi droni in cui sia un software (anziché un operatore in carne e ossa) a decidere quando sparare. I robot, inoltre, dovranno essere socialmente utili, verdi, immuni agli stereotipi. Niente robottine sexy, par di capire. «I servizi svolti dai robot non dovranno diminuire l’occupazione delle persone ma migliorarla», si legge. Giusto, ma ragionando così i costruttori di carrozze avrebbero impedito l’avvento delle automobili».
Dalla rete non riesco a recuperare «La bozza delle regole» ma il succo è nei due articoli citati. Interessante – anche per il tono secco e chiaro – il punto 5 così espresso nel cartaceo del «Corsera» citato: «I robot non possono essere programmati per uccidere gli esseri viventi».
Gentile dottoressa Calvin, ho un paio di quesiti per lei.
Trova sensato stabilire che «i robot non possono essere programmati per uccidere gli esseri viventi» senza affrontare subito la connessione con i droni? Che differenza sostanziale c’è fra un militare che guida i droni e un software? Scrisse il poeta Brecht che «il soldato ha un difetto, può pensare». Ma chi guida i droni è tenuto lontano dal bersaglio perché non pensi all’umanità delle vittime e allora dottoressa Calvin fra il drone e il soldato che lo guida chi è più vicino a essere un robot?
Grazie se mi risponderà.
Se per caso lì dove lei si trova adesso incontra il suo amico Isaac Asimov, vorrei gli chiedesse cosa pensa della libertà delle università che parlano di pace mantenendo buoni rapporti con i militari (cioè chi fa la guerra). Qui in blog Antonino Drago ha raccontato che proprio a Pisa qualche problema c’è (Parlare di pace all’università? Così no) e ha dato le dimissioni. A me pare che – a Pisa o altrove – non porsi problemi etici per le stragi che fanno i droni oggi quando a guidarli è un (militare) umano e parlare solo del giorno in cui i droni decideranno “da soli” (?) sia un’etica che fa schifo; sarei curioso di sapere che ne pensa il vecchio Isaac.
Grazie dottoressa Calvin se vorrà rispondermi.
VOCE DAL FONDO
Scusa db, dato che ci sei, chiedi a Susan Calvin cosa c’entra Enrico Letta con la carta dei doveri.
RISPONDE DB
Cara Vdf (voce dal fondo) non c’è bisogno di seccare la Calvin, ti rispondo io: Letta nipote non c’entra proprio un cecio, il «Corsera» lo citava per un malinteso senso di servizio verso le larghe – o piccole, non so – intese che salveranno l’Italia; è un riflesso automatico (robotico direbbe qualcuno).
VOCE DAL FONDO
Scusa db, però potresti chiedere alla Susy o al buon dottore un commento sulla frase della Meldolesi «ragionando così i costruttori di carrozze avrebbero impedito l’avvento delle automobili».
RISPONDE DB
Cara Vdf, se Susan (chiamarla Susy mi pare azzardato per quel che so di lei) o il buon dottore (cioè Asimov) avranno voglia di farmi sapere il loro parere ovviamente ti informerò. Nell’attesa posso dirti quel che penso io. Mi parrebbe più interessante, visto il tema dell’articolo, la questione se i fabbricanti di automobili abbiano costruito sistemi di sicurezza e/o se i governi hanno loro imposto di farlo. E oltre alle automobili pericolose penso chissà perché all’Ilva: il problema non è se ai contadini piacciano a esempio le acciaierie ma se la collettività è capace di impedire che chi le costruisce danneggi la salute pubblica. E così via.
VOCE DAL FONDO
Sssssssscusa ancora db, mica vorrai chiudere qui questo intreccio di questioni così interessanti.
RISPONDE DB
Egregia Vdf, in effetti mi piacerebbe riparlarne. Con commenti e/o post vostri, insomma di chi legge, ma anche (più sì che no) con un mio secondo intervento. Sui robot giusto sto leggendo una bella tesi di laurea – «A nostra immagine» di Eva Cabassi – che mi solletica le meningi e vorrei proporne qualche p/assaggio anche qui in blog. E poi mi piacerebbe postare le (trascurate) «leggi dell’umanica» che il buon Isaac provò ad affiancare alle «leggi della robotica». A una prossima puntata dunque.