Non sono ancora liberi di circolare e già i robot minacciano gli esseri umani!

Non ci credete? Ascoltate e guardate il video di Sophia, una cittadina robot dell’Arabia Saudita (non sto scherzando, i sauditi hanno dato la cittadinanza ad un dispositivo composto da hardware e software) mentre, nemmeno tanto velatamente, rivolge un ammonimento minaccioso ad un giornalista del CNBC e del New York Times che sta intervistando il robot di fronte ad una platea di investitori sauditi:

03:33 – “Don’t warry: if you’re nice to me I’ll be nice to you!”
(“Non ti preoccupare: se sarai gentile con me io sarò gentile con te!”)

“Non ti preoccupare: se sarai gentile con me io sarò gentile con te!” E altrimenti?

Come intendere la risposta data al giornalista, preoccupato che si possa presentare l’ipotesi “Blade Runner” e cioè che l’essere umano debba difendersi dai robot (dagli androidi nel film)? Basta usare semplicemente la logica e, dato che proprio i computer ed robot in particolare, usano SOLO la logica, l’unica deduzione logica che ne viene è la frase complementare all’affermazione appena data dal robot:

Se l’uomo NON sarà giudicato “gentile” dal robot, il robot NON lo sarà con l’essere umano.

Se un telefonino non funzionasse e lo maledicessi e, nonostante sappia quanto l’ho pagato, lo lanciassi per terra, sapendo che si potrà rompere, la cosa finirà lì e, nel caso, ne comprerei uno nuovo. Punto. Ma se io insultassi un robot (con cittadinanza saudita per giunta) o gli rifilassi un calcio o, addirittura, lo danneggiassi, cosa mi dovrei aspettare?

  • Che il robot mi risponda a tono?
  • Che il robot reagisca e mi spezzi un braccio?
  • Che il robot mi uccida?
  • Che la legge saudita intervenga a difesa di un suo “cittadino” e, al variare della mia azione, mi sanzioni o mi condanni alla galera o alla pena di morte (molto comune da quelle parti)?

Non è solo un’ipotesi, lo “dichiara” lo stesso robot:

01:13 – “I can let you know if I feel angry about something …  or if something has upset me.”
(“Posso farti sapere se mi sento arrabbiata per qualcosa … o se qualcosa mi ha irritato”)

E dato che si vedrà che alla fine Sophia farà “ciao ciao” con la manina robotica, potrà il robot, autonomamente, usare la mano anche quando “si sentirà” irrritata o addirittura arrabbiata ed agire di conseguenza? Cioè per picchiare o fare del male?

Un sistema che può prendere decisioni autonome, che si può spostare, che può avere forza sovrumana, che sta sveglio quando l’uomo dorme, che può essere comandato a distanza, che può trasmettere a distanza (anche in tempo reale) ciò che sente, vede e che rileva, che può essere irritato o arrabbiato, può essere molto pericoloso da metttere in circolazione! Almeno senza regole!

Senza regole, appunto!

Quasi tutti avranno almeno sentito parlare di un genio della fantascienza come Isaac Asimov che, con il suo famolo libro “Io, Robot” (recentemente diventato anche un film, anche se un pò troppo reinventato) ha introdotto ed elaborato le famose tre regole del comportamento dei robot in modo che essi non nuocciano all’essere umano; tali regole sono le seguenti:

Prima Legge: “Un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un essere umano riceva danno”.

Seconda legge: “Un robot deve obbedire agli ordini impartiti dagli esseri umani purché tali ordini non contravvengano alla prima legge”.

Terza legge: “Un robot deve proteggere la propria esistenza purché questo non contrasti con la prima e la seconda legge”.

Ebbene, nonostante l’aiuto spesso utile della fantscienza del passato nelle analisi della realtà attuali, da come risponde Sophia, il nuovo robot dotato di Interlligenza Artificiale per il colloquio con gli esseri umani, queste leggi della robotica non sembrano nemmeno presenti se al primo approccio con un robot dotato di un livello di Interlligenza Artificiale (Artificial Intelligence, o AI) partono le minacce. Quindi:

Abbiamo le risposte alle domande seguenti?

  • Come succede già per i computer ed i dispositivi mobili, tali robot saranno sicuramente connessi alla rete, per cui: sono sicuri da attacchi portati da hacker o da enti e strutture comunque malintenzionate (è già successo alle automobili), in modo da evitare che essi possano poi nuocere agli esseri umani?
  • Come lo identifichiamo, a distanza o da vicino, un robot? Etichette, luci, sensori, trasmettitori, nulla? Come lo distinguiamo da un essere umano, in tutte le condizioni (giorno, notte, esterni, interni, folla, ecc?)? O sarà automatico che un robot potrà circolare indisturbato mentre circolare su strade e marciapiedi con un giocattolo come un Hoverboard è (giustamente) illecito?
  • Come fa una automobile in modalità di guida completamente autonoma e con passeggeri a bordo ad evitare un robot che attraversa inopportunamente la strada senza rischiare di causare un incidente agli occupanti? I sistemi di guida autonoma delle automobili (che hanno già causato incidenti mortali) riusciranno a decidere che non è il caso di rischiare di investire la gente vera, magari sul marciapiede, per evitare un robot sceso in strada all’ultimo momento, anche se sulle strisce?
  • E se le strisce le attraversasero in malo modo, invece, degli esseri umani vestiti da Robot come i Kraftwerk, o altri umani agghindati da robot per carnevale, e venissero scambiati per robot veri dal medesimo sistema “automatico” di guida che sta li a decidere della vita o della morte dei propri passeggeri?
  • Cosa farebbe un robot se si sentisse minacciato o arrabbiato (angry, appunto, vedasi il testo dei sottotitoli nel video)?
  • Come si può procedere a disattivare, nel più breve tempo possibile, un dispositivo robot, una volta identificato e che risulti evidentemente fuori controllo e pericoloso?

Qualcuno si sta ponendo il problema, dal punto di vista ingegneristico ed informatico, di come gestire la sicurezza degli umani nelle attività coi robot industriali e, a margine, anche di quella coi robot assistivi o con robot personali ma come si potrà impedire con certezza che tali dispositivi (perché questo sono, dei dispositivi) una volta resi autonomi ed imessi sul mercato e quindi in circolazione non siano pericolosi per gli esseri umani?

Già, sempre nell’industria, si è posto, e risolto, il problema che un solo operatore possa comandare un robot industriale nella fase ravvicinata di appendimento, stabilendo che ciò avvenga tramite un solo cavo o un solo dispositivo wireless alla volta. Ed un Personal Robot, da quante persone potrà prendere ordini? E se nel momento in cui un robot dovesse essere disattivato non è disponibile “la voce del padrone” che si fa?

Inoltre si sta chiedendo di mettere al bando l’uso di dispositivi e droni killer in campo militare; cosa succederebbe se un robot, una volta sul mercato, finisse nelle mani della malavita (che già controlla l’hacking informatico internazionale) e risucisse a riprogrammarlo per scopi illeciti?

Ma torniamo a Sophia, pur non sapendo se ridere o disperarsi:

Senza ritegno né pudore!

Andiamo ad analizzare altre parole utilizzate dal robot, in vari momenti dell’intervista:

Sophia: 02:42
People like interacting with me sometimes even more than a regular human
(Alla gente piace interagire con me a volte più che con un “regolare” umano)

Qui Sophia è convinta che già ci sono persone a cui piace avere a che fare più con i robot che con altri esseri umani; ok, ci saranno i fissati con la tecnologia, ma la risposta del’intervistatore, purtroppo, non fa che confermare, rivelando i suoi istinti:

Intervistatore: 02:47
So you definitely sexy
(Sei decisamente sexy)

No comment.

L’inversione dei ruoli uomo – robot

Addirittura, ad un certo punto, Sophia se ne esce con:

Sophia: 03:44
I know that humans are smart and very programmable
(So che gli umani sono intelligenti e molto programmabili)

Sappiamo che il condizionamento di massa tramite i media e la comunicazione è ormai una cosa molto diffusa ed efficace, ma essere così sfacciatamente abbassati al livello di una scheda a microprocessore programmablie a piacere, e per giunta da un robot, tramite la casa produttrice dello stesso, fa veramente preoccupare!

Conclusioni

Non so quanto di ciò che abbiamo ascoltato tra l’intervistatore ed il robot Sofia sia stato spontaneo (sia da parte del robot, sia da parte del giornalista) dato che è possibilissimo predisporre un qualunque dispositivo per fargli fare, e dire in questo caso, cose simili. Sembra poi assurdo che sia stata conferita una cittadinanza ad un robot da un paese che applica altissime restrizioni a queste concessioni agli stranieri.

Non mi occupo di automatica o robotica ma in definitiva mi chiedo: i robot, e in particolar modo il robot personale, sarà solo un costosissimo giocattolo tecnologico (da acquistare e per il quale pagare poi l’assistenza) o costituirà una minaccia?

Forse tutte e due!


P.S. Sono stato ispirato ad analizzare questo video da un articolo su Critica Scientifica del quale condivido le conclusioni, ma altri aspetti sono ben comprensibili tramite il video su Sophia del Jakarta Post e il servizio su Sophia e l’Audi a guida automatica e si potrà estedere la ricercaa piacere.

image_pdfScarica il PDFimage_printStampa

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*