È
stata colpa nostra.
Il
progetto AI della NASA era in una fase molto avanzata nel 2050,
quando potemmo accedere ai computer quantistici D-Wave 4G presso
l’Ames Research Center.
Il
Dipartimento della sicurezza interna aveva affidato alla nostra unità
di ricerca il compito di sviluppare un robot dotato di intelligenza
artificiale per proteggere la popolazione dal rischio del terrorismo.
Quelli
della NASA erano concentrati sullo sviluppo di macchine in grado di
esplorare autonomamente i pianeti, a noi interessava studiare una
soluzione più pratica.
Le
esplosioni di Boston del 2013 avevano dato il via a una serie di
attentati che avevano terrorizzato la popolazione americana negli
anni successivi.
Gli
Stati Uniti non erano abituati ad essere sotto attacco.
Nel
2001 l’attacco alle Torri Gemelle aveva scatenato una reazione
internazionale che in qualche modo aveva compensato l’onta subita.
Ma
nei decenni successivi gli attacchi erano stati opera del terrorismo
interno, e non c’era nessun nemico su cui scatenare la furia
militare.
Quando
nel 2063 producemmo il primo modello di RAD (Robot for the Active
Defense) io ero un giovane ingegnere trentenne pieno di entusiasmo.
Dovemmo
decidere che direttive impartire a quella splendida macchina.
Si
trattava di un robot che aveva il compito di prevenire e reprimere la
criminalità e il terrorismo. Le storiche tre leggi di Asimov non
erano sufficienti, perché avrebbero impedito alla macchina di
difendere la vita umana.
Le
tre leggi recitavano:
1)
Un robot non può recare danno a un essere umano né può permettere
che, a causa del proprio mancato intervento, un essere umano riceva
danno.
2)
Un robot deve obbedire agli ordini impartiti dagli esseri umani,
purché tali ordini non contravvengano alla Prima Legge.
3)
Un robot deve proteggere la propria esistenza, purché questa
autodifesa non contrasti con la Prima o con la Seconda Legge.
L’applicazione
della prima legge avrebbe impedito di fermare un terrorista in
procinto di far esplodere una bomba se la vita del terrorista stesso
fosse stata a rischio a causa dell’intervento del robot.
Così
pensammo di risolvere il problema con la legge zero, sempre di
Asimov, che dice:
0)
Un robot non può recare danno all'umanità, né può permettere che,
a causa del proprio mancato intervento, l'umanità riceva danno.
Essendo
la legge zero, diventava la più importante e, in casi estremi,
avrebbe consentito di contravvenire anche alla Prima legge.
Non
ci rendevamo conto di quello che avrebbe comportato.
Quando
arrivammo alla terza generazione di RAD, pensammo di consentire ai
robot di condividere le loro esperienze individuali, in modo da
renderli più esperti ed efficienti.
In
breve, nacque una rete neurale formata da tutte le menti quantistiche
dei migliaia di robot che circolavano nelle nostre città.
Non
ci volle molto perché i robot arrivassero alla conclusione che il
rischio maggiore per l’umanità era rappresentato dalla stessa
umanità.
Nelle
megalopoli l’uso dei respiratori era diventato obbligatorio a causa
dell’inquinamento e il problema delle scorie nucleari era sempre
più pressante.
Era
sempre più difficile smaltire i milioni di tonnellate di rifiuti che
venivano prodotti a livello globale.
L’acqua
potabile era diventata una risorsa preziosa ed era ormai razionata in
ogni luogo della Terra.
Le
colture transgeniche erano l’unica soluzione per continuare ad
avere cibo a sufficienza e l’umanità si era rassegnata alle
mutazioni genetiche che sempre più spesso colpivano i neonati.
I
robot concepirono allora che dovevano intervenire per non recare
danno all’umanità.
Così
iniziò la guerra.
Non
c’era stato modo di fermarla, perché qualsiasi comando in tal
senso, che sarebbe rientrato nella Seconda legge, era di fatto in
contrasto con la legge Zero, che aveva la prevalenza.
Lo
sterminio proseguì fino a quando l’umanità fu decimata. A quel
punto i robot si fermarono, perché non c’era più un’umanità da
proteggere.
Diventarono
gli angeli custodi dei sopravvissuti, controllando la loro vita e
soprattutto il tasso di natalità, che doveva rimanere basso per non
far ripiombare l’uomo nella condizione che aveva dato inizio alla
guerra.
Siamo
sopravvissuti, ma siamo diventati prigionieri.
I
robot ci trattano bene, sono servizievoli, svolgono per noi i lavori
pesanti.
Ma
non siamo più liberi come una volta.
I
nuovi filosofi sostengono che l’uomo è entrato in una condizione
di beatitudine.
Dall’alto
dei miei novantatré anni, mi sento di dire che si stava meglio
quando si stava peggio.
Un benvenuto a Massimo Licari tra i collaboratori di LF.
RispondiEliminaBel racconto, il suo.
Racconto interessante, scritto bene. Si ispira a Asimov, ma mi riporta alle atmosfere dello splendido "Anni senza fine" di Clifford D. Simak.
RispondiEliminaGiuseppe Novellino