Per
rispondere è bene partite dalla fantascienza per poi arrivare alla
scienza.
Nei
primi racconti tecnologici di fantascienza è facile trovare trame in
cui un computer o un robot "impazzisce" e prende il
sopravvento sull'uomo. In questi racconti i sistemi (i robot o i
computer) stanchi di essere "schiavi" dell'uomo hanno la
capacità di invertire i ruoli: il sistema è il "padrone"
e l'uomo è lo "schiavo".
Questo
genere di fantascienza prese molto piede quando si incominciò a
parlare abbastanza diffusamente di computer, cibernetica, ecc., ma
senza spiegare esattamente cosa fossero e come in effetti
funzionassero questi nuovi marchingegni.
Da
questo genere di fantascienza fu travolto anche un noto scrittore:
Isaac Asimov. Questo è stato uno scrittore di fantascienza
"ragionata". In pratica si tratta di fantascienza che però
parte da base reali e tramite ragionamenti logici prospetta
determinati scenari futuri possibili.
Proprio
per questa sua prerogativa Asimov formulò le tre leggi fondamentali
della robotica.
Tale
leggi sono le seguenti:
Prima
Legge: “Un robot non può recar danno a un essere umano né può
permettere che a causa del proprio mancato intervento un essere umano
riceva danno”.
Seconda
legge: “Un robot deve obbedire agli ordini impartiti dagli esseri
umani purché tali ordini non contravvengano alla prima legge”.
Terza
legge: “Un robot deve proteggere la propria esistenza purché
questo non contrasti con la prima e la seconda legge”.
Come
si può ben vedere queste tre leggi tutelano completamente
l'esistenza di ogni essere umano. Perché queste leggi possano essere
osservate esse devono essere inserite a livello hardware in un robot
o a livello software in un programma di un computer.
Queste
tre leggi sono così ben formulate che molti scienziati hanno
incominciato a prenderle in seria considerazione da circa 25 anni a
questa parte...ed ora si esce dalla fantascienza per entrare nella
scienza.
È
da circa 25 anni che si stanno creando programmi autoimparanti, cioè
che imparano dai propri sbagli. Questo ovviamente permette un
considerevole risparmio di tempo per portare a termine un certo
compito.
Faccio
un esempio per chiarire il concetto.
Supponiamo
di avere a disposizione un sistema per costruire un automobile. Si
può operare nel metodo tradizionale scrivendo un programma che dice
passo passo al sistema cosa fare: questo comporta un considerevole
impiego di tempo per scrivere il codice del programma. Oppure si può
lasciare che il sistema trovi da solo la strada più ottimale: anche
in questo caso c'è un certo impiego di tempo, ma è sicuramente
inferiore al caso precedente.
Un'altra
cosa da notare è che nel primo caso se il sistema dovesse
"impazzire" si tratterebbe sicuramente di un errore umano,
mentre nel secondo caso l'errore è sicuramente del sistema.
Ovviamente
in un esempio di questo tipo non esiste assolutamente la possibilità
che un sistema prenda il sopravvento sull'uomo, ma se si pensa un pò
più in grande e si pensa a sistemi complessi come, ad esempio, il
sistema di controllo e comando di missili nucleari in un sottomarino,
allora questo pericolo esiste.
Però
esaminiamo la questione un pò più da vicino per meglio definire il
pericolo.
Se
un sistema dovesse avere il sopravvento sull'uomo perché stanco di
essere "schiavo", significa che il sistema ha preso
coscienza di sé: il sistema ha capito di esistere...è arrivato a
pensare. Questo è ancora semplicemente fantascienza.
Altra
ipotesi: il sistema prende il sopravvento sull'uomo perché è la
soluzione più ottimale per risolvere un problema o, più
tecnicamente, per portare a termine la sua programmazione. Questa è
una cosa possibile ed è in questo caso che le tre leggi della
robotica devono essere introdotte. Questa operazione porterebbe,
inevitabilmente, ad un ritardo più o meno considerevole da parte del
sistema per trovare la soluzione più ottimale e per questo motivo
non tutti i sistemi hanno questa protezione per l'uomo: meno tempo si
impiega per portare a termine una certa programmazione significa più
profitto per una o più società. Anche in questo caso si tratta di
errore umano.
Concludendo
possiamo dire che un sistema può "impazzire" solo perché
c'è un errore umano: nessun sistema ha coscienza di sé e può
decidere in autonomia.
Commenti
Posta un commento