Viviamo in un’epoca dove un dialogo sereno e e costruttivo tra simili è talvolta qualcosa ai confini con l’Utopia o come minimo un’impresa persa in partenza. Ebbene, lo scrittore futurologo Isaac Asimov già a metà del secolo scorso aveva con lungimiranza immaginato che i problemi di comunicabilità sarebbero arrivati ad estendersi al rapporto tra Uomo e Intelligenze artificiali.

In Io robot, una raccolta di racconti fantastici, lo scrittore si spingeva ad immaginare che l’ intelligente ottusità del robot V.I.K.Y, acronimo di Virtual Interactive Kinetic Intelligence, giungesse ad un certo punto a decidere di “fare di testa sua”, bypassando così la sofisticata coscienza artificiale programmatagli dagli umani. Non tanto per spirito di ribellione, ma piuttosto perché animato da un’asettica volontà di fare la cosa analiticamente e razionalmente ritenuta  più giusta per sé e per l’Uomo.

Di fatto, l’intelligenza robotica finiva poi con il prendere decisioni, anche di natura tragica, contro la stessa volontà degli umani.

In queste ore, dopo l’ incidente aereo di un Boeing 737 Max dell’Ethiopian Airlines, le creative elucubrazioni di Asimov sono da considerare più attuali che mai. Infatti, tale tipo di velivolo pare sia dotato di un’intelligenza artificiale più spinta di quella presente nei modelli precedenti.

Si sta quindi facendo strada il sospetto che questi aerei siano “troppo” intelligenti – sia pure a modo loro – per essere sottomessi con successo alla volontà umana.

Già lo scorso ottobre la scatola nera di un aereo della Air Lion precipitato in Indonesia, dello stesso modello di quello dell’Ethiopian, aveva fatto sorgere tale genere di sospetto.  Aveva infatti registrato una sorta di drammatica e surreale battaglia tra i piloti e il software del velivolo.

Una lotta tra un uomo e una "macchina", sia pure sofisticata,  durata una decina di minuti. Per ben ventisei volte i piloti avevano con decisione cercato di far riprendere quota al Boeing 737 Max. Ebbene, le registrazioni ci riferiscono che ognuna di quelle volte il software aveva risposto con un’azione di segno opposto, continuando a voler riportare il velivolo in posizione di picchiata.

Il software aveva in pratica interpretato a suo modo i dati che gli giungevano in maniera univoca e non negoziabile. E pare non abbia ammesso repiche. Un po' come se avesse voluto ribadire  al pilota: "Che vuoi saperne tu di cosa bisogna fare, ci sto qua io che so tutto, lascia fare a me!".

Alla fine aveva “vinto” lei, l’intelligenza robotica, ed era stata la fine per tutte le persone a bordo di quell’aereo. Ora, a distanza di circa quattro mesi dall’incidente dell’Indonesia , un altro aereo che si avvaleva di un software con le stesse caratteristiche di quello della Air Lion, è stato vittima di un incidente che presenterebbe una dinamica analoga a quella dello scorso ottobre. Anche questa volta, sembrerebbe che l’impostazione del software fosse ineccepibile e tra le più avanzate disponibili. Forse fin troppo.

Si fa lentamente strada l’ipotesi di un drammatico dilemma che avrebbe potuto originare gli incidenti. Certo, le cose andranno verificate in maniera approfondita, magari si troveranno altre origini per il tragico accadimento. Ciò non toglie che già il fatto di immaginare come verosimile uno scenario di questo tipo sia di per sé rivelatore di una circostanza emblematica e sconcertante.

Alea iacta est. La comprovata incapacità di stabilire un dialogo tra “menti” diversamente pensanti, d’ora in poi potrebbe non essere più  un problema limitato al rapporto tra consimili.

Raffaele Basile