LE OPINIONI
Neanche l’AI ci sopporta più. E ha ragione
I computer da noi creati stanno imparando a renderci superflui
L'ipotesi di un cosiddetto conflitto nucleare globale è sul piatto da quando la Guerra Fredda assunse toni più caldi con eventi come la crisi di Cuba del 1962 che portò Stati Uniti e Unione Sovietica a un passo dal pigiare il pulsante rosso. Due anni dopo quel fatto, il genio di Stanley Kubrick, ispirandosi al romanzo “Red Alert” del 1958, diede corpo a queste paure con uno dei suoi tanti capolavori, “Il dottor Stranamore - Ovvero: come ho imparato a non preoccuparmi e ad amare la bomba”, traduzione letterale di un titolo che è tutto in programma nella sua corrosiva ironia. Se Kubrick seppe trasformare in farsa una delle più grandi paure dell'umanità, negli anni lo sguardo del cinema si è fatto più cupo, culminando nei primi anni 80 in “Wargames” con l'apocalittica previsione che, con il progresso tecnologico, la guerra nucleare sarebbe stata conseguenza inevitabile in caso di eccessive tensioni fra le due superpotenze. Questo perché la programmazione del megacomputer del film non avrebbe trovato altra soluzione se non calcolare vantaggi e svantaggi della guerra atomica, trovando una strategia in grado di garantire purchessia la vittoria agli Usa. Fantascienza si dirà, ma la realtà sta superando la fantasia: uno studio del King's College ha infatti proposto lo scenario che prevede di affidare gli arsenali atomici all'intelligenza artificiale. Ecco quindi che sono state interrogate le tre applicazioni ritenute attualmente più evolute, Gpr-5.2, Claude Sonnet 4 e Gemini, su come gestirebbero la situazione: ebbene, nel 95% dei casi, ci si è finiti a bombardarsi a vicenda con ordigni nucleari distruggendo il pianeta. Il problema è che il “momento storico” proposto alle AI non è stato quello di una guerra in corso, bensì quello di una potenza che teme di poter essere attaccata. Una situazione ben diversa da quella attuale che coinvolge in più conflitti numerosi paesi dotati di armi atomiche. Perché l'AI agisce così? La risposta pare essere che, sostanzialmente, considera l'essere umano un problema. A lanciare l'allarme è stato niente meno che Andrea Pignataro, uno degli uomini più ricchi d'Italia, fondatore e CEO di una società che sviluppa software per la finanza: nel suo saggio “The Wrong Apocalypse” sostiene che, per com'è concepita, l'AI che noi stessi abbiamo creato sta letteralmente imparando a rendere del tutto superfluo l'essere umano. E allora ci tocca tornare al caro vecchio Kubrick, che in “2001: Odissea nello spazio” raccontava proprio di un computer intelligente che, pur di compiere la propria missione di scoperta scientifica, non esitava a eliminare l'equipaggio della sua astronave. Uscendo dalla normale retorica autoconservativa, siamo sicuri che Hal 9000 avesse così torto? A volersi guardare intorno, considerando dove l'uomo sta portando la civiltà, possiamo comprendere la volontà di un computer dotato d'intelletto di farci fuori in fretta. La logica dice che l'uomo è virtuoso se deve compiacere se stesso con la propria creatività, ma è un cancro per il pianeta in qualsiasi altra manifestazione. Riflessione che dovrebbe fare chi ci sta trascinando in una nuova era di guerre senza soluzione di continuità.
© Riproduzione Riservata


