MONDO ACCADEMICO
La macchina che impara deve essere istruita e controllata
Per la prima volta si può dialogare con un’entità usando il nostro linguaggio. Ma si pone anche un problema etico. Luca Mari, docente Liuc: «C’è il rischio autonomia»

AI segna una svolta epocale perché per la prima volta nella storia dell’umanità possiamo dialogare con un’entità non umana in modo semanticamente corretto nella nostra lingua e non utilizzando un linguaggio di programmazione»: così Luca Mari, professore ordinario di Scienza della misurazione alla Liuc, sintetizza la rivoluzione rappresentata dall’intelligenza artificiale. Anche se, ha chiarito nel corso di un recente convegno organizzato dall’ateneo, «il termine AI non è del tutto corretto. Meglio usare la definizione “machine learning”, cioè “macchina che impara”. Nel 1842 Augusta Ada Lovelace, matematica britannica nota come prima programmatrice della storia per il suo contributo alla macchina analitica di Charles Babbage, scrisse che quella macchina era «in grado di fare qualsiasi cosa sappiamo come ordinarle di fare». Così nacque l’algoritmo, ma ora il “paradigma di Ada” è stato superato. Siamo ben oltre. Perché esistono anche problemi che noi umani risolviamo pur senza essere consapevoli del meccanismo che usiamo per farlo: «Per esempio il riconoscimento dei volti delle persone o il pensiero. Non sappiamo precisamente come avvenga, eppure lo facciamo – ha sottolineato Mari – Credevamo di essere gli unici in grado di risolvere problemi del genere, quelli per cui non esiste un algoritmo. Poi sono arrivati i programmi come ChatGPT, che non sono entità a comportamento programmato».
Qui entra in gioco un altro paradigma, quello di Alan Turing, che nel 1950 suggerì di non realizzare programmi che imitassero la mente di un adulto, ma quella di un bambino, che impara ciò che gli viene insegnato.
«Ecco il paradigma del machine learning: il software come entità a comportamento appreso – ha evidenziato Luca Mari – E l’informatico statunitense Arthur Samuel nel 1959 fece un passo ulteriore, scrivendo che il machine learning è il campo di studi che dà ai computer la capacità di imparare senza essere esplicitamente programmati. La novità di oggi è questa: abbiamo a che fare con macchine che vengono addestrate, reti neurali artificiali. Quindi si pone il problema di come istruirle, in modo che forniscano risposte socialmente ed eticamente accettabili». A spaventarci, quando si parla di intelligenza artificiale, è soprattutto il fatto che «noi siamo i costruttori, ma per la prima volta interagiamo con un’entità che agisce con un certo grado di autonomia e quindi potrebbe anche sfuggire al nostro controllo – ha rimarcato Adriano Fabris, professore ordinario di Filosofia morale all’Università di Pisa – Da qui nasce l’etica nell’AI che riguarda la responsabilità dei programmatori, l’etica dell’AI che si concentra sulla relazione del singolo utilizzatore con il programma e l’etica che cerca criteri e principi condivisi a livello mondiale per regolamentare questo strumento».
© Riproduzione Riservata