INTELLIGENZA (?) ARTIFICIALE

di Francesco Baicchi - 31/07/2023
La coscienza del rischio è stata presente fin dall’inizio, tanto da spingere Isaac Asimov a mettere a punto le tre ‘leggi della robotica’1, che, obbligatoriamente inserite nel cervello ‘positronico’ degli androidi, avrebbero dovuto impedire comportamenti nocivi per l’uomo

Uno degli argomenti più ricorrenti di questi tempi è attualmente il rischio connesso con la diffusione di strumenti e apparati dotati della cosidetta ‘intelligenza artificiale’, in grado cioè di assumere decisioni autonome e di apprendere dalla propria esperienza. Anche perché quella che era solo un’ampia letteratura fantascientifica sta trasformandosi rapidamente (e non è la prima volta) in concreta realtà.

E il rischio di riuscire a produrre macchine che possano entrare in conflitto con la specie umana è sempre più concreto.
Fra i casi frutto della fantasia, uno dei più noti è sicuramente la macchina per la “fine del mondo” evocata nel film di Kubrik “il dottor Stranamore”, che una volta innescata non può essere bloccata nella sua missione di cancellare la vita sul nostro pianeta.
Per arrivare a ‘Blade Runner’, capolavoro di Ridley Scott del1982, che descrive lo scontro finale fra umani e androidi così perfetti da essere indistinguibili dal loro ‘modello’ biologico.

La coscienza del rischio è stata presente fin dall’inizio, tanto da spingere Isaac Asimov a mettere a punto le tre ‘leggi della robotica’1, che, obbligatoriamente inserite nel cervello ‘positronico’ degli androidi, avrebbero dovuto impedire comportamenti nocivi per l’uomo.
Dovremmo dunque pensare a una evoluzione anche dal punto di vista giuridico, che definisca un quadro etico condiviso e imponga una serie di divieti, sul modello di quanto avviene nel campo della bio-etica.

Questa volta non si tratterebbe di regolamentare comportamenti di strutture antropoforme simili all’uomo, ma di definire gli obiettivi perseguibili dalla IA, inserendo una clausola di priorità che preveda il prevalere dell’interesse collettivo su quello individuale (o aziendale, ecc ….). Una specie di VIA (valutazione di impatto ambientale).

Il vero problema consisterebbe nell’impedire che i Paesi più avanzati utilizzino sul piano concorrenziale l’enorme potenziale dei nuovi sistemi in danno dei Paesi più poveri, nell’ impedirne l’uso in campo militare, nel definire obiettivi comuni per risolvere i grandi problemi del nostro Pianeta, nell’impiegare intanto l’intelligenza ‘naturale’ , che le nostre classi dirigenti spesso sembrano rifiutarsi di usare.

Questo articolo parla di:

10 novembre 2024
6 novembre 2024
12 novembre 2024
11 dicembre 2024
archiviato sotto: