Una iconica riflessione di Alfred Kastler, premio Nobel per la Fisica nel 1966, mi ha portato a interrogarmi sui limiti dell’intelligenza artificiale, in un particolare periodo storico in cui molti parlano (non sempre a proposito) dell’argomento e gli operatori economici, a tutti i livelli, sono in fermento per il mondo che sarà di qui a pochi anni.
La fisica di Alfred Kastler
Il fisico poneva la seguente questione: “Supponiamo che nel corso di uno dei prossimi voli lunari venga esplorata la faccia sconosciuta della Luna, quella che ci è opposta e che non vediamo mai, ma che gli astronauti possono raggiungere. Fino ad oggi, essi sono sempre atterrati sulla parte visibile dalla Terra perchè le comunicazioni via radio rimangono possibili, mentre non lo sono più quando ci si trova sull’altra faccia. Supponiamo che essi abbiano la sorpresa di scoprire una fabbrica automatica che produce alluminio: esistono attualmente sulla terra fabbriche completamente automatiche. Essi vedrebbero da un lato delle pale che scavano il suolo e raccolgono l’allumina; dall’altro le barre di alluminio che ne escono. Essi vi troverebbero apparecchiature tipiche della fisica, processi di elettrolisi, poiché l’alluminio viene prodotto mediante elettrolisi di una soluzione di allumina nella criolina. In altre parole, dopo aver esaminato questa fabbrica, essi constaterebbero solo il verificarsi di normali fenomeni fisici perfettamente spiegabili con le leggi della causalità. Essi ne dovrebbero concludere che il caso ha creato tale fabbrica, oppure che degli esseri intelligenti sono discesi sulla Luna prima di essi e l’hanno costruita? Ebbene in un essere vivente troviamo un sistema infinitamente più complesso di una fabbrica automatica. Voler ammettere che il caso ha creato tale essere mi sembra assurdo. Se esiste un programma, non posso ammettere programma senza programmatore”.
L’argomentazione di Alfred Kastler, di estrema attualità e profondità per quanto concerne le tematiche legate alla causalità, alla progettazione e all’intelligente creazione, pone interrogativi a mio avviso necessari sulla causa, sul design e sulla complessità dei sistemi.
Implicazioni etiche dell’Intelligenza Artificiale
Applicare tali interrogativi all’intelligenza artificiale, nella sua veloce evoluzione e a fronte della sua sempre maggiore complessità, rende cruciale considerare le implicazioni etiche della progettazione e del funzionamento.
Ciò, innanzi tutto, sotto il profilo della causalità: così come una fabbrica automatica sulla faccia nascosta della Luna sottintende l’esistenza di un progettista, l’intelligenza artificiale, nel simulare comportamenti umani e conseguenti decisioni, non può che operare seguendo algoritmi e regole predefinite, da cui deriva che le decisioni di natura etica devono essere sempre attribuite ai programmatori e agli operatori umani.
Altrettanto chiare sono le implicazioni sotto il profilo della progettazione: come nel caso della fabbrica sulla Luna, la creazione e l’implementazione dell’intelligenza artificiale richiedono consapevolezza nella pianificazione, nonché la capacità di comprendere appieno le conseguenze di scelte progettuali e tecnologiche. Si può parlare di governance, rifacendosi all’etimo del “governare” e richiamando l’immagine di una conduzione sicura, fondata sul presupposto indefettibile che decisioni importanti non possano essere assunte da sistemi privi non solo di un’intelligenza morale, ma anche di un contesto umano.
Quanto alla creazione intelligente, è evidente come la circostanza che il caso (o il caos) possa produrre complessità significative, come sostenuto da Kastler, si applichi a scenari in cui l’intelligenza artificiale potrebbe mostrare comportamenti inattesi e potenzialmente pericolosi (le c.d. allucinazioni). Una progettazione dei sistemi di intelligenza artificiale senza un’adeguata considerazione dei loro potenziali impatti non può che condurre a risultati disastrosi. Questo è particolarmente evidente nei settori critici come la salute, la sicurezza e la giustizia, dove l’uso di decisioni automatizzate può comportare discriminazioni involontarie o danni collaterali.
La regolamentazione: garantire etica e responsabilità
In definitiva, una regolamentazione chiara, efficace e tempestiva dell’intelligenza artificiale è essenziale per assicurare che la progettazione e l’implementazione della tecnologia sottostante avvengano in modo responsabile, nel rispetto di una cornice di principi etici e norme giuridiche che indirizzino il suo sviluppo e utilizzo.
Solo in questo modo, si potranno evitare utilizzi discriminatori dell’intelligenza artificiale, finalizzati alla reiterazione di bias, alla stereotipizzazione e al pregiudizio. Basti pensare, al riguardo, alle notizie (invero mai confermate) circa l’utilizzo (illegittimo) dell’intelligenza artificiale nella selezione del personale attraverso il ricorso alle (pseudoscientifiche) teorie sul determinismo biologico di lombrosiana memoria.
Solo la chiara e trasparente individuazione, da parte dell’essere umano, di limiti da apporre alla tecnologia dell’intelligenza artificiale potrà garantire risultati etici e responsabili, tali che un essere vivente che in futuro sbarchi sulla faccia nascosta della Luna e interroghi un elaboratore che automaticamente generi risposte logiche e intelligenti ai quesiti posti non si trovi più nella posizione di domandarsi se detta intelligente creazione sia frutto del caso.
Da Caino ai nostri tempi, nulla è cambiato sotto le stelle
A cura di Luigi Mazzoncini, Founder & Senior Partner
Una iconica riflessione di Alfred Kastler, premio Nobel per la Fisica nel 1966, mi ha portato a interrogarmi sui limiti dell’intelligenza artificiale, in un particolare periodo storico in cui molti parlano (non sempre a proposito) dell’argomento e gli operatori economici, a tutti i livelli, sono in fermento per il mondo che sarà di qui a pochi anni.
La fisica di Alfred Kastler
Il fisico poneva la seguente questione: “Supponiamo che nel corso di uno dei prossimi voli lunari venga esplorata la faccia sconosciuta della Luna, quella che ci è opposta e che non vediamo mai, ma che gli astronauti possono raggiungere. Fino ad oggi, essi sono sempre atterrati sulla parte visibile dalla Terra perchè le comunicazioni via radio rimangono possibili, mentre non lo sono più quando ci si trova sull’altra faccia. Supponiamo che essi abbiano la sorpresa di scoprire una fabbrica automatica che produce alluminio: esistono attualmente sulla terra fabbriche completamente automatiche. Essi vedrebbero da un lato delle pale che scavano il suolo e raccolgono l’allumina; dall’altro le barre di alluminio che ne escono. Essi vi troverebbero apparecchiature tipiche della fisica, processi di elettrolisi, poiché l’alluminio viene prodotto mediante elettrolisi di una soluzione di allumina nella criolina. In altre parole, dopo aver esaminato questa fabbrica, essi constaterebbero solo il verificarsi di normali fenomeni fisici perfettamente spiegabili con le leggi della causalità. Essi ne dovrebbero concludere che il caso ha creato tale fabbrica, oppure che degli esseri intelligenti sono discesi sulla Luna prima di essi e l’hanno costruita? Ebbene in un essere vivente troviamo un sistema infinitamente più complesso di una fabbrica automatica. Voler ammettere che il caso ha creato tale essere mi sembra assurdo. Se esiste un programma, non posso ammettere programma senza programmatore”.
L’argomentazione di Alfred Kastler, di estrema attualità e profondità per quanto concerne le tematiche legate alla causalità, alla progettazione e all’intelligente creazione, pone interrogativi a mio avviso necessari sulla causa, sul design e sulla complessità dei sistemi.
Implicazioni etiche dell’Intelligenza Artificiale
Applicare tali interrogativi all’intelligenza artificiale, nella sua veloce evoluzione e a fronte della sua sempre maggiore complessità, rende cruciale considerare le implicazioni etiche della progettazione e del funzionamento.
Ciò, innanzi tutto, sotto il profilo della causalità: così come una fabbrica automatica sulla faccia nascosta della Luna sottintende l’esistenza di un progettista, l’intelligenza artificiale, nel simulare comportamenti umani e conseguenti decisioni, non può che operare seguendo algoritmi e regole predefinite, da cui deriva che le decisioni di natura etica devono essere sempre attribuite ai programmatori e agli operatori umani.
Altrettanto chiare sono le implicazioni sotto il profilo della progettazione: come nel caso della fabbrica sulla Luna, la creazione e l’implementazione dell’intelligenza artificiale richiedono consapevolezza nella pianificazione, nonché la capacità di comprendere appieno le conseguenze di scelte progettuali e tecnologiche. Si può parlare di governance, rifacendosi all’etimo del “governare” e richiamando l’immagine di una conduzione sicura, fondata sul presupposto indefettibile che decisioni importanti non possano essere assunte da sistemi privi non solo di un’intelligenza morale, ma anche di un contesto umano.
Quanto alla creazione intelligente, è evidente come la circostanza che il caso (o il caos) possa produrre complessità significative, come sostenuto da Kastler, si applichi a scenari in cui l’intelligenza artificiale potrebbe mostrare comportamenti inattesi e potenzialmente pericolosi (le c.d. allucinazioni). Una progettazione dei sistemi di intelligenza artificiale senza un’adeguata considerazione dei loro potenziali impatti non può che condurre a risultati disastrosi. Questo è particolarmente evidente nei settori critici come la salute, la sicurezza e la giustizia, dove l’uso di decisioni automatizzate può comportare discriminazioni involontarie o danni collaterali.
La regolamentazione: garantire etica e responsabilità
In definitiva, una regolamentazione chiara, efficace e tempestiva dell’intelligenza artificiale è essenziale per assicurare che la progettazione e l’implementazione della tecnologia sottostante avvengano in modo responsabile, nel rispetto di una cornice di principi etici e norme giuridiche che indirizzino il suo sviluppo e utilizzo.
Solo in questo modo, si potranno evitare utilizzi discriminatori dell’intelligenza artificiale, finalizzati alla reiterazione di bias, alla stereotipizzazione e al pregiudizio. Basti pensare, al riguardo, alle notizie (invero mai confermate) circa l’utilizzo (illegittimo) dell’intelligenza artificiale nella selezione del personale attraverso il ricorso alle (pseudoscientifiche) teorie sul determinismo biologico di lombrosiana memoria.
Solo la chiara e trasparente individuazione, da parte dell’essere umano, di limiti da apporre alla tecnologia dell’intelligenza artificiale potrà garantire risultati etici e responsabili, tali che un essere vivente che in futuro sbarchi sulla faccia nascosta della Luna e interroghi un elaboratore che automaticamente generi risposte logiche e intelligenti ai quesiti posti non si trovi più nella posizione di domandarsi se detta intelligente creazione sia frutto del caso.