L’intelligenza artificiale è una responsabilità di tutti
Articolo pubblicato da Il Sole 24 Ore.
Qualche mese fa, l’ingegnere di Google che si occupava di intelligenza artificiale (IA) Black Lemoin è stato licenziato dopo aver assicurato a chiunque volesse ascoltarlo che l’interfaccia di generazione di chatbot LaMDA aveva sviluppato “autoconsapevolezza”. Se fosse vero, sarebbe stato il primo esempio di intelligenza artificiale “forte” o “generale”, capace di imitare il pensiero umano in tutte le sue complessità, a differenza dell’intelligenza artificiale “debole” di cui disponiamo oggi.
Al di là della più che discutibile credibilità delle affermazioni di Lemoin, prontamente smentite da Google, c’è un dettaglio della vicenda che sembra passare inosservato: il licenziamento non è dovuto alla difesa della capacità di “sentire” del sistema di intelligenza artificiale, ma al fatto di aver rivelato conversazioni con il generatore di chatbot. Il peccato di Lemoin non è stato quello di confondere la capacità di generazione linguistica del sistema (la capacità che ci si aspetta da un chatbot, dopotutto) con l’intelligenza e l’autoconsapevolezza, ma di minacciare il segreto commerciale che sta alla base del vantaggio competitivo nel settore.
Nel campo dell’IA, come in molti altri, la responsabilità civica e l’ottimizzazione richiedono trasparenza, e la trasparenza richiede apertura. Per sfruttare appieno il potenziale e per progredire verso un’IA etica è necessario coinvolgere l’intera società nel suo sviluppo. La progettazione di sistemi di IA deve essere aperta a ecosistemi di innovazione, composti da aziende e start-up tecnologiche, istituzioni accademiche, civiche e pubbliche, in grado di unire le forze con le aziende Over the Top (OTT) che stanno guidando i principali progressi in questo campo.
Questo è stato riconosciuto dagli stessi manager delle OTT: qualche settimana fa, Joelle Pinau, managing director di Meta AI, ha dichiarato - dopo l'apertura del sistema linguistico basato sull’IA dell'azienda ad accademici, società civile e organizzazioni pubbliche - che il futuro del lavoro sui sistemi linguistici basati sull’IA non dovrebbe essere solo nelle mani di grandi aziende o laboratori.
La creazione di ecosistemi aperti di sviluppo e governance dell’IA in grado di sfruttare tutti i talenti e le conoscenze disponibili è fondamentale per tre motivi. In primo luogo, perché l’IA è inarrestabile e sta diventando la tecnologia chiave per plasmare il nostro presente e il nostro futuro. In secondo luogo, perché la finalità dei sistemi di IA è una decisione politica che dobbiamo prendere come società, il risultato di una riflessione congiunta sul modello di convivenza che vogliamo costruire e su come vogliamo che l’IA ci aiuti a costruirlo. E, terzo, perché l’IA orientata al bene sociale (AI4SG) ha un potenziale indiscutibile per lo sviluppo delle nostre economie e società.
Pertanto, il ruolo degli ecosistemi di innovazione aperta non dovrebbe limitarsi alla condivisione delle conoscenze per la progettazione dei sistemi. Dobbiamo coinvolgere la società civile e gli attori industriali, accademici e pubblici nel monitoraggio e nella governance di questi sistemi. Ad esempio la società civile è una fonte importantissima di feedback, oltre a offrire un punto di vista da parte degli utenti interessati; gli attori industriali e gli sviluppatori sono coloro che danno forma all'IA; le aziende offrono una visione pratica dell'IA, in quanto applicata alla loro attività produttiva; gli enti pubblici hanno il compito di regolamentare l'IA; mentre alle accademie affidiamo la guida nella ricerca e nella definizione di linee guida.
Questo coinvolgimento è utile anche per determinare se sia necessario imporre moratorie o restrizioni allo sviluppo o utilizzo di questi sistemi, nei casi in cui non siano orientati o non contribuiscano al bene comune. Questo è già stato fatto, motu proprio, da alcune aziende tecnologiche che hanno bloccato la commercializzazione di sistemi di analisi facciale o di riconoscimento delle immagini nelle fotografie.
In questo senso, la futura legislazione europea in materia, l’AI Act, attualmente in discussione a Bruxelles, è un primo passo promettente. Le prime versioni della legge - che in ogni caso si limiterà a regolamentare i sistemi di IA ritenuti pericolosi per le nostre libertà - presentano ancora aspetti migliorabili, ma non c’è dubbio che avere una regolamentazione in materia sia un passo importante verso un maggiore controllo democratico.
Lo sviluppo dell’IA è una sfida e un’opportunità collettiva che ci riguarda come società e determinerà aspetti chiave del nostro futuro. Abbiamo l’obbligo civico di partecipare alla progettazione e alla governance dei sistemi, creando ecosistemi di innovazione aperta in grado di collaborare con le OTT che guidano il settore e di garantirne l’uso per il bene comune. La progettazione e il controllo di un’IA etica sono responsabilità di tutti.
Qualche mese fa, l’ingegnere di Google che si occupava di intelligenza artificiale (IA) Black Lemoin è stato licenziato dopo aver assicurato a chiunque volesse ascoltarlo che l’interfaccia di generazione di chatbot LaMDA aveva sviluppato “autoconsapevolezza”. Se fosse vero, sarebbe stato il primo esempio di intelligenza artificiale “forte” o “generale”, capace di imitare il pensiero umano in tutte le sue complessità, a differenza dell’intelligenza artificiale “debole” di cui disponiamo oggi.
Al di là della più che discutibile credibilità delle affermazioni di Lemoin, prontamente smentite da Google, c’è un dettaglio della vicenda che sembra passare inosservato: il licenziamento non è dovuto alla difesa della capacità di “sentire” del sistema di intelligenza artificiale, ma al fatto di aver rivelato conversazioni con il generatore di chatbot. Il peccato di Lemoin non è stato quello di confondere la capacità di generazione linguistica del sistema (la capacità che ci si aspetta da un chatbot, dopotutto) con l’intelligenza e l’autoconsapevolezza, ma di minacciare il segreto commerciale che sta alla base del vantaggio competitivo nel settore.
Nel campo dell’IA, come in molti altri, la responsabilità civica e l’ottimizzazione richiedono trasparenza, e la trasparenza richiede apertura. Per sfruttare appieno il potenziale e per progredire verso un’IA etica è necessario coinvolgere l’intera società nel suo sviluppo. La progettazione di sistemi di IA deve essere aperta a ecosistemi di innovazione, composti da aziende e start-up tecnologiche, istituzioni accademiche, civiche e pubbliche, in grado di unire le forze con le aziende Over the Top (OTT) che stanno guidando i principali progressi in questo campo.
Questo è stato riconosciuto dagli stessi manager delle OTT: qualche settimana fa, Joelle Pinau, managing director di Meta AI, ha dichiarato - dopo l'apertura del sistema linguistico basato sull’IA dell'azienda ad accademici, società civile e organizzazioni pubbliche - che il futuro del lavoro sui sistemi linguistici basati sull’IA non dovrebbe essere solo nelle mani di grandi aziende o laboratori.
La creazione di ecosistemi aperti di sviluppo e governance dell’IA in grado di sfruttare tutti i talenti e le conoscenze disponibili è fondamentale per tre motivi. In primo luogo, perché l’IA è inarrestabile e sta diventando la tecnologia chiave per plasmare il nostro presente e il nostro futuro. In secondo luogo, perché la finalità dei sistemi di IA è una decisione politica che dobbiamo prendere come società, il risultato di una riflessione congiunta sul modello di convivenza che vogliamo costruire e su come vogliamo che l’IA ci aiuti a costruirlo. E, terzo, perché l’IA orientata al bene sociale (AI4SG) ha un potenziale indiscutibile per lo sviluppo delle nostre economie e società.
Pertanto, il ruolo degli ecosistemi di innovazione aperta non dovrebbe limitarsi alla condivisione delle conoscenze per la progettazione dei sistemi. Dobbiamo coinvolgere la società civile e gli attori industriali, accademici e pubblici nel monitoraggio e nella governance di questi sistemi. Ad esempio la società civile è una fonte importantissima di feedback, oltre a offrire un punto di vista da parte degli utenti interessati; gli attori industriali e gli sviluppatori sono coloro che danno forma all'IA; le aziende offrono una visione pratica dell'IA, in quanto applicata alla loro attività produttiva; gli enti pubblici hanno il compito di regolamentare l'IA; mentre alle accademie affidiamo la guida nella ricerca e nella definizione di linee guida.
Questo coinvolgimento è utile anche per determinare se sia necessario imporre moratorie o restrizioni allo sviluppo o utilizzo di questi sistemi, nei casi in cui non siano orientati o non contribuiscano al bene comune. Questo è già stato fatto, motu proprio, da alcune aziende tecnologiche che hanno bloccato la commercializzazione di sistemi di analisi facciale o di riconoscimento delle immagini nelle fotografie.
In questo senso, la futura legislazione europea in materia, l’AI Act, attualmente in discussione a Bruxelles, è un primo passo promettente. Le prime versioni della legge - che in ogni caso si limiterà a regolamentare i sistemi di IA ritenuti pericolosi per le nostre libertà - presentano ancora aspetti migliorabili, ma non c’è dubbio che avere una regolamentazione in materia sia un passo importante verso un maggiore controllo democratico.
Lo sviluppo dell’IA è una sfida e un’opportunità collettiva che ci riguarda come società e determinerà aspetti chiave del nostro futuro. Abbiamo l’obbligo civico di partecipare alla progettazione e alla governance dei sistemi, creando ecosistemi di innovazione aperta in grado di collaborare con le OTT che guidano il settore e di garantirne l’uso per il bene comune. La progettazione e il controllo di un’IA etica sono responsabilità di tutti.