Appello della comunità scientifica: “l’intelligenza artificiale va regolamentata”

Una lettera aperta della comunità scientifica per regolamentare l'intelligenza artificiale: sono circa 200 le adesioni individuali e 6 quelle istituzionali

Appello della comunità scientifica: “l’intelligenza artificiale va regolamentata”
getty-images

Una lettera aperta della comunità scientifica per regolamentare l’AI

Sono circa 200 le adesioni individuali e 6 le adesioni istituzionali - fra cui la Fondazione FAIR (il partenariato nazionale PNRR sulla Future AI Research), la Associazione Italiana per l'Intelligenza Artificiale, il lab AIIS-CINI e il Dottorato Nazionale in AI- alla lettera aperta che chiede di regolamentare l’intelligenza artificiale. La lettera riflette il pensiero condiviso dell'intera comunità scientifica italiana dell'IA in senso ampio e multi-disciplinare. Fra i primi firmatari spiccano inoltre i nomi di pionieri dell'AI moderna, come Yoshua Bengio, Stuart Russell e Raja Chatila.

L’appello degli scienziati

Come scienziati della comunità dell’Intelligenza Artificiale vogliamo far sentire la nostra voce a sostegno della necessità di regole sui grandi modelli generativi, i “foundation model”, nell’ambito della Regolamentazione Europea sull’Intelligenza Artificiale, l’AI Act, in corso di negoziazione finale.

I modelli linguistici generativi come GPT-2, GPT-3(.5) e GPT-4, modelli di complessità gigantesca ottenuti per addestramento su enormi risorse di dati da varie fonti (come web, libri, social media e altro), hanno dimostrato prestazioni sorprendenti in una varietà di compiti linguistici. ChatGPT ha introdotto l’uso di tali modelli al grande pubblico globale. Sistemi come Stable Diffusion e MidJourney hanno rivoluzionato la creazione di immagini a partire da descrizioni testuali.

Tali modelli generativi (pre-addestrati) possono essere specializzati in una miriade di applicazioni in domini diversi, con effetti dirompenti sulla società e sull’economia: educazione, salute, scienza, tecnologia, industria, pubblica amministrazione, etc., alimentando un ecosistema e una catena del valore innovativi.

D’altra parte, questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili (allucinazioni), la facilità di uso per scopi manipolativi (produzione di disinformazione), la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono. Nel contesto attuale, è difficile valutare l’impatto sulla società e l’economia a medio/lungo termine, inclusi i rischi esistenziali per la democrazia, la scienza e il lavoro, preoccupazioni espresse anche dagli stessi pionieri che hanno contribuito allo sviluppo della tecnologia dell’AI generativa.

Crediamo che l’assenza di regole certe per i modelli generativi, per lo più prodotti da grandi aziende extraeuropee, comporti un forte rischio economico sulle aziende europee e italiane che stanno creando prodotti e servizi basati su tali modelli. L’assenza di regole a monte avrebbe la conseguenza di scaricare sulle piccole e medie imprese europee l’intera responsabilità di essere conformi alle disposizioni dell’AI Act, senza però disporre di alcun controllo sui modelli generativi usati all’interno dei loro prodotti e quindi poter garantire robustezza, trasparenza e affidabilità.

Lungi dall'essere un freno per l'industria europea, la regolamentazione applicata ai modelli generativi sposta la responsabilità anche su chi li produce e li mette sul mercato per ulteriori utilizzi, e offre una protezione essenziale che andrà a vantaggio dell'industria europea e italiana e dell'ecosistema emergente dell'AI.

Regole a monte garantiscono che i pochi grandi sviluppatori forniscano i meccanismi di trasparenza e fiducia per i numerosi ulteriori attori a valle. Altrimenti, gli utenti finali saranno esposti a rischi che gli sviluppatori dei servizi a valle, e le PMI in particolare, non possono gestire tecnicamente. Le “carte modello” e i codici di condotta volontari - e quindi non sanzionabili - non sono sufficienti, come ampiamente dimostrato dall’esperienza. La regolamentazione, snella ma certa, dei modelli generativi è uno scudo cruciale per la sicurezza dell'industria europea e dei cittadini europei.

Facciamo quindi appello al governo italiano perché continui ad adoperarsi per un testo definitivo dell’AI Act che includa regole chiare per i modelli generativi, rinforzando il ruolo dell’Europa di avanguardia globale della regolamentazione dell’Intelligenza Artificiale, consentendo di coglierne le opportunità con le migliori salvaguardie per la sicurezza.

26 Novembre 2023

Dove firmare

È possibile aggiungere la propria firma QUI, tramite il modulo.

Un consiglio in più