Intelligenza Artificiale, lettera aperta della comunità scientifica italiana

Gli scienziati chiedono una regolamentazione dei modelli generativi nell’AI Act europeo in corso di negoziazione finale.

Una lettera aperta da parte della comunità scientifica italiana (segnalata dal Centro per l’Innovazione e la DIffusione della Cultura, nell’Università di Pisa), che afferma il proprio sostegno alla necessità di regole per i modelli generativi dell’Intelligenza Artificiale.

In pochi giorni la lettera ha ricevuto oltre 200 adesioni individuali e una mezza dozzina istituzionali, come AIxIA (Associazione Italiana per l’Intelligenza Artificiale), CVPL (l’associazione Computer Vision, Pattern recognition & machine Learning), AILC (Associazione Italiana di Linguistica Computazionale), la Fondazione FAIR (Future Artificial Intelligence Research), il Laboratorio Nazionale di Artificial Intelligence & Intelligent Systems del CINI (Consorzio Interuniversitario Nazionale per l’Informatica) e il Comitato di coordinamento del Dottorato Nazionale in Intelligenza Artificiale.

Nei fatti, la lettera rappresenta di conseguenza il pensiero largamente condiviso dall’intera comunità di scienziati del nostro Paese che si occupa di IA in senso ampio e multidisciplinare.

Fra i primi firmatari individuali, nomi eccellenti dell’IA moderna, come Fosca Giannotti e Dino Pedreschi del FAIR, Yoshua Bengio consulente del segretario generale dell’ONU, Chiara Ghidini dell’AIxIA, Paolo Nesi dell’Università di Firenze, Stuart Russell dell’University of California a Berkeley, Raja Chatila dell’ateneo parigino La Sorbonne e molti altri.

Di seguito, il testo integrale della lettera aperta.

 

Come scienziati della comunità dell’Intelligenza Artificiale vogliamo far sentire la nostra voce a sostegno della necessità di regole sui grandi modelli generativi, i “foundation model”, nell’ambito della Regolamentazione Europea sull’Intelligenza Artificiale, l’AI Act, in corso di negoziazione finale.

I modelli linguistici generativi come GPT-2, GPT-3(.5) e GPT-4, modelli di complessità gigantesca ottenuti per addestramento su enormi risorse di dati da varie fonti (come web, libri, social media e altro), hanno dimostrato prestazioni sorprendenti in una varietà di compiti linguistici. ChatGPT ha introdotto l’uso di tali modelli al grande pubblico globale. Sistemi come Stable Diffusion e MidJourney hanno rivoluzionato la creazione di immagini a partire da descrizioni testuali.

Tali modelli generativi (pre-addestrati) possono essere specializzati in una miriade di applicazioni in domini diversi, con effetti dirompenti sulla società e sull’economia: educazione, salute, scienza, tecnologia, industria, pubblica amministrazione ecc., alimentando un ecosistema e una catena del valore innovativi.

D’altra parte, questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili (allucinazioni), la facilità di uso per scopi manipolativi (produzione di disinformazione), la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono. Nel contesto attuale, è difficile valutare l’impatto sulla società e l’economia a medio/lungo termine, inclusi i rischi esistenziali per la democrazia, la scienza e il lavoro, preoccupazioni espresse anche dagli stessi pionieri che hanno contribuito allo sviluppo della tecnologia dell’AI generativa.

Crediamo che l’assenza di regole certe per i modelli generativi, per lo più prodotti da grandi aziende extraeuropee, comporti un forte rischio economico sulle aziende europee e italiane che stanno creando prodotti e servizi basati su tali modelli. L’assenza di regole a monte avrebbe la conseguenza di scaricare sulle piccole e medie imprese europee l’intera responsabilità di essere conformi alle disposizioni dell’AI Act, senza però disporre di alcun controllo sui modelli generativi usati all’interno dei loro prodotti e quindi poter garantire robustezza, trasparenza e affidabilità.

Lungi dall’essere un freno per l’industria europea, la regolamentazione applicata ai modelli generativi sposta la responsabilità anche su chi li produce e li mette sul mercato per ulteriori utilizzi, e offre una protezione essenziale che andrà a vantaggio dell’industria europea e italiana e dell’ecosistema emergente dell’AI.

Regole a monte garantiscono che i pochi grandi sviluppatori forniscano i meccanismi di trasparenza e fiducia per i numerosi ulteriori attori a valle. Altrimenti, gli utenti finali saranno esposti a rischi che gli sviluppatori dei servizi a valle, e le PMI in particolare, non possono gestire tecnicamente. Le “carte modello” e i codici di condotta volontari – e quindi non sanzionabili – non sono sufficienti, come ampiamente dimostrato dall’esperienza. La regolamentazione, snella ma certa, dei modelli generativi è uno scudo cruciale per la sicurezza dell’industria europea e dei cittadini europei.

Facciamo quindi appello al governo italiano perché continui ad adoperarsi per un testo definitivo dell’AI Act che includa regole chiare per i modelli generativi, rinforzando il ruolo dell’Europa di avanguardia globale della regolamentazione dell’Intelligenza Artificiale, consentendo di coglierne le opportunità con le migliori salvaguardie per la sicurezza.

 

Chi volesse aggiungere la propria firma (sia come individui che come organizzazioni), può farlo compilando il form a questo link.

calendar_month

a cura di Redazione