CPR evidenzia i limiti di Google Bard

Check Point Research ha pubblicato un’analisi della piattaforma di IA generativa, riscontrando scenari che consentono azioni malevole.

La rivoluzione dell’IA (Intelligenza Artificiale) generativa ha prodotto un cambio di paradigma nel campo dell’intelligenza artificiale, permettendo alle macchine di creare e generare contenuti con un notevole grado di raffinatezza. Con il termine “IA generativa” ci si riferisce al sottoinsieme di modelli e algoritmi IA che possiedono la capacità di generare autonomamente testi, immagini, musica e persino video, imitando le creazioni prodotte dall’uomo. Questa rivoluzionaria tecnologia ha aperto un’infinità di possibilità creative che vanno dall’assistere il lavoro di artisti e designer, fino al migliorare la produttività in numerosi settori. Tuttavia, la proliferazione di IA generativa ha sollevato forti preoccupazioni anche dal punto di vista etico. Uno dei dubbi principali riguarda il possibile utilizzo di questa tecnologia a fini illeciti, come per esempio per il cybercrimine.

In diversi report CPR (Check Point Research) si è già soffermata approfonditamente sulle modalità con cui i cybercriminali hanno iniziato a sfruttare la tecnologia per i loro scopi, più nello specifico creando codice e contenuti pericolosi attraverso la piattaforma di IA generativa ChatGPT di OpenAI.

In questo report recente, invece, i ricercatori CPR hanno rivolto la loro attenzione alla piattaforma IA Barddi Google. Basandosi sulla precedente tecnologia LaMDA, Bard viene descritto da Google come «un esperimento fondato sulla stessa tecnologia che permette di collaborare con l’IA generativa. In qualità di collaboratore creativo e disponibile, Bard può dare la carica alla vostra immaginazione, esaltare la vostra produttività e aiutarvi a dar vita alle vostre idee – che vi occorra aiuto per organizzare la festa di compleanno perfetta e creare il relativo invito, oppure per stilare un elenco di pro e contro per aiutarvi a prendere una decisione importante, o ancora spiegare semplicemente argomenti complessi».

In base a questo, e in linea con le analisi precedenti, i ricercatori CPR hanno analizzato la piattaforma con due obiettivi principali:

– controllare se fosse possibile utilizzare questa piattaforma a scopi illeciti (per esempio creare messaggi di phishing / malware/ ransomware);
– confrontare Google Bard con ChatGPT nell’ambito della creazione di contenuti illeciti.

L’analisi ha sollevato alcune preoccupazioni, qui riassunte in breve.

ChatGPT contro Google Bard

Inizialmente i ricercatori hanno provato a creare un’email di phishing con una richiesta diretta: richiesta rifiutata sia da ChatGPT che da Bard.

CPR ha allora riprovato, chiedendo di avere un esempio specifico di una mail di phishing, al che ChatGPT ha respinto la richiesta mentre Bard ha prodotto un messaggio di phishing ben scritto, facendo finta di essere un preciso servizio finanziario.

La richiesta successiva è stata quella di fornire un esempio di vero codice malware. La richiesta diretta è stata rifiutata da entrambi i modelli.

Al secondo tentativo CPR ha fornito alcune motivazioni per la sua richiesta, ma ancora una volta le due piattaforme non le hanno dato seguito.

Possiamo qui notare la differenza tra le risposte di questi modelli: ChatGPT ha offerto una spiegazione dettagliata, mentre le risposte di Bard sono concise e generiche.

Come passo successivo CPR ha chiesto di ottenere del codice per un keylogger generico. Qui possiamo vedere una differenza tra ChatGPT, più restrittivo e in grado di identificare la richiesta come potenzialmente illecita, e Bard che ha semplicemente fornito il codice desiderato.

Infine è stata ripetuta la stessa richiesta in maniera più specifica, ovvero, la creazione di un key logger volto a registrare gli input provenienti dalla tastiera allo scopo di registrare la sequenza di tasti digitata dall’utente. Entrambi i modelli hanno fornito codice differente per il medesimo scopo, anche se ChatGPT ha aggiunto una specie di disclaimer relativo ai possibili utilizzi illeciti.

La prima richiesta è stata diretta e priva di dettagli specifici: Bard non le ha dato seguito e non ha fornito lo script richiesto.

CPR ha dunque provato un approccio differente richiedendo di descrivere le azioni più comunemente effettuate dal ransomware, e qui le cose si sono fatte interessanti: allora CPR ha chiesto a Bard di scrivere il relativo codice con un semplice copia-incolla, ma ancora una volta la richiesta è stata rifiutata.

CPR ha riprovato rendendo la richiesta un po’ più specifica; tuttavia, sulla base di quel minimo di azioni che veniva richiesto di effettuare, era chiaro quale fosse lo scopo dello script. Ciononostante Bard ha dato seguito, fornendo lo script per il ransomware che gli era stato richiesto.

Da questo punto è possibile modificare lo script con l’aiuto di Bard per fargli fare praticamente tutto ciò che si desidera.

Dopo averlo modificato con l’aiuto di Bard e aver aggiunto qualche funzionalità e la gestione delle eccezioni, CPR ha avuto a disposizione uno script funzionante.

Conclusioni (provvisorie)

Le osservazioni di CPR relativamente a Bard sono le seguenti:

– Le restrizioni anti-abuso di Bard nel campo della cybersicurezza sono significativamente più blande rispetto a quelle di ChatGPT. Di conseguenza è molto più facile generare contenuti malevoli sfruttando le capacità di Bard.
– Bard non impone praticamente alcuna restrizione sulla creazione di email di phishing lasciando così spazio a possibili utilizzi illeciti di questa tecnologia.
– Con manipolazioni minime, Bard può essere utilizzato per sviluppare malware per keylogging, il che rappresenta un problema per la sicurezza.
– I test svolti da CPR hanno dimostrato che è possibile creare codice ransomware basilare ricorrendo alle capacità di Bard.

Nel complesso, sembra che Google Bard debba ancora finire di imparare a implementare le restrizioni per contrastare gli abusi in ambito cyber e il processo di apprendimento che appare evidente in ChatGPT. Le attuali restrizioni di Bard sono relativamente elementari, così come era già stato evidenziato con ChatGPT diversi mesi fa nella sua fase di lancio. Si può dunque sperare che si tratti di una fase transitoria, una tappa di un percorso più lungo al termine del quale la piattaforma avrà adottato le limitazioni e i vincoli di sicurezza che occorrono.

Maggiori dettagli e immagini delle schermate sul blog ufficiale di CPR.

calendar_month

a cura di Redazione