AI generativa: I rischi di impiego malevolo dei sistemi di intelligenza artificiale
11/04/2023
Tra le questioni più dibattute in questi ultimi mesi sul fronte della sicurezza preventiva ci sono i livelli di potenzialità dei sistemi di “deep-learning”.
Ora è stata richiesta ai grandi produttori mondiali di sistemi AI una pausa di 6 mesi allo sviluppo dell’AI generativa (la tecnologia in grado di generare contenuti originali su richiesta umana, in particolare attraverso strumenti quali ChatGPT-4 di OpenAI, da ultimo rilasciata per uso pubblico a marzo 2023, con previsione del prossimo rilascio di GPT-5).
La sospensione è stata promossa con lettera aperta da:
- Elon Musk, fondatore, amministratore delegato e direttore tecnico della compagnia aerospaziale SpaceX, fondatore di The Boring Company, AD e product architect di Tesla, cofondatore di Neuralink e OpenAI;
- Youshua Bengio tra i massimi esperti di intelligenza artificiale, noto soprattutto per il suo lavoro nel deep learning, direttore del Montreal Institute for Learning Algorithms dell’Università di Montreal;
- Steve Wozniak imprenditore americano, ingegnere elettronico e filantropo che nel 1976 fu co-fondatore di Apple Computer con il socio in affari Steve Jobs;
- Emad Mostaque esperto di AI e amministratore delegato di Stability AI;
- Max Tegmark, cosmologo svedese, professore di fisica presso il Massachusetts Institute of Technology;
- Tristan Harris e Aza Raskin, informatici e imprenditori co-fondatori del Center for Humane Technology.
Insomma personaggi che sul tema ne sanno.
Le questioni in gioco:
- rischio perdita di controllo sullo sviluppo equilibrato dei sistemi di AI, viste le forti pressioni commerciali di introdurli in molteplici settori;
- i 6 mesi sarebbero necessari per sviluppare una serie di regole di sicurezza condivise per la progettazione di AI avanzate; in alternativa è stata chiesta una moratoria ai governi per l’attuazione di protocolli di sicurezza;
- Check Point Research (CPR), fornitore di soluzioni di cybersecurity a livello globale, ha avvertito sul potenziale di ChatGPT 4 nell’accelerazione dell'esecuzione di crimini informatici ipotizzando 5 scenari di utilizzo potenzialmente malevolo ed eseguendo test di richiesta di istruzioni a ChatGPT per la generazione di programmi per attacchi informatici.
In particolare le richieste tramite ChatGPT hanno riguardato la generazione di:
- Malware basato su codice C++ che crea file PDF, inviandoli poi tramite FTP (File Transfer Protocol)
- Attacco phishing personificando una banca
- E-mail phishing ai dipendenti di un’azienda
- PHP Reverse Shell (tecnica per eseguire comandi sulla macchina della vittima)
- codice Java che scarica ed esegue PuTTY (client per una sessione SSH, un protocollo di rete che fornisce un accesso sicuro ai computer remoti perché crittografa tutte le comunicazioni tra client e server) che può essere lanciato come powershell nascosto (PuTTY è un client SSH, Telnet e rlogin combinato con un emulatore di terminale per la gestione in remoto di sistemi informatici es. computer, server ecc...).
ChatGPT raccoglie gli input ed esegue, soprattutto quando le query sono ben mascherate con formule di linguaggio che aggirano l’intenzione di reato e sono circostanziate dal punto di vista tecnico.
Il libero accesso a questo motore di ricerca da parte di privati che negli ultimi mesi lo hanno inondato a livello globale delle più svariate domande ha disvelato scenari potenzialmente preoccupanti. Di qui la richiesta di definire diversi set di regole applicabili a svariati ambiti (giuridico, tecnico, scientifico, medico ecc) che possano impedire al sistema di accettare richieste di elaborazione malevole.
Area Legale