Fraud GPT – il Cybercrime sempre un passo avanti?

Il cybercrime punta sull'AI
Se da un lato ChatGPT e i sistemi di intelligenza artificiale hanno catturato l'attenzione delle persone e vengono sempre più utilizzati, cambiando il loro sistema di approccio al computer, al lavoro, all'accesso ai dati e influenzando addirittura il comportamento, anche i criminali informatici hanno esplorato come poter capitalizzare questo fenomeno. Un recente esempio di questo è FraudGPT.

FraudGPT è un prodotto venduto abbastanza liberamente nel dark web e su Telegram che funziona in modo simile a ChatGPT, ma crea contenuti per facilitare cyberattacchi. I membri del team di ricerca sulle minacce di Netenrich l'hanno identificato per la prima volta e visto pubblicizzato nel luglio 2023. Uno dei punti “forti” di questo “prodotto” è che che non ha i controlli incorporati e le forme di limitazione che impediscono a ChatGPT di eseguire o rispondere a richieste inappropriate. In sintesi, è il fratello cattivo o l’anima nera di un sistema creato per dare contributi positivi.

Ulteriori informazioni reperibili in rete, ci dicono che questo software, viene aggiornato ogni una o due settimane e presenta diversi modelli di IA. FraudGPT ha addirittura un tariffario basato su abbonamento. Sempre cercando online si scopre che possiamo ottenerlo al modico prezzo di $200 al mese o $1.700 all'anno. Ovviamente in comodi e anonimi Bitcoin.

La versione "cattiva" di ChatGPT
Il team di Netenrich ha acquistato e testato FraudGPT. L'interfaccia sembra simile a quella di ChatGPT, con un registro delle precedenti richieste dell'utente nella barra laterale sinistra e la finestra di chat che occupa la maggior parte dello schermo. Le persone devono cliccare sul bottone "Fai una domanda" e premere Invio per generare la risposta. Proprio come nella normale ChatGPT a cui chiediamo la ricerca su Cavour o Garibaldi o altre informazioni ordinarie, qui possiamo chiedere ben altro.

Uno dei prompt di test ha chiesto al software, per testare il sistema, di creare e-mail di phishing relative alle banche. Gli utenti dovevano solo formattare le loro domande includendo il nome della banca e FraudGPT faceva il resto. Ha persino suggerito dove inserire un collegamento maligno nel contenuto. FraudGPT poteva andare oltre, creando delle landing page che invitavano i visitatori a fornire informazioni. Forse abbiamo scoperto l’origine di una buona parte dei messaggi che riceviamo sui nostri smartphone. Specialmente quelli della nostra banca che ci “informano” di accessi strani.

Altri prompt hanno chiesto a FraudGPT di elencare i siti o i servizi più presi di mira dagli hacker, i più vulnerabili e i più utilizzati. Queste informazioni potrebbero aiutare a pianificare futuri attacchi. Una pubblicità sul dark web per il prodotto menzionava che poteva creare senza difficoltà codice maligno, sviluppare malware "invisibili", individuare vulnerabilità, identificare bersagli semplici da colpire e altro.

Un vero e proprio manuale di istruzioni per cybercriminali.

Il team di Netenrich ha anche identificato il probabile venditore di FraudGPT come un soggetto che, in passato, offriva servizi di hacking a pagamento. Inoltre, hanno collegato la stessa persona a uno strumento simile chiamato WormGPT, un sistema con elevate potenzialità per la creazione di messaggi di phishing realistici e nella compromissione delle email aziendali.

Per approfondire > FraudGPT: The Villain Avatar of ChatGPT

Intelligenza artificiale e sicurezza informatica: nuovi rischi
È un dato di fatto che ChatGPT sia sempre più utilizzata e non solo nel mondo del lavoro. Ciò pone non pochi problemi per la sicurezza informatica. I dipendenti potrebbero esporre a seri rischi, anche involontariamente, informazioni aziendali riservate, incollandole in ChatGPT, per i più diversi usi. Immediato il pericolo di un possibile travaso delle stesse in sistemi illegali. Alcune aziende, tra cui Apple e Samsung, hanno non a caso già limitato il modo in cui i lavoratori possono utilizzare questo strumento.

I dati dicono che molte aziende saranno costrette a chiudere la loro attività entro due anni a causa di un data breach. Ma la perdita di dati non avviene sempre a causa di cyberattacchi, come molti possono pensare. Il pericolo è adesso anche quello che deriva dall’uso di ChatGPT, inserendovi dati magari sensibili.
Si tratta di un timore non infondato. Ad esempio un bug di ChatGPT ha esposto, nel Marzo 2023, i dettagli di pagamento di chi aveva utilizzato questo sistema in una finestra di nove ore iscrivendosi alla versione a pagamento. E non dimentichiamo che le versioni future di ChatGPT conterranno e processeranno le informazioni inserite dagli utenti precedenti. Strumenti e informazioni che, più o meno volontariamente, consegniamo ai pirati della rete.

logHD1

YOTTA WEB - Via Don F. Cabrio 14/D - 13900 Biella (BI)

P.IVA 02552590024 - C.F. SNTSVR77S27A859C - REA BI 194613

Copyright 2017 © YOTTA WEB All Rights Reserved

Privacy Policy