Pubblicato un rapporto che evidenzia otto utilizzi illeciti di ChatGPT
OpenAI ha recentemente pubblicato un rapporto dettagliato che evidenzia otto utilizzi illeciti di ChatGPT da parte di cybercriminali, impiegato per attività di sorveglianza, campagne di disinformazione e truffe online.
1. Strumenti di Sorveglianza
In un caso, criminali informatici cinesi hanno utilizzato ChatGPT per sviluppare un tool di sorveglianza denominato “Peer Review”. Questo strumento è stato progettato per monitorare in tempo reale post anti-Cina sui social media occidentali, con l’obiettivo di identificare dissidenti e oppositori politici.
2. Truffe con Falsi Annunci di Lavoro
Alcuni cybercriminali, presumibilmente nordcoreani, hanno sfruttato ChatGPT per creare falsi annunci di lavoro su piattaforme come LinkedIn. Il chatbot è stato utilizzato per generare risposte tecniche plausibili durante finti colloqui, ingannando le vittime e sottraendo loro dati sensibili e criptovalute.
3. Campagne di Disinformazione
Una campagna denominata “Sponsored Discontent” ha visto l’impiego di ChatGPT da parte di criminali cinesi per redigere falsi articoli in inglese e spagnolo. Questi articoli criticavano dissidenti cinesi e la politica estera degli Stati Uniti, diffondendo informazioni manipolate.
4. Truffe Romantiche e “Pig Butchering”
ChatGPT è stato utilizzato per creare contenuti ingannevoli destinati ai social media e alle app di messaggistica, con l’obiettivo di instaurare relazioni di fiducia con le vittime. Queste truffe, note come “romantic scam” o “pig butchering”, miravano a convincere le persone a investire denaro in schemi fraudolenti.
5. Campagne di Influenza Pro-Palestina, Pro-Iran e Pro-Hamas
Cybercriminali iraniani hanno sfruttato ChatGPT per generare contenuti a favore di Palestina, Iran e Hamas, diffondendo tali informazioni sui social media per influenzare l’opinione pubblica.
6. Interferenza Elettorale in Ghana
Prima delle elezioni in Ghana, ChatGPT è stato impiegato per creare contenuti a sostegno di un particolare candidato, cercando di manipolare l’esito elettorale attraverso la diffusione di informazioni tendenziose.
7. Attacchi Informatici e Phishing
Criminali nordcoreani hanno utilizzato ChatGPT per individuare vulnerabilità software, generare codice malevolo e redigere email di phishing, facilitando attacchi informatici su larga scala.
8. Ulteriori Truffe con Falsi Annunci di Lavoro in Cambogia
In Cambogia, ChatGPT è stato impiegato per creare ulteriori falsi annunci di lavoro, ingannando le vittime e sottraendo loro informazioni personali e finanziarie.
In risposta a queste attività illecite, OpenAI ha identificato e chiuso numerosi account utilizzati per tali scopi, rafforzando le misure di sicurezza per prevenire futuri abusi della tecnologia AI.
Commento all'articolo