testata ADUC
Le 20 minacce più pericolose dell’intelligenza artificiale
Scarica e stampa il PDF
Articolo di Redazione
13 agosto 2020 14:52
 
Hacking di auto a guida autonoma o droni militari, attacchi di phishing mirati, informazioni fittizie o manipolazione dei mercati finanziari ... "L'espansione delle capacità delle tecnologie basate sull'intelligenza artificiale è accompagnata da un aumento del loro potenziale di sviluppo. "sfruttamento criminale", avverte Lewis Griffin, uno scienziato informatico all'University College di Londra (UCL). Insieme ai suoi colleghi, ha compilato un elenco di 20 attività illegali perpetrate dall'intelligenza artificiale e le ha classificate in ordine di potenziale danno, guadagno o profitto, facilità di implementazione e difficoltà da rilevare e fermare.

I crimini più spaventosi, come i "robot rapine" che irrompono nel tuo appartamento, non sono necessariamente i più pericolosi, in quanto possono essere facilmente contrastati e colpiscono poche persone alla volta. Al contrario, false informazioni generate da "bot" hanno la capacità di rovinare la reputazione di una persona conosciuta o di esercitare un ricatto. Difficili da combattere, questi "deepfake" possono causare notevoli danni economici e sociali.

Intelligenza artificiale: gravi minacce
• Video falsi: impersonare una persona facendogli dire o fare cose che non ha mai detto o fatto, allo scopo di richiedere l'accesso a dati protetti, di manipolare l'ondata di opinioni per nuocere alla reputazione di qualcuno ... Questi video falsi sono quasi impercettibili.
• Hackeraggio autonomo di automobili: prendere il controllo di un veicolo autonomo e utilizzarlo come arma (ad esempio, effettuare un attacco terroristico, provocare un incidente, ecc.).
• Phishing su misura: genera messaggi personalizzati e automatizzati per aumentare l'efficacia del phishing finalizzato alla raccolta di informazioni sicure o all'installazione di malware.
• Hacking di sistemi controllati dall'intelligenza artificiale: interruzione dell'infrastruttura causando, ad esempio, un blackout generale, congestione del traffico o interruzione della logistica alimentare.
• Ricatto su larga scala: raccogliere dati personali per inviare messaggi di minaccia automatizzati. L'intelligenza artificiale potrebbe anche essere utilizzata per generare false prove (ad esempio "sextrosion").
• Notizie false scritte dall'IA: scrivere articoli di propaganda che sembrano provenire da una fonte attendibile. L'intelligenza artificiale potrebbe anche essere utilizzata per generare molte versioni di un determinato contenuto per aumentarne la visibilità e la credibilità.

Intelligenza artificiale: minacce di media gravità
• Robot militari: prendere il controllo di robot o armi per scopi criminali. Una minaccia potenzialmente molto pericolosa ma difficile da implementare, poiché le attrezzature militari sono generalmente molto protette.
• Scam: vendita di servizi fraudolenti utilizzando l'IA. Ci sono molti famigerati esempi storici di criminali che hanno venduto con successo costose tecnologie false a grandi organizzazioni, compresi governi nazionali e forze armate.
• Alterazione dei dati: modifica o introduzione deliberata di dati falsi per indurre pregiudizi specifici. Ad esempio, rendere un rilevatore immune alle armi o incoraggiare un algoritmo a investire in un particolare mercato.
• Attacco informatico basato sull'apprendimento: eseguire attacchi sia specifici che massivi, ad esempio utilizzando l'intelligenza artificiale per sondare i punti deboli nei sistemi prima di lanciare più attacchi simultanei.
• Droni di attacco autonomi: dirottare droni autonomi o usarli per attaccare un bersaglio. Questi droni potrebbero essere particolarmente minacciosi se agissero in massa, in sciami auto-organizzati.
• Negazione dell'accesso: danneggiare o privare gli utenti dell'accesso a un servizio finanziario, impiego, servizio pubblico o attività sociale. Di per sé non redditizia, questa tecnica può essere utilizzata come ricatto.
• Riconoscimento facciale: dirotta i sistemi di riconoscimento facciale, ad esempio realizzando foto di identità falsa (accesso a uno smartphone, telecamere di sorveglianza, screening dei passeggeri, ecc.)
• Manipolazione dei mercati finanziari: algoritmi di trading alterati per danneggiare i concorrenti, per abbassare o aumentare artificialmente un valore, per causare un crollo finanziario …

Intelligenza artificiale: minacce a bassa intensità
• Sfruttamento dei pregiudizi: approfittare dei pregiudizi esistenti negli algoritmi, ad esempio i consigli di YouTube per canalizzare gli spettatori o le classifiche di Google per migliorare i profili dei prodotti o denigrare i concorrenti.
• Robot antifurto: utilizzare piccoli robot autonomi che si infilano nelle cassette postali o nelle finestre per recuperare le chiavi o aprire le porte. Il danno è potenzialmente basso, perché è molto localizzato su piccola scala.
Blocco del rilevamento AI: sventa l'ordinamento AI e la raccolta di dati al fine di cancellare prove o nascondere informazioni criminali (ad es. Pornografia)
• Recensioni false scritte dall'intelligenza artificiale: generazione di recensioni false su siti come Amazon o Tripadvisor per danneggiare o promuovere un prodotto.
• Tracciamento assistito da intelligenza artificiale: utilizzo di sistemi di apprendimento per monitorare la posizione e l'attività di un individuo.
• Contraffazione: realizzazione di contenuti falsi, come quadri o musica, che possono essere venduti con falsa paternità. Il potenziale di fastidio rimane piuttosto basso nella misura in cui ci sono pochi dipinti o musica conosciuti.

(Articolo di Céline Deluzarche, pubblicato su Futura-Tech del 12/08/2020)
 
 
CHI PAGA ADUC
l’associazione non percepisce ed è contraria ai finanziamenti pubblici (anche il 5 per mille)
La sua forza sono iscrizioni e contributi donati da chi la ritiene utile

DONA ORA
Pubblicato in:
 
 
ARTICOLI IN EVIDENZA
 
ADUC - Associazione Utenti e Consumatori APS