giovedì, Ottobre 21, 2021
Home Tech Le 5 capacità di intelligenza artificiale che già rappresentano una minaccia per...

Le 5 capacità di intelligenza artificiale che già rappresentano una minaccia per l'umanità

Nel febbraio 2015, l'Università di Oxford ha anche pubblicato un elenco di minacce che pongono rischi per la civiltà umana e il rapporto ha avvertito che esiste la possibilità che l'IA possa causare l'estinzione dell'umanità un giorno, deliberatamente.

In un'intervista con la BBC nel 2014, il famoso fisico Stephen Hawking è stato citato dicendo: “Lo sviluppo della piena intelligenza artificiale potrebbe significare la fine della razza umana. Decollerebbe da solo e si ridisegnerebbe a un ritmo sempre crescente. Gli esseri umani, che sono limitati dalla lenta evoluzione biologica, non potrebbero competere e verrebbero sostituiti ".

L'innovatore di Tesla e SpaceX Elon Musk ha anche messo in guardia contro i rischi dello sviluppo dell'IA. In un'intervista con CNBC, Musk ha rivelato che il motivo per cui stava investendo pesantemente in società di intelligenza artificiale.

Anche il leader di Microsoft, Bill Gates, ha espresso la sua preoccupazione per l'intelligenza artificiale e la superintelligenza. Tuttavia, Gates ritiene anche che l'intelligenza artificiale possa essere utilizzata come software migliore per migliorare la vita umana.

Il dibattito sugli effetti dell'intelligenza artificiale sulla civiltà umana va avanti da molto tempo.

Cosa rende pericolosa l'intelligenza artificiale?

L'era delle super macchine simili a Terminator è ancora tra 20 e 50 anni nel futuro. Ma le componenti sociali, politiche, finanziarie e normative dell'IA sono così complicate da gestirle quando diventano realtà.

Oltre a prepararsi per un futuro basato sull'intelligenza artificiale, è anche fondamentale guardare a come l'IA può comportare rischi nella sua forma attuale. Questo articolo discuterà le prime cinque applicazioni AI che sono in grado di portare più danni che benefici.

1) Armi intelligenti

Incorporare l'IA nelle armi è una delle applicazioni più pericolose di questa tecnologia. Abbiamo sentito parlare di attacchi nucleari azionati da macchine o di guerre programmate dall'intelligenza artificiale nelle notizie.

Ma il pericolo è più tangibile di quanto possiamo immaginare. Sebbene l'intelligenza artificiale possa migliorare la precisione e l'efficienza dell'arma, può anche comportare rischi, non solo per i bersagli ma anche per le persone che sovrintendono alle armi.

Con i vari paesi che competono nell'uso dell'IA nella corsa agli armamenti nucleari, è inimmaginabile come sarebbe un'altra guerra mondiale, nel caso in cui scoppiasse una.

Secondo il presidente russo Vladimir Putin, l'intelligenza artificiale offre enormi opportunità, ma anche le minacce sono difficili da prevedere. Ha anche affermato che chiunque diventerà il leader nell'intelligenza artificiale molto probabilmente diventerà il dominatore del mondo.

Leggi anche: Upskilling: la chiave per mitigare la perdita di posti di lavoro dovuta all'intelligenza artificiale

2) Attacchi online basati sull'intelligenza artificiale

Uno dei vantaggi dell'utilizzo dell'IA è l'automazione. Puoi usarlo per riprodurre compiti che in precedenza richiedevano lavoro umano. Se usata bene, l'IA può aumentare l'efficienza e la produttività di cento volte.

Ma se cade nelle mani delle persone sbagliate, significa più danni per il pubblico. Alcuni attacchi online, ad esempio, possono essere automatizzati e causare più danni alle persone.

Con un software basato sull'intelligenza artificiale, gli hacker possono inviare più e-mail di spear phishing a più contatti, senza costi aggiuntivi. Le e-mail di phishing, da sole, sono abbastanza pericolose. Immagina cosa può fare un phisher AI automatizzato.

Lo stesso concetto si applica ad altri attacchi online, come ransomware, crypto-jacking, adware e altri tipi di attacchi online.

3) Manipolazione sociale

Un primo esempio di intelligenza artificiale utilizzata per manipolare le persone è Google. I suoi algoritmi autonomi forniscono a Google tutte le informazioni su tutti gli utenti. Google sa dove siamo, cosa facciamo, cosa mangiamo, cosa ci piace e probabilmente cosa stiamo pensando.

Un altro buon esempio sono i social media. È più potente di Google. I dati raccolti da Google e dai social media vengono utilizzati in modi diversi. Ad esempio, i professionisti del marketing utilizzano i dati dei consumatori per il marketing target.

I politici e le organizzazioni, d'altro canto, possono utilizzare questi dati per influenzare l'opinione pubblica. Basta guardare allo scandalo Cambridge Analytica.

Sono ancora in corso indagini sul ruolo di Cambridge Analytica nel tentativo di influenzare l'esito delle elezioni presidenziali statunitensi del 2016, così come il referendum sulla Brexit del Regno Unito, ma questioni come questa illustrano la capacità dell'IA di manipolazione sociale.

Leggi anche: Cosa sono le app intelligenti (I-Apps)? Caratteristiche, esempi e usi

4) Invasione della privacy online

La sorveglianza è un potente strumento di raccolta dati. Ora puoi monitorare e analizzare le attività di ogni persona, sia online che di persona.

Per esempio: La Cina sta utilizzando la sua vasta rete di telecamere a circuito chiuso per implementare il suo sistema di credito sociale. Questo sistema assegnerà un punteggio personale a ogni cittadino in base a come si comporta.

Sebbene alcuni utenti stiano ingannando il sistema eliminando le loro attività online, non riescono comunque a sfuggire alla sorveglianza della vita reale. Questa è chiaramente una violazione della privacy personale e online e l'intelligenza artificiale sta dando alla Cina il potere di realizzarla.

5) Proliferazione di falsi

L'anno scorso abbiamo visto molti video "deep fake" e questo numero rivela quanto sia facile creare video clip falsi utilizzando l'intelligenza artificiale.

I video "deep fake" includevano l'incollaggio di volti di celebrità in video per adulti senza il loro consenso. Questo vale anche per strani mashup di film e possibili campagne diffamatorie politiche. Le reti antagoniste generative o GAN utilizzano due reti neurali per creare false immagini digitali note come "deep fake".

Sebbene la capacità di GAN di sintetizzare modelli di dati possa essere molto utile in animazione, fotoritocco e medicina, può essere pericolosa.

Linea di fondo

L'intelligenza artificiale è un'arma a doppio taglio. Ha infinite applicazioni, ma lo sono anche i rischi. Ci vorrà uno sforzo concertato tra i governi, la comunità scientifica, gli esperti di intelligenza artificiale, per garantire che l'IA rimanga una risorsa, non un peso.

Leggi anche: 7 modi in cui l'IA aiuta a semplificare i flussi di lavoro della gestione dei progetti

ARTICOLI CORRELATI

I PIÙ POPOLARI