Il Parlamento europeo è pronto a votare una legge sull’intelligenza artificiale dopo un lungo negoziato fra i vari gruppi parlamentari. Dopo il voto di ieri, Strasburgo dovrà redigere un testo con il quale si disciplineranno l’IA, il riconoscimento facciale e gli altri metodi di sorveglianza biometrica e persino gli strumenti di “polizia predittiva”. Al momento non ci sono informazioni dettagliate, ma sì sa che le applicazioni e gli strumenti che utilizzano l’IA e le diverse tecnologie biometriche, verranno classificate sulla base del rischio che rappresenterebbero per i loro utilizzatori: si andrà dal livello basso a quello “inaccettabile”. Sulla base di questa classificazione, i governi e le aziende che utilizzano questi strumenti avranno obblighi diversi, a seconda del livello di rischio per tutelare gli utenti. Il disegno di legge sarà sottoposto al voto plenario del Parlamento europeo a giugno prima che i termini definitivi vengano concordati in colloqui trilaterali che coinvolgeranno i rappresentanti del Parlamento europeo, del Consiglio dell’Unione europea e della Commissione europea. Tuttavia, rimane un certo scetticismo nei riguardi delle vere intenzioni di Bruxelles che, lo ricordiamo, una volta eliminato il green pass, ha lasciata intatta la blockchain di dati provenienti da esso, qualcosa di pericoloso per la nostra libertà di scelta e movimento oltre che per la privacy ma fondamentale per il controllo sociale tanto caro ai burocrati europei.
Ma l’UE non è l’unica a muoversi in tal senso e già tra i suoi stessi stati membri l’utlizzo dell’intelligenza artificiale ha subito dei blocchi, anche se temporanei. In Italia, il Garante della privacy ha prima bloccato ChatGPT perché ritenuto pericoloso per la privacy degli utenti e dopo alcuni colloqui si è giunti ad un accordo tra il Garante e OpenAI, la società proprietaria di ChatGPT. In Australia, invece, le autorità statali hanno vietato l’utilizzo – inizialmente concesso dalle stesse autorità scolastiche – di ChatGPT a scuola, perché pericoloso per i dati e la privacy degli studenti e, soprattutto, dannoso per lo studio e la conoscenza. Ma l’IA è divenuta uno strumento fondamentale anche per le grandi multinazionali, come Coca-Cola che la ha “assunta” per occuparsi di marketing.
Dinanzi a questi problemi di privacy, da una parte, e alle strabilianti capacità dell’IA dall’altra, non bisogna dimenticare quanto sia pericolosa l’IA per l’uomo stesso. L’intelligenza artificiale potrebbe sostituire l’uomo in qualsiasi attività che esso svolge. L’intelligenza artificiale sarà il grimaldello col quale le élite ci porteranno dritti nell’era del transumanesimo. E noi non ce ne accorgeremo neanche.
Lascia un commento