Logo Lidl Italia
Approfondimenti

Mobilità, Garante privacy: «Sì alle smart cities, ma più protezione dati»

Studio del Parlamento Ue: tecnologie sempre più pervasive, sviluppo va fondato sull’etica e sulle persone

8 Ottobre 2021

L’applicazione delle tecnologie di intelligenza artificiale (AI) allo sviluppo delle cosiddette “smart cities” (o “città intelligenti) può comportare seri rischi, sia per i singoli individui che per i delicati equilibri di coesione territoriale. Un vero e proprio divario potrebbe crearsi, in termini di sviluppo e opportunità sociali ed economiche, tra singole zone delle città, tra città e contesto extra-urbano e fra le varie città di un dato territorio. È quanto evidenzia il recente studio “Artificial Intelligence and Urban Development” commissionato dal Parlamento europeo.

 

La ricerca non manca di valorizzare gli aspetti positivi delle smart cities. L’AI offre enormi potenzialità ai fini dello sviluppo socio-economico e del miglioramento della qualità della vita individuale e collettiva (ad esempio sul fronte della mobilità della gestione dei rifiuti, dell’efficienza energetica, ecc.). L’intelligenza artificiale presenta tuttavia potenziali rischi collegati soprattutto alla capacità di raccogliere, elaborare e trasformare immense quantità di dati, sfruttando anche le sinergie con altre tecnologie (Big Data, cloud, Internet delle cose).

 

In questo quadro, come sostiene il Garante della Privacy, la protezione dei dati rappresenta un volano fondamentale per la valutazione e la mitigazione di rischi di varia natura, che vanno dalle politiche di cyber-security all’influenza di errori e “bias” (pregiudizi) basati sulla raccolta e l’elaborazione dei dati, che possono avere pesanti ripercussioni a livello individuale e collettivo: dal cosiddetto rischio “black-box”, legato all’opacità o addirittura totale impenetrabilità dei processi automatizzati, alle implicazioni etiche connesse ai processi decisionali dell’AI che, a differenza di quelli umani, possono essere completamente avulsi da implicazioni morali, empatia, riferimento al contesto umano (lack-of-value); dai rischi reputazionali dovuti alla condivisione e diffusione incontrollata di dati personali, alle disparità connesse alle differenti opportunità di accesso ai dati; fino ad arrivare all’eccessiva invasività del controllo tecnologico nelle vite quotidiane.

 

Per sfruttare al massimo il potenziale dell’AI rispettando al contempo la privacy delle persone, lo studio propone alcuni indirizzi operativi: un’attenta cooperazione tra le istituzioni; lo sviluppo di politiche e pratiche focalizzate su una precisa  regolazione dell’accesso ai dati e della loro condivisione; un puntuale e tempestivo adeguamento dei quadri giuridici e regolamentari; lo sviluppo di competenze e capacità adeguate (anche in chiave data protection) da parte dei soggetti chiamati a gestire lo sviluppo e la governance dei processi e delle tecnologie connessi alle città intelligenti.

 

(ph: Shutterstock)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *