Il tempo che si passa collegati in rete è stato stimato in oltre 6 ore al giorno. Ci si fa di tutto, dal lavoro alle chat, e si fa anche campagna elettorale e comunicazione politica. Gli algoritmi di Intelligenza Artificiale risultano molto utili nell’analisi dei contenuti, ma da un loro utilizzo strumentale ne può venire fuori un impiego distorto, che potrebbe addirittura influenzare le scelte democratiche. In base ai comportamenti digitali avuti, l’IA seleziona le informazioni che ci vengono presentate, contenuti che mediamente sono conformi ai nostri gusti, ma che guidano anche le nostre scelte elettorali, influenzando potenzialmente le posizioni. Gli algoritmi alla base delle principali piattaforme social sono i principali responsabili di questo tipo di informazione, ma esiste anche una componente indotta, in particolare i social-bot e i deep fake spesso usati per influenzare e manipolare l’opinione pubblica. I primi sono dei robot utilizzati per amplificare le opinioni, mentre i deep fake utilizzano la AI per generare immagini, video o audio, spesso di scarsa credibilità, che puntano a minare la reputazione dell’avversario politico. Altro fenomeno emergente è il microtargeting, una pubblicità on-line profilata che utilizza dati personali per ricavarne gli interessi, in modo da precedere e influenzare le azioni dei cittadini. Se questo viene fatto in ambito politico invece che commerciale può rappresentare un forte pericolo per la democrazia. La Comunità Europea si sta muovendo, proponendo di porre dei limiti al microtargeting politico, attraverso una lista di categorie sensibili, come orientamento sessuale, etnia, orientamento politico e salute. Il progetto, che prevede un inasprimento delle sanzioni rispetto a quelle già previste dal GDPR, dovrà essere approvato sia dal Consiglio europeo che dal Parlamento italiano.