M

Questo sito fa uso di cookie tecnici per migliorare l’esperienza di navigazione degli utenti e per raccogliere informazioni sull’utilizzo del sito stesso. Per maggiori informazioni si veda la Cookie Policy.

Intelligenza artificiale e Privacy: Il Garante indica le cautele per prevenire o mitigare il web scraping

Il Garante della privacy italiano ha pubblicato un documento volto a fornire alcuni importanti suggerimenti ai Titolari del trattamento al fine di prevenire o mitigare l’attività di web scraping per le finalità di addestramento dei modelli di intelligenza artificiale.

Il web scraping è il connubio tra l’attività di raccolta massiva e indiscriminata di dati e quella di memorizzazione e conservazione dei dati raccolti dai bot per successive analisi, elaborazioni e utilizzi.
Tra le diverse finalità del web scraping vi è quella di addestramento degli algoritmi di intelligenza artificiale generativa, alimentando i data set su cui questa si basa.

Attraverso l’attività di web scraping, dunque, si corre il rischio che anche i dati personali vadano poi ad alimentare i data set dei sistemi di Intelligenza artificiale, su cui questi si addestrano, con potenziale compromissione del diritto alla riservatezza del soggetto a cui tali dati appartengono, e conseguente responsabilità dei titolari del trattamento, “colpevoli” di non aver adottato tutte le misure necessarie per evitare che ciò avvenisse.

Alla luce di ciò, il Garante ha voluto offrire delle linee guida generali, da implementare a seconda del caso concreto, per evitare che le attività di web scraping possano ledere la sicurezza dei dati personali.
Le cautele suggerite sono:

– Creazione di aree riservate, alle quali accedere solo previa registrazione, salvo tener presente che i titolari non possono imporre agli utenti dei loro siti web o piattaforme online oneri di registrazione ulteriori e ingiustificati.
– Inserimento di clausole ad hoc nei termini di servizio, in cui vietare attività di web scraping.
– Monitoraggio del traffico di rete, per individuare eventuali flussi anomali di dati di ingresso e di uscita.
– Intervento sui bot, limitandone l’accesso quanto più possibile (ad esempio tramite CAPTCHA, modifica periodica del markup HTML, ecc)
Queste nuove cautele, che sono solo esemplificative, impongono altresì un altro onere sui Titolari, i quali, ove necessario, dovranno altresì valutare l’eventuale rischio web scraping in sede di PIA.

Data di pubblicazione
10.06.2024
Argomento trattato
Data Protection

Iscrizione Newsletter

Share