Translate
martedì 8 gennaio 2019
Facebook: privacy, i rischi dietro l'algoritmo anti-suicidi
MARTEDÌ 08 GENNAIO 2019 10.50.27
Facebook: privacy, i rischi dietro l'algoritmo anti-suicidi =
(AGI) - Roma, 8 gen. - E' passato quasi un anno da quando Facebook ha ampliato il suo programma anti-suicidi. Un pacchetto di strumenti mirati a supportare chi sta pensando di togliersi la vita. Il servizio ha un fine nobile, ma ripropone i soliti dubbi legati alla privacy degli utenti, tanto piu' dopo un 2018 in cui Facebook ha ammesso alcune falle. In breve: l'algoritmo che rileva i segnali di rischio immagazzina anche dati sensibili, ad esempio sulla salute mentale degli interessati. Allo stesso tempo, pero', Facebook ha il permesso di gestirli in modo piu' disinvolto rispetto ad ambulatori e ospedali. Il problema esiste, tanto che, per via del Gdpr, la funzione non e' utilizzata in Europa ma solo negli Stati Uniti e in altre aree del pianeta dove le maglie normative sono piu' larghe. L'algoritmo scandaglia praticamente ogni post presente su Facebook. E classifica alcuni "pezzi" del messaggio secondo una scala da zero a uno, dove il grado piu' alto e' quello di "rischio imminente". Dopo essere stato etichettato, il post viene inoltrato a un primo team di moderatori umani. Anche se, negli ultimi mesi, non sono mancati i dubbi su una formazione adeguata, Facebook assicura che i moderatori ricevono istruzioni precise, studiate da specialisti, su "contenuti potenzialmente legati a suicidio, automutilazione e disordini alimentari" e "identificazione di una potenziale minaccia credibile o imminente di suicidio". (AGI) Di2/Mau (Segue) 081050 GEN 19 NNNN
MARTEDÌ 08 GENNAIO 2019 10.50.27
Facebook: privacy, i rischi dietro l'algoritmo anti-suicidi (2)=
(AGI) - Roma, 8 gen. - In questa prima fase, i contenuti non sono associati al nome dell'utente. Se giudicato a rischio, viene inoltrato a un team di moderatori con maggiore esperienza sul campo e un passato nelle forze dell'ordine o in linee di servizi anti-suicidio e anti-stupro. Solo questo gruppo, piu' specializzato e ristretto, ha accesso a informazioni sensibili che legano post e identita' dell'utente. Al termine di questa terza fase di analisi, si possono percorre due strade: contattare l'utente con informazioni e risorse di supporto o chiamare i soccorritori. Facebook estrae dai post informazioni sullo stato di salute degli utenti. Il social network, pero', non e' tenuto al rispetto dello stesso standard di privacy dei fornitori di servizi sanitari. Diversi esperti, tra i quali Natasha Duarte, analista del Center for Democracy and Technology - intervistata da Business Insider - sostengono si tratti di "informazioni sanitarie sensibili": "Chiunque raccolga questo tipo di dati e intervenga sulle persone" dovrebbe essere trattato nella stessa maniera. Che sia un ospedale, una compagnia assicurativa o Facebook. Attualmente, pero', le leggi statunitensi non equiparano le tracce social sui suicidi con i dati sanitari. Facebook, quindi, non e' obbligato a rispettare gli stessi limiti previsti dall'Health Insurance Portability and Accountability Act. Che, tra le altre cose, impongono il divieto di condivisione e un pieno accesso dei pazienti ai propri dati. (AGI) Di2/Mau (Segue) 081050 GEN 19 NNNN
MARTEDÌ 08 GENNAIO 2019 10.50.39
POLIZIASICUREZZA
Facebook: privacy, i rischi dietro l'algoritmo anti-suicidi (3)=
(AGI) - Roma, 8 gen. - L'allarme e' stato rilanciato nei mesi scorsi, vista la scarsa trasparenza dimostrata da Facebook nella gestione dei dati e le falle nel suo sistema di sicurezza, non certo blindato. Il gruppo ha confermato che i segnali di allarme con punteggi vicini allo zero vengono eliminati dopo 30 giorni. Ma non ha fornito dettagli sulla gestione di quelli indicati con un rischio maggiore. C'e' quindi il rischio che alcune informazioni sensibili siano, prima o poi, bersaglio di cyber-attacchi. Con una preoccupazione in piu': lo stigma del disturbo mentale e' ancora marcato. E potrebbe quindi esporre gli utenti ancor di piu' rispetto a quanto non facciano informazioni sullo stato di salute fisico. Il protocollo anti-suicidi di Facebook prevede poi - in casi estremi - la richiesta di intervento delle forze dell'ordine. Un altro rischio per la riservatezza, se l'algoritmo fraintendesse i segnali. In un anno, ha spiegato Mark Zuckerberg in post dello scorso novembre, "abbiamo aiutato circa 3.500 persone nel mondo". Ma sono noti anche casi di falso allarme. Come quello di una donna dell'Ohio, obbligata dalla polizia a un controllo psicologico dopo aver ricevuto un Sos da Facebook. La bonta' delle intenzioni non e' in discussione. Resta pero' il fatto che Menlo Park possa gestire dati sanitari in modo piu' libero solo per il fatto che non vengono raccolti in un contesto esclusivamente medico. Diversi esperti chiedono un intervento normativo. O almeno una maggiore trasparenza, lasciando agli utenti la liberta' di decidere se aprire i propri post al programma anti-suicidi. (AGI) Di2/Mau 081050 GEN 19 NNNN
Iscriviti a:
Commenti sul post (Atom)
Nessun commento:
Posta un commento