DOMENICA 21 LUGLIO 2019 19.06.53
ANSA/ Negli Usa un altro no al riconoscimento facciale
ZCZC2854/SXA
XSP90256_SXA_QBXB
R CRO S0A QBXB
ANSA/ Negli Usa un altro no al riconoscimento facciale
Da Oakland, alimentato da un movimento anti-tecnologia
(di Pier David Malloni)
(ANSA) - ROMA, 21 LUG - Le tecniche di riconoscimento
facciale sono sempre piu' diffuse, ma per alcuni sono pericolose
"come la bomba atomica". L'opposizione alla loro adozione da
parte delle autorita' sta crescendo soprattutto negli Stati
Uniti, dove sono arrivate a tre le citta' che le hanno messe al
bando e un'organizzazione no profit ne ha chiesto il bando
totale nel Paese.
Dopo San Francisco e Somerville, la terza citta' a decidere lo
stop e' stata Oakland, in California: ha bandito ufficialmente la
tecnologia, che non potra' piu' essere utilizzata dalle autorita'.
Alla base della decisione c'e' soprattutto la preoccupazione per
il rischio di discriminazioni. "Una ricerca ha concluso che il
software e' meno accurato per le donne e le persone con la pelle
scura, e particolarmente inaccurato per le donne di colore", -
ha rilevato il sindaco di Oakland.
Poiche' questa tecnologia riconosce i volti in video o foto,
confrontandoli in tempo reale con quelle contenuti nelle banche
dati, in molte citta' americane e' largamente utilizzata dalla
polizia o negli aeroporti. Cio' fa crescere la preoccupazione,
tanto che la American Civil Liberties Union, insieme a 70
organizzazioni, ha chiesto alle aziende non vendere piu' la
tecnologia al governo. Per Luke Stark, dell'universita' di
Harvard, il riconoscimento facciale e' "il plutonio
dell'intelligenza artificiale: queste tecnologie - ha rilevato -
hanno delle falle insormontabili dovute al modo in cui
schematizzano i volti, rinforzando categorizzazioni negative su
razza e genere, con effetti sociali tossici. Proprio questi
problemi di base fanno si' che i rischi superino enormemente i
benefici, in un modo che ricorda il nucleare".
Le preoccupazione e' lecita, commenta il direttore
dell'Istituto di Informatica e Telematica del Consiglio
nazionale delle Ricerche (Cnr), Domenico Laforenza, ma la
demonizzazione deve essere evitata. "Il principio generale e' che
la tecnologia non e' mai neutra: dipende dall'uso che se ne fa.
Questo vale sempre, che si tratti di intelligenza artificiale o
di riconoscimento facciale, che ne e' una delle applicazioni.
Demonizzare un approccio e' stupido, se si pensa che la stessa
tecnologia puo' essere d'aiuto per trovare i tumori o per aiutare
i medici a fare una diagnosi. Deve essere sotto controllo,
regolata per evitare usi distorti".
Il riconoscimento facciale puo' essere d'aiuto anche per le
forze dell'ordine. "L'importante e' sapere che fine fanno i dati
e che ci sia un responsabile che eviti che vengano venduti a
terzi o usati per altri scopi".
Anche il rischio di discriminazioni e' reale. "C'e' questa
possibilita' ma non dipende dagli algoritmi, e' un problema legato
ai dati con cui vengono 'istruiti'. Se questi contengono
pregiudizi e stereotipi si rifletteranno poi nei risultati. Si
pensi all'effetto in un'applicazione che prevede in quali aree e'
piu' probabile che avvenga un delitto". (ANSA).
Y91-BG
21-LUG-19 19:06 NNNN
Nessun commento:
Posta un commento