Logo dell'UIC Logo TUV

Unione Italiana dei Ciechi e degli Ipovedenti ETS - APS

 

Il Progresso

torna alla visualizzazione del numero 12 del Il Progresso

Numero 12 del 2020

Titolo: Attualità- Stop al riconoscimento facciale. Ibm contro l'uso dell'Ai per la profilazione razziale

Autore: Redazionale


Articolo:
(da «Ilsole24ore.it» del 9 giugno 2020)
Il gigante di Armonk scrive al Congresso Usa, esce dal «business» del riconoscimento facciale e chiede di aprire un tavolo
Una lettera del nuovo Ceo di Ibm Arvin Krishna diretta al Congresso Usa chiarisce che l'intelligenza artificiale di Big Blue non sarà impiegata per il riconoscimento facciale applicato alla sorveglianza globale e alla profilazione razziale. Come si legge sulla rivista Usa online The Verge, Ibm scrive: «Riteniamo che sia giunto il momento di avviare un dialogo nazionale su come e se la tecnologia di riconoscimento facciale dovrebbe essere impiegata dalle forze dell'ordine nazionali». «Ibm si oppone fermamente e non perdonerà l'uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali», ha scritto Krishna, aggiungendo che «la tecnologia può aumentare la trasparenza e aiutare la polizia a proteggere le comunità ma non deve promuovere discriminazioni o ingiustizie razziali».
Sembra di capire che non ci saranno aggiornamenti per le soluzioni sviluppate, ma verrà comunque fornito supporto a coloro che le stanno già utilizzando. Ma il messaggio è chiaro ed è quello di aprire un tavolo per capire l'impatto di questa tecnologia. L'annuncio pubblico del gigante di ‎Armonk è arrivato in un momento particolare. Gli Stati Uniti sono in preda a violentissime proteste a livello nazionale per la morte di George Floyd. I Big della Silicon Valley stanno prendendo posizione sull'uso di questa tecnologia e sul suo impiego in ottica di sorveglianza globale.
La posizione dei Big della Silicon Valley
All'inizio di quest'anno il caso di Clearview Ai. La società utilizzava oltre 3 miliardi di immagini catturate dai social media per vendere servizi di riconoscimento facciale alle forze di polizia di tutto il mondo. Sull'attività di Clearview sono state avviate indagini ed è al centro di numerose cause per violazione della privacy. A gennaio a Facebook è stato anche ordinato di pagare 550 milioni di dollari per risolvere una causa di azione collettiva per l'uso illegale della tecnologia di riconoscimento facciale.
In Europa
E l'anno scorso nel mirino c'era Rekognition, il software di riconoscimento facciale sviluppato da Amazon Aws. Quanto a Google fin dal 2018 ha indicato una serie di principi da adottare nella fase di creazione e di fornitura di servizi, tecnologie e piattaforme legate all'intelligenza artificiale.
L'Europa e l'Ai
All'inizio dell'anno scorso l'Europa ha pubblicato un codice etico sull'intelligenza artificiale (Ai). Il documento contiene le linee guida per illustrare soluzioni tecniche e non tecniche su come fornire trasparenza e responsabilità intorno all'Ai, e incoraggiare le aziende e i ricercatori a sviluppare protezioni della privacy, non discriminazione e supervisione umana nei loro progetti in una fase iniziale. Il documento è aperto a suggerimenti in attesa della versione definitiva che arriverà a marzo dell'anno prossimo.



Torna alla pagina iniziale della consultazione delle riviste

Oppure effettua una ricerca per:


Scelta Rapida