Facebook usa l’intelligenza artificiale ad ingannare i sistemi di riconoscimento facciale

Anche se le pratiche di riconoscimento facciale perseguite da Facebook sono oggetti di giudizio legislativo, il social network prosegue la sua battaglia contro i misfatti di cui è accusata.

La sua divisione di ricerca sull’intelligenza artificiale ha sviluppato un sistema di “de-identificazione” che funziona su video anche live. In pratica, modifica le caratteristiche facciali di un soggetto all’interno di un video in tempo reale tramite l’apprendimento automatico; tutto ciò per ingannare un sistema di riconoscimento facciale nell’identificare erroneamente il soggetto. Questo tipo di tecnologia era stata già utilizzata per immagini fisse dall’intelligenza artificiale israeliana e la società di privacy D-ID.

Il riconoscimento facciale può portare alla violazione della privacy, così come la tecnologia che sostituisce i volti delle persone, la quale crea video fuorvianti. Quindi, alla luce di quanto accaduto di recente al mondo, ossia i progressi e l’abuso di questa tecnologia, è importante comprendere i metodi che affrontano con successo la de-identificazione. Facebook, in questo, vuole dare il suo contributo, tra cui il video dal vivo, grazie ad una qualità che supera di gran lunga i metodi attuali.

Naturalmente, il social non intende utilizzare questa tecnologia in nessuno dei suoi prodotti commerciali, ma non c’è dubbio che possa influenzare gli strumenti futuri sviluppati per proteggere la privacy delle persone e impedire che la somiglianza di qualcuno venga utilizzata nei deepfake video.

Attualmente, il settore dello sviluppo dell’intelligenza artificiale sta lavorando per combattere la diffusione di questi deepfake e gli strumenti che li creano, che sono sempre più sofisticati. Gli strumenti al vaglio sono diversi, tra cui un software di rilevamento deepfake e un quadro normativo che controlli la diffusione di video, immagini e audio falsi.