Garantire alti livelli di sicurezza negli eventi sportivi: Giochi Olimpici, Olimpici Invernali come Milano-Cortina e grandi tornei di calcio o tennis, è diventato fondamentale. Un valido aiuto che si affianca alla sorveglianza umana adesso arriva dall’Intelligenza Artificiale Generativa. 

L’esempio della Francia, per l’appuntamento del prossimo luglio è esemplare. Il Governo francese ha testato la tecnologia di videosorveglianza basata sull’intelligenza artificiale.

La legislazione francese – approvata nel 2023 – consente infatti l’uso della video sorveglianza tramite intelligenza artificiale per un periodo di prova che copre i Giochi. L’obiettivo è rilevare eventi anomali o comportamenti umani in manifestazioni che prevedono grande afflusso di persone. La videosorveglianza algoritmica utilizza un software per analizzare in tempo reale le immagini catturate dalle telecamere di videosorveglianza.

Quattro aziende: Videtics, Orange Business, ChapsVision e Wintics, hanno sviluppato un software ad hoc di Intelligenza Artificiale Generativa che utilizza algoritmi per analizzare i dati in arrivo da flussi video provenienti dai sistemi di videosorveglianza e dovrebbe identificare potenziali minacce.

L’utilizzo è ovviamente ristretto alla polizia nazionale e locale, i vigili del fuoco e gli agenti di sicurezza dei trasporti pubblici avranno tutti accesso alla sorveglianza basata sull’intelligenza artificiale. Il software sviluppato da Wintics è stato testato al concerto dei Depeche Mode e sarà utilizzato nella regione parigina e sui trasporti pubblici. 

Verrà utilizzato il riconoscimento facciale? Non dovrebbe. La nuova legge continua a vietare il riconoscimento facciale nella maggior parte dei casi e le autorità francesi hanno affermato che si tratta di una “linea rossa” da non oltrepassare. Ciononostante, gli attivisti per i diritti umani temono che in futuro si verifichino rischi di intrusione nella missione: “I software che consentono la videosorveglianza basata sull’intelligenza artificiale possono facilmente consentire il riconoscimento facciale. È semplicemente una scelta di configurazione”, ha affermato Katia Roux di Amnesty International Francia.

Secondo Amnesty International, il quadro giuridico che regola il riconoscimento facciale è rimasto troppo vago e le garanzie tecniche e legali sono insufficienti. Il co-fondatore di Wintics Matthias Houllier afferma che gli algoritmi del suo software “non sono stati addestrati per il riconoscimento facciale”. “Non esiste un metodo di identificazione personale nei nostri algoritmi”, ha detto in una conferenza: “È tecnicamente escluso.”


Discover more from AI News

Subscribe to get the latest posts sent to your email.

Leave a comment

Trending

Discover more from AI News

Subscribe now to keep reading and get access to the full archive.

Continue reading