Amazon sta spingendo la tecnologia del viso secondo cui uno studio potrebbe essere distorto


Negli ultimi due anni, Amazon ha pubblicizzato in modo aggressivo la sua tecnologia di popolarità del viso ai dipartimenti di polizia e alle società federali come fornitore per aiutare le forze dell'ordine a percepire i sospetti più rapidamente. Ha fatto in modo che tutti gli altri giganti della tecnologia, Microsoft, lo conoscessero al Congresso per regolare l'epoca, sostenendo che è troppo instabile perché le agenzie possano supervisionare da sole. Ora uno sguardo nuovo di zecca dai ricercatori del MIT Media Lab ha rilevato che il gadget di Amazon, Recognition, ha avuto molta più difficoltà nel raccontare il genere dei volti femminili e dei volti dalla pelle più scura nelle istantanee rispetto alle offerte comparabili di IBM e Microsoft. Gli effetti sollevano interrogativi sulla propensione all'abilità che potrebbero ostacolare la spinta di Amazon a diffondere la tecnologia.

All'interno hanno uno sguardo, pubblicato giovedì, Il riconoscimento non ha fatto errori nel riconoscere il genere degli uomini dalla pelle più chiara. Ma il 19 per cento delle donne è stato classificato erroneamente come un uomo, hanno detto i ricercatori e scambiato donne con la pelle più scura per uomini il 31 per cento delle volte. La tecnologia di Microsoft ha scambiato donne dalla pelle scura per i ragazzi semplicemente per cinque volte. Uno studio pubblicato un anno fa ha rilevato problemi analoghi nei pacchetti costruiti tramite IBM, Microsoft e Megvii, un'impresa di intelligenza artificiale in Cina chiamata Face. Questi risultati attivano una protesta che si è trasformata in amplificata mentre Buolamwini, co-creatore del dare un'occhiata, ha pubblicato film su YouTube che mostrano la tecnologia che classifica erroneamente famose donne afro-americane, come Michelle Obama, come uomini.

Le aziende del record dello scorso anno hanno reagito tutte attraverso la generazione più rapida e liberatrice più corretta. Per quanto riguarda l'avanguardia, la signora Buolamwini ha detto che ha inviato una lettera con alcuni effetti preliminari ad Amazon sette mesi fa. Ma ha dichiarato di non aver sentito tornare da Amazon e che quando lei e un co-sceneggiatore hanno ripetuto il test del prodotto dell'agenzia più mesi dopo, ora non era avanzato. Matt legname, supervisore popolare dell'intelligenza artificiale nelle offerte web di Amazon, ha detto che i ricercatori avevano testato l'analisi facciale in un'epoca che poteva individuare capacità che includevano baffi o espressioni costituite da sorrisi e ora non popolarità popolare, una tecnologia che può modellare i volti nelle immagini o video fissi per individuare le persone. Amazon commercializza ogni offerta.

Ora non è possibile porre fine all'accuratezza della popolarità del viso per qualsiasi caso d'uso insieme all'applicazione della normativa sulla base dei risultati acquisiti utilizzando la valutazione del viso, ha affermato il dott. Ha introdotto che i ricercatori ora non avevano testato la versione moderna di Riconoscimento, che era aggiornata a novembre. Amazon ha affermato che negli attuali test interni utilizzando un modello aggiornato del suo servizio, l'agenzia non ha determinato alcuna inesattezza nella classificazione del genere in tutte le etnie. Con i miglioramenti dell'intelligenza artificiale, le offerte di tecnologia facciale che possono essere utilizzate per prendere coscienza degli esseri umani nelle folle, analizzare i loro sentimenti o imbattersi nella loro età e le caratteristiche facciali stanno proliferando. Adesso,

Il nuovo sguardo, programmato per essere presentato lunedì a una convention di intelligenza ed etica sintetica a Honolulu, è certo che infiammerà tale argomento. I sostenitori vedono il riconoscimento facciale come uno sviluppo critico nel supportare le organizzazioni preposte all'applicazione della normativa che catturano i criminali e localizzano i bambini scomparsi. Alcuni dipartimenti di polizia e l'Ufficio federale di ricerca hanno testato il prodotto di Amazon. Ma i professionisti delle libertà civili avvertono che è anche possibile usarlo per diventare segretamente consapevoli della gente che indubbiamente raffredda la capacità degli americani di parlare liberamente o di trasmettere realmente i loro affari in modo anonimo in pubblico.

Nel corso dell'ultimo anno, Amazon è stata sottoposta a severi controlli da parte dei legislatori federali, dell'American Civil Liberties Union, degli azionisti, del personale e dei ricercatori accademici per aver commercializzato il Rekognition presso le forze dell'ordine. Ciò è in parte dovuto al fatto che, non come Microsoft, IBM e diversi giganti della tecnologia, Amazon è stata molto meno incline a parlare pubblicamente delle preoccupazioni. Amazon, citando la riservatezza dei clienti, ha anche rifiutato di rispondere alle domande dei legislatori federali su quali gruppi di autorità stanno usando Rekognition o su come lo stanno usando. Le risposte dell'organizzazione hanno inoltre colpito alcuni legislatori federali. Non è più necessario vederli affrontare le nostre preoccupazioni con il senso di urgenza che merita, ha dichiarato il rappresentante Jimmy Gomez, un democratico della California che ha indagato sulle pratiche di popolarità del viso di Amazon.

In una lettera rimanente a Mr. Gomez, Amazon ha dichiarato che i clienti di Rekognition dovrebbero attenersi all'utilizzo delle politiche di Amazon, che richiedono loro di conformarsi ai diritti civili e alle diverse leggi. Ma la società ha affermato che per motivi di privacy non ha più verificato i clienti, dandogli poca percezione di come il suo prodotto viene utilizzato. La pubblicazione Bits ti terrà aggiornato sullo stato dell'arte della Silicon Valley e dell'impresa di generazione.

Unire
Dai un'occhiata ai rimanenti 12 mesi pubblicati, Microsoft affermava che Microsoft aveva una valutazione perfetta nell'identificare il genere di uomini dalla pelle più chiara in un database di foto, tuttavia, che classificava erroneamente le donne dalla pelle scura come uomini circa uno su 5 casi. IBM e Face avevano un tasso di errori ancora migliore, ciascuno dei quali classificava erroneamente il genere delle donne dalla pelle scura circa una su tre volte. Buolamwini ha dichiarato di aver evoluto la sua tecnica con il concetto di sfruttare la pressione pubblica e l'opposizione sul mercato, per spingere i gruppi a ripristinare i pregiudizi del loro software che potrebbero comportare rischi critici per le persone. Una delle questioni che abbiamo cercato di scoprire con il documento è cambiata in come impressionare il movimento, ha affermato Buolamwini.


Immediatamente dopo che lo sguardo è uscito l'anno rimanente, IBM ha pubblicato un weblog messo su, Mitigating Bias in mode AI, che ha portato all'esame della signora Buolamwini. Nel montaggio, Ruchir Puri, capo architetto di IBM Watson, ha dichiarato che IBM è in esecuzione da mesi per ridurre la distorsione nel suo gadget di reputazione facciale. La presentazione dell'impresa ha esaminato i risultati che mostrano gli aggiornamenti, specialmente nella classificazione del genere delle donne dalla pelle più scura. subito dopo, IBM ha rilasciato un nuovissimo sistema che la società ha dichiarato avere un decuplo dei prezzi degli errori.
Amazon sta spingendo la tecnologia del viso secondo cui uno studio potrebbe essere distorto Amazon sta spingendo la tecnologia del viso secondo cui uno studio potrebbe essere distorto Reviewed by Robert MC on August 04, 2020 Rating: 5

No comments:

Powered by Blogger.