Informazione

La ricerca rivela che il rilevatore di incitamento all'odio di Google è di parte razziale

La ricerca rivela che il rilevatore di incitamento all'odio di Google è di parte razziale


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

L'incitamento all'odio può creare un ambiente tossico per le persone online e sta diventando un problema crescente, tanto che le piattaforme di social media sono sempre più sotto pressione per rispondere.

Tuttavia, anche questo può essere un problema poiché la rimozione automatica di quel tipo di contenuto apre le porte a potenzialmente più problemi poiché questa soluzione tende a sopprimere ulteriormente le voci già emarginate. In breve, il processo è complicato.

CORRELATI: QUESTA AI SA ESATTAMENTE QUANTO PUOI ESSERE RACISTA E SESSISTA

Tuttavia, nel 2016 Google ha fatto del suo meglio per creare un algoritmo di intelligenza artificiale inteso a monitorare e prevenire l'incitamento all'odio su piattaforme di social media e siti web. Tuttavia, un recente studio condotto da persone dell'Università di Washington ha scoperto che lo stesso strumento era di parte razziale; tweet di profilazione pubblicati da afroamericani.

Il rivelatore di incitamento all'odio di parte

Ora, durante l'addestramento di qualsiasi strumento di apprendimento automatico, il set di dati corretto è importante e l'algoritmo di incitamento all'odio di Google non era diverso. Gli sviluppatori dell'azienda comprendevano un database di ben oltre 100,000 tweet che sono stati etichettati come "tossici" dall'API di Google chiamata Perspective. Questo contenuto tossico è quindi diventato la luce guida per l'algoritmo, utilizzando ciò che ha "appreso" per identificare e contrassegnare "buon contenuto" e qualsiasi cosa di sgradevole, maleducata o irrispettosa.

Il documento dell'Università di Washington ha scoperto che lo strumento di Google aveva un tasso sospettosamente alto di segnalazione di persone di colore anche se la maggior parte del linguaggio dei tweet è stato identificato come non dannoso.

È interessante notare che quando lo strumento è stato testato contro 5,4 milioni di tweet hanno scoperto che lo strumento aveva una probabilità due volte maggiore di segnalare i messaggi scritti da afroamericani. Sembra che lo strumento di Google abbia lottato con i tweet scritti in inglese vernacolare afroamericano.

Scegliere i dati giusti

Come detto sopra, i dati giusti sono molto importanti. È ancora più importante nelle aree in cui è coinvolta la razza. Il problema generale con l'algoritmo di Google è che mancava la comprensione e la consapevolezza culturale appropriate per identificare correttamente l'inglese vernacolare afroamericano. In breve, AAE non è stato introdotto correttamente nel set di dati, il che a sua volta ha portato al bias.

La soluzione? Come affermato nel rapporto, "Abbiamo introdotto il dialetto e il priming della razza, due modi per ridurre il bias dell'annotatore evidenziando il dialetto di un tweet nell'annotazione dei dati e dimostrare che diminuisce significativamente la probabilità che i tweet AAE vengano etichettati come offensivi".

Il team dell'Università di Washington ritiene che si dovrebbe prestare particolare attenzione agli effetti confondenti del dialetto in modo da evitare pregiudizi razziali involontari nel rilevamento dei discorsi d'odio.


Guarda il video: Pretendere i Diritti - Danni di Trump - Intelligenze Artificiali poco umane - Qu0026A di gennaio (Potrebbe 2022).


Commenti:

  1. Capaneus

    Questo argomento è semplicemente incomparabile :), è molto interessante per me.

  2. Feran

    E il tuono colpì e i timpani suonarono mezzanotte e Skrpit discendeva dai cieli. Yo

  3. Darcell

    E ancora varianti?



Scrivi un messaggio