Google tapper maskinlæring for å hjelpe utgivere med å identifisere troll og giftige kommentarer

Ville det ikke være flott om maskinlæring kan brukes til å forbedre kommentarer og andre samtaler på nettet? Store og små forleggere, fra NYT til nettstedet du nå leser, bruker store ressurser på å hindre troll fra å bombardere lesere med giftige kommentarer.

En ny Google-teknologi basert på maskinlæring prøver å automatisere prosessen med å sortere gjennom millioner av kommentarer, og bidra til å identifisere og flagge voldelige kommentarer som undergraver en sivil ideutveksling.

I samarbeid med Jigsaw lanserte Google Perspective, en teknologi i tidlig fase basert på maskinlæring som kan bidra til å identifisere giftige kommentarer på nettet. Den offisielle API for perspektiv lar utgivere bruke denne teknologien på sine nettsteder.

Google forklarer hvordan det fungerer:

Perspektiv vurderer kommentarer og scorer dem basert på hvor lik de er som kommentarer folk sa var “giftige” eller sannsynligvis vil få noen til å forlate en samtale. For å lære hvordan man kan oppdage potensielt giftig språk, undersøkte Perspective hundretusenvis av kommentarer som hadde blitt merket av menneskelige anmeldere.

Hver gang Perspektiv finner nye eksempler på potensielt giftige kommentarer, eller får korreksjoner fra brukere, kan det bli bedre til å score fremtidige kommentarer.

Etter at systemet har identifisert giftige kommentarer, kan utgivere flagge dem for sine egne moderatorer for å gjennomgå og inkludere dem i en samtale. Leserne kan også sortere kommentarer etter toksisitet for å komme i kontakt med samtaler som betyr noe. Systemet kan til og med la kommentatorer se den potensielle toksisiteten til kommentaren når de skriver den.

Du tror trolling ikke er et så stort problem?

Ting igjen - The New York Times har et helt team som er tiltalt for å gjennomgå i gjennomsnitt 11.000 kommentarer hver dag. På grunn av den store arbeidskraften som kreves for å gjennomgå kommentarene, har papiret bare kommentarer til omtrent ti prosent av artiklene.

Google og Times har jobbet sammen for å trene modeller for maskinlæring slik at moderatorene kan sortere gjennom kommentarer raskere. Når Perspective lanseres offentlig og mange flere utgivere omfavner det, vil systemet bli utsatt for flere kommentarer og utvikle en bedre forståelse av hva som gjør visse kommentarer giftige.

"Den første modellen vår er designet for å oppdage giftig språk, men i løpet av det neste året er vi opptatt av å samarbeide og levere nye modeller som fungerer på andre språk enn engelsk, så vel som modeller som kan identifisere andre perspektiver, for eksempel når kommentarer er uvurderlige eller off-topic, sier Google.

I følge DataSociety har 72 prosent av amerikanske internettbrukere vært vitne til trakassering på nettet og nesten halvparten har personlig opplevd det. Nesten en tredjedel av de spurte sa at de selv sensurerer det de legger ut på nettet i frykt for gjengjeldelse. Det anslås at trakassering på nettet har påvirket livet til omtrent 140 millioner mennesker i USA, og mange flere andre steder.

Kilde: Google