https://bodybydarwin.com
Slider Image

Facebook neemt 3000 nieuwe contentmonitors aan voor een taak die AI niet kan

2020

Gisteren heeft Mark Zuckerberg aangekondigd dat Facebook 3.000 mensen inhuurt om te werken aan zijn community operations team, dat afbeeldingen, video's en berichten beoordeelt die gebruikers melden. Deze nieuwe medewerkers zullen zich aansluiten bij de 4.500 bestaande werknemers in een poging om het bereik van toekomstige evenementen zoals de schietpartij van Robert Goodwin te minimaliseren. Het is een aanzienlijke maar essentiële investering voor Facebook, maar het leidt ons tot een fundamentele vraag: kan deze taak niet worden geautomatiseerd?

De omvang van deze arbeid is enorm: Facebook neemt meer mensen aan dan werk in de gecombineerde redacties van de New York Times, de Wall Street Journal en de Washington Post. Facebook zegt op dit moment niet of de banen werknemers of aannemers zullen zijn en of ze in de Verenigde Staten of in het buitenland zullen zijn gevestigd. (Benieuwd hoe dat werk eruitziet? Lees Adrien Chen's duik in de contentmoderatie vanaf 2014, of bekijk deze video over het moderatieproces)

"Deze recensenten zullen ons ook helpen beter te worden in het verwijderen van dingen die we niet toestaan ​​op Facebook, zoals haatzaaien en uitbuiting van kinderen schreef Facebook CEO Zuckerberg." om iemand te helpen als hij het nodig heeft - hetzij omdat hij zichzelf schade toebrengt, hetzij omdat hij gevaar loopt van iemand anders. "(nadruk toegevoegd)

De subtekst is de moord op 16 april van Robert Goodwin in Cleveland. Volgens een tijdlijn die door Facebook werd vrijgegeven, uploadde een man om 16.09 uur Eastern op 16 april een video waarin hij zijn intentie om te moorden beging. Twee minuten later uploadde de man de video waarin hij Goodwin fotografeerde. Kort daarna plaatste de verdachte vijf minuten live op Facebook. De video van de schietpartij werd om 16.00 uur gemeld en om 04.22 uur stopte Facebook het account van de schietpartij en verwijderde zijn video's uit de openbare weergave. Dat is iets meer dan twee uur tussen de initiële post en de opschorting van het account, maar de alomtegenwoordigheid van Facebook en de gruwelijke aard van de moord maakten het nationaal nieuws.

Er is inhoud die Facebook preventief censureert tijdens het uploaden. Het bedrijf gebruikt geautomatiseerde systemen om eerder verwijderde naakt- en pornografische foto's te vinden wanneer ze voor de tweede keer worden geüpload. Het sociale netwerk maakt ook gebruik van PhotoDNA, een hulpmiddel dat afbeeldingen verwijst naar een database met bekende markeringen van kinderuitbuitingfoto's, zodat de foto's kunnen worden geblokkeerd en gerapporteerd aan de juiste juridische autoriteiten. In beide gevallen wordt de automatisering getoetst aan eerder bekende hoeveelheden.

De meeste automatisering in het proces ondersteunt handmatige handhaving door beoordelaars van menselijke inhoud. Als een stuk inhoud 1000 keer wordt gerapporteerd, herkennen de tools dubbele rapporten, dus het hoeft maar één keer handmatig te worden gecontroleerd. Andere tools sturen foto's, berichten of video's naar recensenten die specifieke expertise hebben; iemand die Arabisch spreekt, kan bijvoorbeeld gemarkeerde inhoud van een extremistische groep in Syrië beoordelen die mogelijk de servicevoorwaarden van Facebook schendt.

Toch is het menselijke beoordelingsvermogen om context te begrijpen die de dag regeert. Om te bepalen of een opmerking hatelijk of pestend is, vertrouwt Facebook op echte mensen. En in het specifieke geval van Facebook Live is er een team dat zich toelegt op het monitoren van rapporten over live video; de groep controleert automatisch elke live video die een bepaalde, niet-vermelde populariteitsdrempel bereikt.

Er is één gebied waarop Facebook AI een actievere rol geeft. In maart lanceerde het netwerk een zelfmoordpreventie-AI-tool, die berichten identificeert die eruit kunnen zien als zelfmoordgedachten. BuzzFeed meldt dat de AI berichten en opmerkingen kan scannen op overeenkomsten met eerdere berichten die actie rechtvaardigden. In zeldzame omstandigheden worden moderators direct gewaarschuwd, maar vaker worden gebruikers tools voor zelfmoordpreventie getoond, zoals het nummer voor een hulplijn. Bovendien maakt de AI een knop voor het melden van zelfbeschadiging prominenter voor de vrienden van de persoon, waardoor de kans groter wordt dat ze de video zullen markeren voor menselijke moderators van Facebook. (Het bedrijf weigerde commentaar te geven op de plaat voor dit verhaal.)

Het onmiddellijke alternatief voor menselijke matiging is waarschijnlijk preventieve censuur.

"Willen we een meer gecensureerd Facebook?", Zei Kate Klonick, een resident fellow bij het Information Society Project in Yale. "Wanneer je een te robuust systeem opzet, is het potentieel dat mensen niet correct worden getraind en dat er veel meer valse positieven en veel meer censuur zullen zijn."

Klonick's werk richt zich op Facebook en andere platforms als systemen die online spraak regelen. Facebook moet actieve keuzes maken in hoe het regelt wat wordt gepost en gepost blijft, stelt Klonick, en er is geen algoritmische magische kogel die dit kan veranderen van een spraakprobleem in een technische uitdaging.

"We zijn jaren verwijderd van de mogelijkheid om AI te hebben die deze complexe besluitvormingsproblemen zou kunnen oplossen, " zei Klonick. "Het is niet alleen fotoherkenning, het is fotoherkenning bovenop besluitvorming bovenop categorisatie - allemaal moeilijke cognities, die we lang niet betrouwbaar kunnen uitzoeken."

De uitdaging van fotoherkenning is zo iconisch in computerprogrammering dat het zelf een soort gelijkenis is geworden. In 1966 stelde Seymour Papert van het MIT een eenvoudig zomerproject voor: een computer trainen om objecten te herkennen. In plaats van in een zomer klaar te zijn, is het trainen van computers om objecten te herkennen een monumentale taak, die tot op de dag van vandaag voortduurt, waarbij bedrijven als Google en Facebook geld en uren besteden aan het onderzoeken van een oplossing.

"Voor de nabije toekomst", zegt Klonick, "is het geen AI-probleem of een AI-oplossing."

Eerste indrukken en voorbeeldafbeeldingen van Sony's nieuwe 61-megapixel spiegelloze camera

Eerste indrukken en voorbeeldafbeeldingen van Sony's nieuwe 61-megapixel spiegelloze camera

De ziekte van Lyme bloeit dankzij klimaatverandering

De ziekte van Lyme bloeit dankzij klimaatverandering

Dinosauruspoep laat zien dat zelfs herbivoren schelpdieren aten

Dinosauruspoep laat zien dat zelfs herbivoren schelpdieren aten