Je Weet Meteen Dat Dit Porno Is. Zal De Computer Het Begrijpen? - Alternatieve Mening

Inhoudsopgave:

Je Weet Meteen Dat Dit Porno Is. Zal De Computer Het Begrijpen? - Alternatieve Mening
Je Weet Meteen Dat Dit Porno Is. Zal De Computer Het Begrijpen? - Alternatieve Mening

Video: Je Weet Meteen Dat Dit Porno Is. Zal De Computer Het Begrijpen? - Alternatieve Mening

Video: Je Weet Meteen Dat Dit Porno Is. Zal De Computer Het Begrijpen? - Alternatieve Mening
Video: Глубже! – трейлер 2024, September
Anonim

Tumblr kondigde begin vorige maand aan porno te verbieden. Toen het nieuwe inhoudsbeleid van kracht werd, ongeveer twee weken later - op 17 december - werd het duidelijk dat er problemen zouden zijn. Na het inzetten van een systeem van kunstmatige intelligentie dat alle pornografie op de site moest verbieden, markeerde het ten onrechte onschuldige berichten in 455,4 miljoen blogs op de site onder 168,2 miljard berichten: vazen, heksen, vissen en al die jazz.

Pornografie voor kunstmatige intelligentie

Hoewel het onduidelijk is welk automatisch filter Tumblr heeft gebruikt of zijn eigen filter heeft gemaakt - het bedrijf reageerde niet op vragen over het onderwerp - is het duidelijk dat het sociale netwerk vastzit tussen zijn eigen politiek en technologie. Het inconsistente standpunt van de site over "vrouwen met tepels" en artistieke naaktheid heeft bijvoorbeeld geleid tot contextuele beslissingen die aantonen dat zelfs Tumblr niet weet wat ze op zijn platform moet verbieden. Hoe kan een veelgebruikt bedrijf bepalen wat het als obsceen beschouwt?

Ten eerste is het moeilijk om risicovolle inhoud te blokkeren omdat het moeilijk is om vanaf het begin te definiëren wat het is. De definitie van obsceniteit is een berenval die meer dan honderd jaar oud is, in 1896 hebben de Verenigde Staten voor het eerst wetten aangenomen die obsceniteit reguleren. In 1964, in Jacobellis v. Ohio, over de vraag of Ohio de vertoning van een Louis Malle-film kon verbieden, vaardigde het Hooggerechtshof uit wat waarschijnlijk de beroemdste definitie van hardcore pornografie is: zoals ik begrijp zal het worden opgenomen in de woordelijke beschrijving; en ik zal het misschien nooit begrijpelijk kunnen maken,”zei rechter Potter Stewart. "Maar ik weet wat het is als ik het zie, en de film die bij deze zaak hoort, is dat niet."

Algoritmen voor machine learning hebben hetzelfde probleem. Dit is precies het probleem dat Brian Delorge, CEO van Picnix, een bedrijf dat gespecialiseerde kunstmatige intelligentietechnologie verkoopt, probeert op te lossen. Een van hun producten, Iris, is een client-side applicatie voor het detecteren van pornografie om 'mensen te helpen', zoals Delorge zegt, 'die geen porno in hun leven willen'. Hij merkt op dat het specifieke probleem met porno is dat het van alles kan zijn, een heleboel verschillende dingen - en afbeeldingen die niet pornografisch zijn, kunnen vergelijkbare elementen hebben. De afbeelding van het strandfeestje kan worden geblokkeerd, niet omdat er meer huid op zit dan de kantoorfoto, maar omdat het aan de rand zit. "Daarom is het erg moeilijk om een algoritme voor beeldherkenning te trainen om alles tegelijk te doen", zegt DeLorge."Als de definitie moeilijk wordt voor mensen, heeft de computer het ook moeilijk." Als mensen het niet eens kunnen worden over wat porno is en wat niet, kan een computer dan hopen het verschil te kennen?

Om een AI te leren porno te detecteren, is het eerste dat je moet doen, het porno voeren. Veel pornografie. Waar kan ik het krijgen? Nou, het eerste dat mensen doen, is een aantal video's downloaden van Pornhub, XVideos, zegt Dan Shapiro, mede-oprichter van Lemay.ai, een startup die AI-filters voor zijn klanten maakt. "Dit is een van die grijze gebieden van juridische aard - als je bijvoorbeeld leert van de inhoud van anderen, is die dan van jou?"

Nadat programmeurs tonnen porno hebben gedownload, knippen ze niet-pornografisch beeldmateriaal uit de video om er zeker van te zijn dat het beeldmateriaal dat ze gebruiken de pizzabezorger niet blokkeert. Platforms betalen mensen, meestal buiten de VS, om dergelijke inhoud te taggen; de baan is laagbetaald en saai, zoals het invoeren van een captcha. Ze zitten gewoon en merken op: dit is porno, dit is dit. Je moet een beetje filteren, want alle porno komt met een label uit. Leren is beter als u niet alleen foto's gebruikt, maar ook grote datastalen.

Promotie video:

“Vaak moet je niet alleen de porno filteren, maar ook het bijbehorende materiaal”, zegt Shapiro. "Zoals nepprofielen met de foto en telefoon van een meisje." Hij verwijst naar sekswerkers die op zoek zijn naar klanten, maar het kan alles zijn dat niet helemaal legaal is. "Dit is geen porno, maar dit is iets dat je niet op je platform wilt zien, toch?" Een goede geautomatiseerde moderator leert van miljoenen - zo niet tientallen miljoenen - voorbeeldinhoud, wat u tonnen manuren kan besparen.

"Je kunt dit vergelijken met het verschil tussen een kind en een volwassene", zegt Matt Zeiler, CEO en oprichter van Clarifai, een computer vision-startup die dit soort beeldfiltering doet voor zakelijke klanten. 'Ik kan het je zeker vertellen: een paar maanden geleden hebben we een baby gekregen. Ze weten niets van de wereld, alles is nieuw voor hen. " Je moet het kind (het algoritme) veel dingen laten zien, zodat hij iets begrijpt. “Miljoenen en miljoenen voorbeelden. Maar als volwassenen - als we zoveel context over de wereld hebben gecreëerd en begrepen hoe het werkt - kunnen we iets nieuws leren van slechts een paar voorbeelden. " (Ja, een AI leren om inhoud voor volwassenen te filteren is als een kind veel porno laten zien.) Bedrijven als Clarifai groeien tegenwoordig snel. Ze hebben een goede database van de wereld, ze kunnen honden van katten onderscheiden, gekleed van naakt. Het bedrijf van Zeiler gebruikt zijn modellen om nieuwe algoritmen voor zijn klanten te trainen - aangezien het originele model veel gegevens verwerkte, zouden gepersonaliseerde versies alleen nieuwe datasets nodig hebben om te werken.

Het is echter moeilijk voor het algoritme om het goed te krijgen. Het doet het goed met inhoud die duidelijk pornografisch is; maar een classificator kan een advertentie voor ondergoed ten onrechte markeren als verboden terrein omdat de foto meer leer bevat dan bijvoorbeeld een kantoor. (Met bikini's en ondergoed is het volgens Zeiler erg moeilijk). Dit betekent dat de marketeers zich in hun werk op deze randgevallen moeten concentreren en prioriteit moeten geven aan de moeilijk te classificeren modellen.

Wat is het moeilijkste deel?

"Anime-porno", zegt Zeiler. "De eerste versie van onze naaktdetector gebruikte geen tekenfilmpornografie voor onderwijs." Vaak had de AI het bij het verkeerde eind omdat het hentai niet herkende. "Nadat we hier voor de klant aan hadden gewerkt, hebben we veel van zijn gegevens in het model geïnjecteerd en de nauwkeurigheid van het cartoonfilter aanzienlijk verbeterd, terwijl de nauwkeurigheid van echte foto's behouden bleef", zegt Zeiler.

De technologie die is geleerd om porno op te snuiven, kan ook voor andere dingen worden gebruikt. De technologieën achter dit systeem zijn opmerkelijk flexibel. Dit is meer dan anime tieten. Jigsaw van Alphabet wordt bijvoorbeeld veel gebruikt als automatische commentaarmoderator in een krant. Deze software werkt op dezelfde manier als beeldclassificatoren, behalve dat het sorteert op toxiciteit in plaats van op naaktheid. (Toxiciteit in tekstuele commentaren is net zo moeilijk vast te stellen als pornografie in afbeeldingen.) Facebook gebruikt dit soort automatische filtering om suïcidale berichten en aan terrorisme gerelateerde inhoud te detecteren, en heeft geprobeerd deze technologie te gebruiken om nepnieuws op zijn enorme platform te detecteren.

Dit alles hangt nog steeds af van menselijk toezicht; we zijn beter in het omgaan met ambiguïteit en dubbelzinnige context. Zeiler zegt dat hij niet denkt dat zijn product iemands baan heeft aangenomen. Het lost het probleem van internetschaling op. Mensen zullen AI nog steeds trainen door inhoud te sorteren en te labelen, zodat de AI het kan onderscheiden.

Dit is de toekomst van moderatie: op maat gemaakte, kant-en-klare oplossingen voor bedrijven die hun hele zaken doen door steeds meer geavanceerde classificatoren meer gegevens te leren. Net zoals Stripe en Square kant-en-klare betalingsoplossingen bieden voor bedrijven die ze niet zelf willen verwerken, zullen startups zoals Clarifai, Picnix en Lemay.ai online modereren.

Dan Shapiro van Lemay.ai is hoopvol. “Zoals met elke technologie, is het nog steeds in ontwikkeling. Dus ik denk niet dat we zullen toegeven als we falen. " Maar zal AI ooit autonoom kunnen opereren zonder menselijk toezicht? Onduidelijk. "Er is geen kleine man in een snuifdoos die elk schot filtert", zegt hij. "Je moet overal gegevens vandaan halen om het algoritme erop te trainen."

Zeiler, aan de andere kant, gelooft dat kunstmatige intelligentie op een dag alles vanzelf zal matigen. Uiteindelijk zal het aantal menselijke tussenkomsten worden teruggebracht tot nul of weinig inspanning. Geleidelijk aan zullen menselijke inspanningen veranderen in iets dat AI nu niet kan, zoals redeneren op hoog niveau, zelfbewustzijn - alles wat mensen hebben.

Het herkennen van pornografie hoort daar bij. Identificatie is een relatief triviale taak voor mensen, maar het is veel moeilijker om een algoritme te trainen om nuances te herkennen. Het bepalen van de drempelwaarde wanneer een filter een afbeelding markeert als pornografisch of niet-pornografisch, is ook een moeilijke taak, deels wiskundig.

Kunstmatige intelligentie is een onvolmaakte spiegel van hoe we de wereld zien, net zoals pornografie een weerspiegeling is van wat er tussen mensen gebeurt als ze alleen zijn. Er zit een kern van waarheid in, maar er is geen volledig beeld.

Ilya Khel

Aanbevolen: