In De Wereld Van Morgen Kijk Je Niet Alleen Films, Maar Ze Staan ook Achter Je - Alternatieve Mening

Inhoudsopgave:

In De Wereld Van Morgen Kijk Je Niet Alleen Films, Maar Ze Staan ook Achter Je - Alternatieve Mening
In De Wereld Van Morgen Kijk Je Niet Alleen Films, Maar Ze Staan ook Achter Je - Alternatieve Mening

Video: In De Wereld Van Morgen Kijk Je Niet Alleen Films, Maar Ze Staan ook Achter Je - Alternatieve Mening

Video: In De Wereld Van Morgen Kijk Je Niet Alleen Films, Maar Ze Staan ook Achter Je - Alternatieve Mening
Video: Knock Down The House | FULL FEATURE | Netflix 2024, September
Anonim

Wanneer u zich in een donkere bioscoop bevindt, worden uw reacties op wat er op het scherm gebeurt vaak niet opgemerkt door anderen. Hier open je je ogen wijd bij een onverwachte wending van de plot, spring je letterlijk op in je stoel vanuit een enge scène, of laat je een traan vallen op melodramatische muziek - al deze emoties worden waarschijnlijk niet meer gestuurd dan de plastic rugleuning van de stoel ervoor. Maar alleen als deze bioscoop niet is uitgerust met "computer vision". Als u ooit de kans krijgt om een van deze te bezoeken, kunt u er zeker van zijn dat terwijl u naar de film kijkt, de film naar u zal kijken.

Een computerprogramma, waarvan de hoofdtaak precies is wat hierboven is beschreven, is ontwikkeld door Silver Logic Labs. De CEO Jerimaya Hamon is een expert in toegepaste wiskunde, gespecialiseerd in getaltheorie. Hij heeft vele jaren gewerkt binnen de muren van giganten als Amazon, Microsoft en aan de Harvard Medical School, waar hij zich bezighield met verschillende kwesties die verband houden met de menselijke aard van de consument. Zijn voornaamste interesse is echter altijd geweest om te begrijpen hoe kunstmatige intelligentie (AI) kan helpen om een van onze moeilijkste kenmerken - menselijk gedrag - beter te voorspellen.

Door AI-algoritmen te onderzoeken voor het analyseren van menselijke reacties op percepties van verschillende soorten media, realiseerde Hamon zich dat dit niet alleen wetenschappelijk, maar ook commercieel gunstig zou kunnen zijn. Zijn systeem werkt als volgt: het AI-algoritme monitort het publiek dat naar de film kijkt en merkt de emoties op de gezichten van mensen op, die zelfs tot uiting komen in de meest subtiele veranderingen (de zogenaamde micro-expressies), en genereert vervolgens op basis van deze informatie de nodige gegevens voor latere analyse.

Hamon verdiepte zich ongeveer drie jaar geleden serieus in dergelijk onderzoek en hoewel de resultaten van zijn werk voor de media-industrie tot nu toe erg grof lijken, trokken ze zeker veel belangstelling voor dit onderwerp. Grotendeels omdat ze betrouwbare resultaten beloven, aangezien menselijk gedrag net zo voorspelbaar kan zijn als de manier waarop software werkt, althans in de visie van Hamon. AI op zijn beurt, en de computer vision-technologieën die het gebruikt, zullen helpen om informatie te verzamelen over hoe mensen reageren op bepaalde films en televisieprogramma's, veel efficiënter dan welke fucusgroep dan ook. Zodra de AI is getraind om de juiste dataset te verzamelen, kan deze een snelle, consistente en gedetailleerde analyse van die informatie bieden. Voor die delen van de industriedie met deze gegevens moeten werken - geweldig nieuws. Dankzij een meer bekwame en effectievere analyse van menselijke verlangens en voorkeuren zullen ze inderdaad in staat zijn om hun producten en diensten te verbeteren die geld opleveren.

Beoordelingen zijn een van de belangrijkste en meest indicatieve aspecten die het succes van een bepaald televisieprogramma of film garanderen. Tot verbazing van degenen die het proces volgden, kon de huidige versie van Hamon's software beoordelingen voor Nielsen, Rotten Tomatoes en IMDB voorspellen met een nauwkeurigheid van 84 tot 99 procent. Het verschil in indicatoren is te wijten aan het feit dat sommige objecten van de classificatie "multimodaal" zijn, dat wil zeggen, ze zijn ontworpen voor een groter publiek, dus ze zijn meestal moeilijker te voorspellen. In het algemeen, als het om tv gaat, kan alleen al de poging om de populariteit van een bepaald programma te voorspellen indruk maken.

"Toen ik net begon, vertelde iedereen me dat ik zoiets nooit zou kunnen voorspellen, omdat niemand dat kan", vertelde Hamon in een gesprek met het futurisme.

Maar met wiskunde is niets onmogelijk. Volgens Hamon is het inderdaad mogelijk om met behulp van wiskundige methoden veel nuances op te merken die zonder het gebruik ervan eenvoudigweg onmogelijk zijn.

“We hebben emotionele reacties op visuele en auditieve stimulatie van het publiek overgenomen en omgezet in digitale waarden. En als iets de vorm aanneemt van een digitale waarde, dan neemt het vroeg of laat de vorm aan van de noodzakelijke vergelijking, waarvan de taak in ons geval neerkomt op uitzoeken hoeveel je deze of gene show echt leuk vond (of wilt),”zegt Hamon.

Promotie video:

De onderzoeker meldt dat er een uitgebreide statistische analyse is, maar weigert details te geven over de vergelijking die hij gebruikt om te berekenen, wat aangeeft dat hij op deze manier probeert het "geheime ingrediënt" van zijn programma te beschermen.

Buiten de entertainmentindustrie

De hoge prestaties van AI bij het voorspellen van menselijke voorkeuren waren voor Hamon aanleiding om andere gebieden te verkennen waar zijn programma effectief zou kunnen zijn. Bijvoorbeeld om te bepalen of een persoon de waarheid vertelt of niet. Net als een polygraaf kan AI gegevens die wijzen op stressvolle omstandigheden vergelijken met een referentieset van waarden en op basis hiervan bepalen of een persoon liegt of niet. Om dit idee te testen, gebruikte Hamon een AI-algoritme om een taak uit te voeren om emoties bij mensen te identificeren op basis van video van relatief lage kwaliteit. Voor het onderzoek gebruikte hij video's van het persbureau CSPAN, evenals beelden van opnames van de persconferenties van president Donald Trump.

In een tijd waarin de waarheid in twijfel kan worden getrokken, kan het van cruciaal belang zijn om waarheid van onwaarheid te scheiden. Het systeem is echter ook inzetbaar in situaties waar het letterlijk een kwestie van leven en dood is. Bijvoorbeeld in de geneeskunde, waar het nodig kan zijn om nauwkeurig vast te stellen hoeveel pijn iemand ervaart, zodat artsen effectievere behandelingen kunnen kiezen.

Hamon merkt op dat het systeem bijvoorbeeld nuttig kan zijn in situaties waarin het nodig is om een beroerte te identificeren. Ondanks het feit dat medisch personeel meestal de nodige training krijgt om de tekenen van een beroerte te herkennen, zijn er vaak momenten waarop de zogenaamde micro-beroertes (of transiënte ischemische aanvallen, indien wetenschappelijk) worden gemist, die vaak worden gevolgd door grootschalige beroertes die een groot gebied treffen. hersenen. AI-computervisie zou deze micro-tekenen van een beroerte kunnen detecteren, of zelfs symptomen of hints van een dreigende ziekte, zelfs voordat ze daadwerkelijk bij de patiënt verschijnen. In dat geval zou de medische staf tijdig op de situatie kunnen reageren en misschien zelfs stappen kunnen ondernemen om de verdere ontwikkeling van een ernstiger beroerte te voorkomen.

Maar zal dit echt werken? Jamon denkt dat het mogelijk is. De onderzoeker is ervan overtuigd dat AI's zo gevoelig kunnen worden dat ze zulke subtiele en voorbijgaande veranderingen in het werk van het lichaam kunnen detecteren. Toen het systeem bij verschillende doelgroepen werd getest, moesten de onderzoekers er rekening mee houden dat sommige mensen voorgeschreven medicijnen slikten, waarvan sommige bijvoorbeeld bijwerkingen hebben in de vorm van hoge bloeddruk of subtiele spierkrampen. Misschien zal een persoon deze veranderingen bij een andere persoon niet opmerken, maar AI kan ze gemakkelijk detecteren, maar tegelijkertijd kan het de effecten van het gebruik van het medicijn verwarren met de manifestatie van stressvolle symptomen. Hiermee moet ook rekening worden gehouden.

Krachtig gereedschap

Veel mensen denken dat intelligente machines vrij zijn van vooringenomenheid, maar we mogen niet vergeten dat deze machines door mensen zullen worden gemaakt, en deze mensen die AI ontwikkelen en ermee omgaan, kunnen hen onbewust hun eigen vooroordelen geven. Met de ontwikkeling van AI zullen de gevolgen van de opeenstapeling van deze vooroordelen duidelijker worden en uiteindelijk verschillende informatieverwerkingsprocessen kunnen beïnvloeden, bijvoorbeeld bij het identificeren van een bepaalde persoon of bij het verzamelen van sociale gegevens van een persoon in de netwerken van openbare diensten.

Aangezien gezichtsherkenningstechnologieën al ons persoonlijke leven beginnen te infiltreren, beginnen velen na te denken en meer aandacht te besteden aan ethische kwesties, waarbij ze hun bezorgdheid uiten over het waarschijnlijk bevooroordeelde werk van dergelijke algoritmen. Hetzelfde idee dat technologie kan bestaan zonder enige mate van vooringenomenheid die erin is ingebed, is zeer controversieel. Het wordt ernstig in twijfel getrokken door slechts één enkel argument: de efficiëntie van de AI zal afhangen van de gegevens die erin zijn ingebed, en deze gegevens kunnen informatie bevatten die aanvankelijk werd gekleurd door de vooringenomenheid van de persoon die dit systeem heeft gemaakt. Met de voortgang van de AI-ontwikkeling, met de creatie van machines die echt kunnen leren, moeten we beperkende maatregelen ontwikkelen die ons kunnen beschermen tegen situaties,wanneer deze machines veel meer van ons kunnen leren dan we ze wilden leren.

Niettemin is dezelfde Hamon er zeker van dat zijn algoritme volledig onpartijdig is, althans zoveel mogelijk. Zijn computersysteem interpreteert alleen tekenen van menselijk gedrag, ongeacht het type gezicht of lichaam in zijn gezichtsveld.

“Ik ben Native American en ik moet toegeven dat hier soms dingen gebeuren die het milieu in brand kunnen steken. U kunt bijvoorbeeld zenuwachtig worden als de politie achter uw rug verschijnt. Ik geloof echter dat dergelijke technologieën in de toekomst deze factor van nervositeit volledig kunnen uitroeien. Als u niets verkeerd doet, zal de computer de politieagent zeker informeren dat u niets verkeerd doet. Persoonlijk zal ik in dit geval een verhoogd niveau van mijn eigen veiligheid en bescherming tegen politiegeweld voelen, wetende dat de computer in staat zal zijn een vergelijkbaar niveau van dreigingsevaluatie uit te voeren.

In elk geval doet Hamon helemaal geen moeite om de resultaten van de data-analyse te interpreteren met het algoritme dat hij heeft gemaakt. Tegelijkertijd erkent hij, ondanks dat hij vertrouwen heeft in zijn algoritme, ook de beperkingen ervan. Daarom, als we het hebben over de conclusies die uit de analyse zijn getrokken, dan kan deze beslissing volgens de onderzoeker het beste worden overgelaten aan de experts van het wetshandhavingssysteem, de geneeskunde en de psychiatrie.

De toekomst van Hamons ontwikkeling bij Silver Logic Labs is nog maar net begonnen. En de opties voor de toepassingsgebieden van de AI die het creëert, worden alleen beperkt door de menselijke verbeelding. Hamon zelf wil dat zijn tool echt universeel wordt en wordt gebruikt bij het oplossen van een verscheidenheid aan problemen, maar op de een of andere manier wordt de onderzoeker aangetrokken tot waar het allemaal begon: het creëren van hoogwaardige entertainmentcontent.

"Verhalen vertellen maakt deel uit van de menselijke cultuur", zegt Hamon.

Door zijn werk ontdekte hij minstens één onmeetbaar element dat de sleutel is tot mediasucces.

“Je geniet er echt van om te zien hoe iemand met anderen omgaat. Dit is een van die dingen die de formule voor succes vormen”, voegt de onderzoeker eraan toe.

Ondanks het feit dat de samenleving de transformaties die AI belooft te brengen in ons leven misschien negatief kan waarnemen, kan men in de visie van Hamon zeker een heel positief moment vinden. Vroeg of laat zal kunstmatige intelligentie, gebaseerd op alle gegevens die het verzamelt, ons op een dag ertoe brengen om ons begrip van wat het werkelijk betekent om mens te zijn, opnieuw te bekijken. Misschien zal hij in ons kunnen zien wat we nog nooit eerder in anderen of in onszelf hebben gezien.

Nikolay Khizhnyak

Aanbevolen: