Kunstmatige Intelligentie: Een Gevaarlijke Vijand Of Een Vriendelijke Helper - Alternatieve Mening

Kunstmatige Intelligentie: Een Gevaarlijke Vijand Of Een Vriendelijke Helper - Alternatieve Mening
Kunstmatige Intelligentie: Een Gevaarlijke Vijand Of Een Vriendelijke Helper - Alternatieve Mening

Video: Kunstmatige Intelligentie: Een Gevaarlijke Vijand Of Een Vriendelijke Helper - Alternatieve Mening

Video: Kunstmatige Intelligentie: Een Gevaarlijke Vijand Of Een Vriendelijke Helper - Alternatieve Mening
Video: Kunstmatige Intelligentie en haar gevolgen | filosoof Edwin Wenink 2024, Mei
Anonim

Het gebruik van kunstmatige intelligentie (AI) in het dagelijks leven wint snel aan kracht, maar deze trend baart specialisten steeds meer zorgen. NYU-medewerkers maakten een waarschuwing over de risico's van het gebruik van I. I. De auteurs concentreerden zich grotendeels op ethische en sociale kwesties, evenals op het gebrek aan regelgeving. Het rapport van de AI Now-groep zegt weinig nieuws, maar in de wereldpraktijk wordt de vraag naar de noodzaak om het werk van kunstmatig denken te beperken steeds meer opgeworpen.

Bijna alle visionairen van technologische vooruitgang spraken over de mogelijke bedreigingen voor AI. Stephen Hawking uitte in november vorig jaar de belangrijkste angsten die gepaard gingen met reflecties over de ontwikkeling van technologie. Volgens hem zullen computers vroeg of laat leren zichzelf te reproduceren. Biologische wezens zullen waarschijnlijk verliezen van siliciumintelligentie in zowel mentale vermogens als in termen van aanpassingsvermogen aan de omgeving, vooral op een andere planeet. Vroeg of laat zullen slimme robots de mens als een verouderde vorm beschouwen en er vanaf willen komen.

De woorden van Hawking klinken nog steeds als een horrorverhaal, tientallen keren gespeeld in films en boeken, maar zelfs degenen die werken aan de implementatie van slimme systemen zijn steeds banger geworden voor de toekomst met AI, hoewel er ook mensen zijn die dergelijke angsten voorbarig vinden. "De huidige angst voor de ontwikkeling van AI is als zorgen maken over de overbevolking van Mars", zegt Andrew Ng, hoofd van Google Brain. Hij stelde echter niet iedereen gerust.

Image
Image

Van de grootste fobieën die verband houden met de introductie van een computer in alle sferen van het leven, zijn er drie het vermelden waard. Ten eerste zal de computergeest worden gebruikt als oorlogswapen, dat zelfs nucleaire wapens aanzienlijk zal overtreffen in vernietigende kracht. De tweede is dat AI mensen tot slaaf zal maken. Ten derde, zoals elke menselijke creatie, is de computer foutgevoelig. Alle drie de punten kunnen nader worden besproken.

Op 21 augustus 2017 stuurden vooraanstaande experts op het gebied van onderzoek en implementatie van kunstmatige intelligentie, waaronder de hoofden van bedrijven als SpaceX en Deep Mind, een open brief naar de VN. In de tekst waarschuwden ze de wereldgemeenschap voor het ontwikkelen van dodelijke autonome wapens, of het nu robots zijn of andere mechanismen die zijn ontworpen om de vijand te doden. De auteurs van het document vestigden de aandacht op de fatale gevolgen van het gebruik van dergelijke wapens. Met zijn fenomenale effectiviteit is het redelijk om te vragen in wiens handen het zal vallen. Het kan worden gebruikt door zowel een kleine kring van elites als terroristen.

De auteurs van de brief riepen de controleorganisatie en daarmee de wetenschappelijke gemeenschap op om de omvang van het schadelijke gebruik van AI te schetsen. De verantwoordelijkheid van een persoon voor zijn eigen creatie verplicht hem om serieus werk te verrichten om risico's te voorkomen. Naast wetten moeten hun makers ook de kracht van robots beperken, die in extreme gevallen zullen moeten puzzelen over het uitschakelen van machines.

Image
Image

Promotie video:

Het politieke misbruik van elektronische systemen is al aangetoond door het werk van sociale netwerken en algoritmen voor gegevensanalyse. In het voorjaar van dit jaar donderde een schandaal met Cambridge Analytica de wereld in. Zijn specialisten hebben een diepgaande analyse van gebruikersgegevens uitgevoerd en advertenties op Facebook geplaatst, individueel aangepast voor elke persoon.

De werknemers van het bedrijf overschreden niet alleen het ethische kader, maar pasten ook moderne technologieën toe waarvan het werk onmogelijk te analyseren was. De effectiviteit van machine learning is een terugkerend thema onder vooraanstaande wiskundigen. Ze geven gezamenlijk toe dat ze verbaasd zijn over het buitengewone succes van computerprogramma's, maar ze zijn totaal niet in staat het werk van een complex systeem te begrijpen. In april van dit jaar veroorzaakten Facebook-berichten in Myanmar ook onrust onder de massa, maar in tegenstelling tot de Verenigde Staten, waar protesten werden gehouden, was er in de Aziatische staat een bloedbad waarbij honderden mensen omkwamen. Manipulatie van een groot aantal mensen is een realiteit en robots hier kunnen een wrede grap met ons uithalen.

Image
Image

Het is de moeite waard om dezelfde Facebook te onthouden, waar op AI gebaseerde chatbots werden gelanceerd. Virtuele assistenten werden getraind om een dialoog met de gesprekspartner te voeren. Na verloop van tijd werden bots niet meer te onderscheiden van echte mensen, en toen besloten de auteurs om de robots samen te brengen. Na verloop van tijd begonnen bots lexicale structuren in te korten en brabbeltaal uit te wisselen. De media hebben een sensatie uit het nieuws opgeblazen, ze zeggen "de machines kwamen in opstand". Maar afgezien van de overdrijving van journalisten, is het eerlijk om toe te geven dat in het geval dat machines met elkaar beginnen te communiceren, een persoon dit misschien niet opmerkt. En hoe ze daar hun eigen leven zullen leiden - niemand weet het.

De steeds complexere structuur van de computergeest leidt ons elke dag af van het begrijpen van de principes van zijn werk. Maar hoewel de meeste algoritmen hun werk doen, zijn zelfs vandaag de dag complexe machines verre van ideaal en maken ze fouten. Voor de verdere ontwikkeling van AI is het belangrijk om niet zozeer de sterke punten ervan te begrijpen, maar ook de kwetsbaarheden. Hierop zijn een groot aantal wetenschappelijke groepen geconcentreerd, waaronder een specialist van MIT Anish atali. Nog maar een paar dagen geleden vertelde hij verslaggevers over de meest voorkomende fouten in beeldherkenningssystemen.

Zijn collega's toonden objecten aan de machine en ontdekten dat individuele objecten vaak verkeerd werden waargenomen door elektronisch zicht. De computer zou een honkbal een kopje koffie kunnen noemen en een 3D-geprinte schildpad een legermachine. De groep heeft al ongeveer 200 items verzameld die misleidende algoritmen zijn.

Image
Image

Kunstmatige intelligentie, in plaats van een object als geheel waar te nemen, concentreerde zich op zijn individuele parameters. AI heeft de neiging om te leren van een "perfect" monster. Wanneer hij wordt geconfronteerd met afwijkende verschijnselen, kan hij niet altijd het gebruikelijke verwerkingsproces verlaten. In plaats van toe te geven dat hij de afbeelding niet kan verwerken, blijft hij proberen de afbeelding te lezen en dit leidt tot soms grappige resultaten. In plaats van de vorm van een schildpad, probeerde het elektronische brein de textuur ervan te lezen, vergelijkbaar met camouflage. Om ongeveer dezelfde reden zijn stuurautomaten voor elektrische auto's nog niet 100% betrouwbaar. Het is moeilijk voor een auto om het silhouet te zien en aan te nemen dat het uit losse elementen bestaat.

En als er in de komende jaren enkele tekortkomingen kunnen worden verholpen, is er geen garantie dat hackers de kwetsbaarheid niet zullen misbruiken. Hackers van elektronische apparaten vormen tegenwoordig bijna de belangrijkste oorzaak van angst. Een klein team van programmeurs kan niet alleen toegang krijgen tot persoonlijke informatie, maar ook autonome systemen herconfigureren en controle krijgen over tools met een enorme macht. En dan komen we allemaal in de problemen. Maar de belangrijkste conclusie die kan worden getrokken, is misschien wel de traditionele: je moet niet bang zijn voor auto's, maar voor mensen.

Alexander Lavrenov

Aanbevolen: