Waarom Wetenschappers Niet Op Kunstmatige Intelligentie Moeten Vertrouwen Voor Wetenschappelijke Ontdekkingen - Alternatieve Mening

Waarom Wetenschappers Niet Op Kunstmatige Intelligentie Moeten Vertrouwen Voor Wetenschappelijke Ontdekkingen - Alternatieve Mening
Waarom Wetenschappers Niet Op Kunstmatige Intelligentie Moeten Vertrouwen Voor Wetenschappelijke Ontdekkingen - Alternatieve Mening

Video: Waarom Wetenschappers Niet Op Kunstmatige Intelligentie Moeten Vertrouwen Voor Wetenschappelijke Ontdekkingen - Alternatieve Mening

Video: Waarom Wetenschappers Niet Op Kunstmatige Intelligentie Moeten Vertrouwen Voor Wetenschappelijke Ontdekkingen - Alternatieve Mening
Video: Waarom moeten wetenschappers stoppen met zoeken naar een intelligentie-gen? (2/5) 2024, Mei
Anonim

We leven in een gouden eeuw van wetenschappelijke gegevens, omringd door enorme reserves aan genetische informatie, medische beeldvorming en astronomische gegevens. Dankzij de huidige mogelijkheden van algoritmen voor machine learning kan kunstmatige intelligentie deze gegevens zo snel en tegelijkertijd zeer zorgvuldig bestuderen, waardoor vaak de deur wordt geopend naar mogelijk nieuwe wetenschappelijke ontdekkingen. We moeten echter niet blindelings vertrouwen op de resultaten van wetenschappelijk onderzoek van AI, zegt Rice University-onderzoeker Genever Allen. In ieder geval niet op het huidige ontwikkelingsniveau van deze technologie. Het probleem zit hem volgens de wetenschapper in het feit dat moderne AI-systemen niet in staat zijn om de resultaten van hun werk kritisch te beoordelen.

Volgens Allen kunnen AI-systemen die machine learning-methoden gebruiken, dat wil zeggen wanneer leren plaatsvindt tijdens het toepassen van oplossingen voor veel vergelijkbare problemen, en niet alleen door het introduceren en volgen van nieuwe regels en voorschriften, worden vertrouwd om een aantal beslissingen te nemen. Om precies te zijn, het is heel goed mogelijk om taken toe te wijzen aan AI bij het oplossen van problemen op die gebieden waar het eindresultaat gemakkelijk kan worden gecontroleerd en geanalyseerd door de persoon zelf. Als voorbeeld kunnen we bijvoorbeeld het aantal kraters op de maan tellen of naschokken voorspellen na een aardbeving.

De nauwkeurigheid en efficiëntie van complexere algoritmen die worden gebruikt om zeer grote hoeveelheden gegevens te analyseren om voorheen onbekende factoren of relaties tussen verschillende functies te vinden en te bepalen "zijn echter veel moeilijker te verifiëren", merkt Allen op. De onmogelijkheid om de gegevens te verifiëren die overeenkomen met dergelijke algoritmen, kan dus tot onjuiste wetenschappelijke conclusies leiden.

Neem bijvoorbeeld precisiegeneeskunde, waar specialisten metadata van patiënten analyseren om specifieke groepen mensen met vergelijkbare genetische kenmerken te vinden om effectieve behandelingen te ontwikkelen. Sommige AI-programma's die zijn ontworpen om genetische gegevens te doorzoeken, zijn inderdaad effectief bij het identificeren van groepen patiënten met een vergelijkbare aanleg, bijvoorbeeld voor het ontwikkelen van borstkanker. Ze blijken echter volledig ineffectief te zijn bij het identificeren van andere soorten kanker, bijvoorbeeld colorectale kanker. Elk algoritme analyseert de gegevens anders, dus bij het combineren van de resultaten kan er vaak een conflict ontstaan in de classificatie van het patiëntenmonster. Dit zorgt er weer voor dat wetenschappers zich afvragen welke AI ze uiteindelijk kunnen vertrouwen.

Deze tegenstrijdigheden ontstaan doordat algoritmen voor data-analyse zo zijn ontworpen dat ze de instructies in deze algoritmen opvolgen, die geen ruimte laten voor besluiteloosheid, onzekerheid, legt Allen uit.

Wetenschappers houden niet van onzekerheid. Traditionele methoden voor het bepalen van meetonzekerheden zijn echter ontworpen voor die gevallen waarin het vereist is om gegevens te analyseren die speciaal zijn geselecteerd om een bepaalde hypothese te evalueren. Dit is niet hoe AI-programma's voor datamining werken. Deze programma's worden niet gedreven door een leidend idee en analyseren eenvoudigweg verzamelde datasets zonder een specifiek specifiek doel. Daarom ontwikkelen veel AI-onderzoekers, waaronder Allen zelf, nu nieuwe protocollen waarmee de volgende generatie AI-systemen de nauwkeurigheid en reproduceerbaarheid van hun ontdekkingen kunnen evalueren.

Promotie video:

De onderzoeker legt uit dat een van de nieuwe mijnbouwmethoden gebaseerd zal zijn op het concept van resampling. Als een AI-systeem bijvoorbeeld een belangrijke ontdekking zou moeten doen, bijvoorbeeld groepen patiënten identificeert die klinisch belangrijk zijn voor onderzoek, dan moet deze ontdekking in andere databases worden weergegeven. Het is erg duur voor wetenschappers om nieuwe en grotere datasets te maken om AI-steekproeven te valideren. Daarom kan volgens Allan een benadering worden gebruikt waarin "een bestaande set gegevens wordt gebruikt, informatie waarin willekeurig wordt gemengd op een zodanige manier dat het een volledig nieuwe database simuleert". En als de AI keer op keer de karakteristieke kenmerken kan bepalen die het mogelijk maken om de noodzakelijke classificatie uit te voeren, 'dan zal het mogelijk zijn omdat je een echt echte ontdekking in handen hebt”, voegt Allan toe.

Nikolay Khizhnyak

Aanbevolen: