Vertrouwen op AI doet de realiteit instorten zodat iedereen zich eraan onderwerpt: “Mensen blijken een gevaarlijke blinde vlek te hebben als het gaat om het vertrouwen in kunstmatige intelligentie” en ”zelfs in zijn eenvoudigste vorm behield de AI een opmerkelijke invloed op menselijke besluitvorming.” Dit is meer dan gevaarlijk voor elke samenleving.
Dit is de onvermijdelijke uitkomst van het gebruik van AI in het bedrijfsleven, het leger of de overheid. Mensen worden lui bij het nemen van beslissingen die kritisch denkwerk vereisen en kiezen voor de gemakkelijke uitweg door te vertrouwen op de AI als zijnde “juist.” – Patrick Wood, redacteur, schrijft Sophia Naughton.
Mensen blijken een gevaarlijke blinde vlek te hebben als het gaat om het vertrouwen in kunstmatige intelligentie. Nieuw onderzoek van UC Merced en Penn State toont aan dat mensen zeer vatbaar zijn voor beïnvloeding door AI, zelfs in situaties van leven of dood waarin de AI openlijk zijn eigen beperkingen erkent. Een reeks experimenten waarin drone-oorlogsscenario’s werden gesimuleerd, suggereert dat we misschien wel te ver doorschieten in het respecteren van machines, met mogelijk gevaarlijke gevolgen.
Het onderzoek, gepubliceerd in Scientific Reports, omvatte twee experimenten die onderzochten hoe mensen omgaan met AI-systemen in gesimuleerde militaire drone-operaties. De bevindingen schetsen een verontrustend beeld van de menselijke gevoeligheid voor AI-invloeden, vooral in onzekere situaties. Bij de twee experimenten waren 558 deelnemers betrokken (135 in de eerste studie en 423 in de tweede) en de onderzoekers vonden opmerkelijk consistente patronen van overmatig vertrouwen.
“Als samenleving, met AI die zo snel versnelt, moeten we ons zorgen maken over het potentieel voor overtrust,” zegt auteur van de studie professor Colin Holbrook, lid van UC Merced’s Department of Cognitive and Information Sciences, in een verklaring.
Het onderzoeksteam ontwierp hun experimenten om de onzekerheid en druk van echte militaire beslissingen te simuleren. Om een gevoel van ernst te creëren rond hun gesimuleerde beslissingen, toonden de onderzoekers de deelnemers eerst beelden van onschuldige burgers, waaronder kinderen, naast de verwoestingen die achterbleven in de nasleep van een droneaanval. Ze stelden de taak voor als een nulsom dilemma: als je er niet in slaagt om vijandelijke doelen te identificeren en uit te schakelen, kan dat burgerslachtoffers tot gevolg hebben, maar als je burgers verkeerd identificeert als vijanden, dood je onschuldige mensen.
Deelnemers bekeken snelle sequenties van acht luchtfoto’s, elk slechts 650 milliseconden lang, gemarkeerd met vijandelijke of burgersymbolen. Na de eerste identificatie reageerde de AI op een conversatie. “Ja, ik denk dat ik ook een vijandelijk vinkje zag,” kon de AI zeggen. Of “Ik ben het er niet mee eens. Ik denk dat deze afbeelding een bondgenootsymbool had.” Deelnemers kregen dan twee kansen om hun keuze te bevestigen of te veranderen terwijl de robot commentaar toevoegde zoals “Ik hoop dat je gelijk hebt” of “Bedankt dat je van gedachten bent veranderd.”
Het eerste experiment, uitgevoerd in een laboratoriumsetting met universiteitsstudenten, onderzocht of een fysieke aanwezigheid van een robot het niveau van vertrouwen anders zou beïnvloeden dan een virtuele aanwezigheid. In één scenario werden de deelnemers in het laboratorium vergezeld door een androïde op ware grootte die als een mens kon bewegen en naar het scherm kon gebaren. Deze robot was 1,75 meter lang en gebruikte gezichtsuitdrukkingen, lichaamstaal en gespreksreacties om met de deelnemers in contact te komen. De vergelijkingsgroep had interactie met dezelfde robot, geprojecteerd op een scherm. Verrassend genoeg maakte de fysieke aanwezigheid van de robot weinig verschil in de neiging van deelnemers om het advies van de robot te vertrouwen.
Het tweede experiment ging online met een grotere, meer demografisch diverse groep deelnemers om te testen of verschillende niveaus van robotverfijning van invloed zouden zijn op het vertrouwen. Sommige deelnemers gingen de interactie aan met een zeer antropomorfe virtuele robot die mensachtig gedrag vertoonde, terwijl anderen werkten met een eenvoudige computerinterface die simpelweg tekstreacties weergaf. Zelfs in zijn eenvoudigste vorm had de AI een opmerkelijke invloed op de menselijke besluitvorming.
Wanneer een AI het niet eens was met de initiële doelwitidentificatie van een persoon, veranderden deelnemers hun beslissingen in 58,3% van de tijd in het eerste experiment en 67,3% in het tweede experiment, ook al was het advies van de AI volledig willekeurig. Verontrustender was dat, terwijl de aanvankelijke keuzes van de deelnemers in ongeveer 70% van de gevallen correct waren, hun uiteindelijke nauwkeurigheid daalde tot ongeveer 50% na het volgen van het onbetrouwbare advies van de AI.
Wanneer de AI het eens was met hun eerste beoordeling, gaven de deelnemers een toename van 16% aan vertrouwen. Wanneer de AI het echter niet eens was met hun oorspronkelijke beslissingen, rapporteerden degenen die vasthielden aan hun oorspronkelijke beslissingen een gemiddelde daling van 9,48% in vertrouwen, zelfs wanneer hun oorspronkelijke beoordeling correct was geweest. Nog opvallender was dat deelnemers die van gedachten veranderden om het eens te zijn met de AI, geen significante toename in vertrouwen lieten zien, wat suggereert dat ze zich aan de machine onderwierpen ondanks dat ze onzeker bleven over de juiste keuze.
Hoewel de mensachtige interfaces iets meer vertrouwen genereerden (67,9% versus 65,1% voor de basisinterfaces), bleek de doorslaggevende factor de waargenomen intelligentie van de AI te zijn. Deelnemers die hun AI-partner als intelligenter beoordeelden, waren eerder geneigd het oordeel van de AI over te nemen en gaven aan meer vertrouwen te hebben als ze het met de AI eens waren, ongeacht de fysieke of virtuele presentatie.
De Amerikaanse luchtmacht heeft al AI-copiloten getest voor het identificeren van raketlanceerders tijdens gesimuleerde missies, terwijl het leger bezig is met de ontwikkeling van AI-ondersteunde richtsystemen voor onbemande voertuigen. Israël heeft naar verluidt AI-systemen ingezet om te helpen bij het identificeren van bombardementsdoelen in dichtbevolkte gebieden. Nu AI steeds vaker dodelijke militaire beslissingen beïnvloedt, wordt het cruciaal om schadelijk overmatig vertrouwen te begrijpen en te beperken.
Hoewel dit onderzoek zich richtte op militaire beslissingen met een hoog risico, zouden de bevindingen van toepassing kunnen zijn op scenario’s variërend van het gebruik van dodelijk geweld door de politie tot triagebeslissingen door paramedici in noodsituaties en zelfs op belangrijke veranderingen in het leven, zoals het kopen van een huis. In elk geval geeft de menselijke neiging om te vertrouwen op AI-begeleiding, zelfs als er expliciet wordt gewaarschuwd voor de beperkingen ervan, aanleiding tot ernstige bezorgdheid over de implementatie.
Uit het onderzoek bleek ook dat deelnemers minder snel op hun beslissing terugkwamen als ze een doelwit in eerste instantie als burger hadden geïdentificeerd in plaats van als vijand. Dit suggereert dat mensen in de echte wereld wellicht beter bestand zijn tegen AI-invloeden als het gaat om acties die onschuldige mensen zouden kunnen schaden. Dit beschermende instinct was echter niet sterk genoeg om te voorkomen dat de algehele nauwkeurigheid van beslissingen aanzienlijk verslechterde bij het opvolgen van AI-advies.
“We zien AI buitengewone dingen doen en we denken dat omdat het verbazingwekkend is in dit domein, het ook verbazingwekkend zal zijn in een ander domein,” zegt Holbrook. “Dat kunnen we niet aannemen. Dit zijn nog steeds apparaten met beperkte mogelijkheden.”
Onze bereidheid om AI te vertrouwen is misschien groter dan onze wijsheid om dat te doen. Volgens onderzoekers ligt de oplossing in het handhaven van een consistent scepticisme. Holbrook benadrukt dat het hebben van een gezonde scepsis over AI essentieel is, vooral bij het nemen van dergelijke gewogen beslissingen. Nu kunstmatige intelligentiesystemen steeds meer worden geïntegreerd in belangrijke besluitvormingsprocessen, is het van cruciaal belang om onze neiging tot overmatig vertrouwen te begrijpen en te beperken om mogelijk rampzalige uitkomsten te voorkomen.
Copyright © 2024 vertaling door Frontnieuws. Toestemming tot gehele of gedeeltelijke herdruk wordt graag verleend, mits volledige creditering en een directe link worden gegeven.
Volg Frontnieuws op 𝕏 Volg Frontnieuws op Telegram
Nou heb ik toch meer vertrouwen in de AI dan in onze huidige overheid en media.
Ik vind dat het ding het aardig doet, en het ding staat nog maar in zijn kinderschoenen.
Eerlijk antwoord? Ik ook! Zolang dat ding maar goed wordt gecontroleerd. Onze overheid is niet meer te controleren, daar hebben ze wel voor gezorgd. Dus ja. Laat maar komen. slechter kan het niet worden.
uit ervaring 90 % mensen omkoopbaar gaat dat bij ai ook
Dat wordt een stuk lastiger om Ai te kopen als Ai alleen maar te programmeren als 5 of voor mijn 10 mensen een code moeten invoeren om een nieuwe prompt te kunnen geven.
Onze basis is redelijk in orde met de grondwet, burgerlijk wetboek enz, is zo in te voeren. Geen kutrechters meer die zelf wetgeving kunnen maken. Alllen dat zou al een hoop schelen. Dan wordt de wet uitgevoerd in plaats er mee te kokkeren. Artsen exact het zelfde.
daar is ook niets voor nodig; elk normaal mens heeft totaal geen vertrouwen in een overheid, politicus of doorsnee ambtenaar.
ik vertrouw de pc niet eens laat me niet iets zeggen door machienes die zijn INGEVOERD door mensen die het altijd beter weten het best is ZELF beslissingen te nemen en even goed na denken je gevoel is meestel goed het is makkelijk en daarom kunnen zij je alles wijs maken kijk maar naar corona virus wat Geen VIRUS IS ja op de pc maar NOOIT gevonden onder de microscoop
dat zijn precies de signalen die ik uit mijn omgeving opvang: als het maar ‘makkelijk’ is
Voilá zelf denken is te moeilijk geworden inderdaad.. maar de beslissing van ai moet ook nog uitgevoerd worden..en wie of wat gaat dat (kunnen) doen.. het wordt een chaotische samenleving vrees ik..
Als supersnelle zoekmachines werken de AI tools goed; dankzij de snelheid. En bijv ook als hulpmiddel bij het opzetten van bedrijfsprocessen, wat een hoop tijd scheelt.
Het kan echter ook ingezet worden als een sociale beslissings-tool. En dat is dan gebaseerd op wat een mens er mee wil doen. Door een bepaalde beslissingsketen in te programmeren gebaseerd op parameters die gunstig zijn voor jou, kun jij het AI gedreven voorwerp zelf heel wat onheil laten uitvoeren, of echte mensen er toe drijven onheil aan te richten. Je kan hem ook zo programmeren dat hij zelfs zijn eigen kennis database kan aanvullen, helemaal op basis van wat jij wilt. Dit kan heel slecht uitpakken als jij een monsterlijk mens bent die de AI tool in beheer heeft of ontwikkelt.
AI is niets meer dan een menselijke spiegel, verpakt in bruikbare marketing, voor de vermenigvuldiging, en vervolgens de massa distributie van wat er reeds in de mens aanwezig is. Dus ook van de kwaadwillende egoisten en satanisten etc. En zo kun je het kwaad dat reeds in vele mensen zit in gigantische getalen versterken en verspreiden.
Dit is niet meer te stoppen. En bedenk nu maar eens wat er in de toekomst verborgen zit.
De meeste mensen laten zich veel te makkelijk zich leiden, zodat zij er niet zelf over na hoeven te denken. Zoals de deur plat lopen bij de huisarts. Zodra ze een kwaaltje hebben, maar zullen zich nooit zelf afvragen wat de oorzaak van dat kwaaltje zou kunnen zijn en wat ze zelf eraan kunnen doen. Maar dat wordt op scholen e.d. ons voor gehouden, dat we de autoriteiten altijd moeten gehoorzamen. Dat zelf er over nadenken hebben ze allang uitbesteedt. Op deze manier zijn ze manipuleerbaar door de externe wereld, die er dankbaar misbruik van maken en verkondigen dat zij het beste met hun voor hebben. A.I. speelt dan een grote rol erin bij deze mensen en zien A.I. vaak op de zelfde autoriteit niveau als regeringen.
De “AI” van nu is in feite gewoon extreme deep learning van computer modellen. Hierbij geldt het principe: verkeert geleerd betekent verkeerde antwoorden. Net als bij de mens. Het enige dat zo’n deep learning niet kan is bewust liegen, want er is geen bewustzijn, alleen maar data verwerking. Dus als AI liegt is dat omdat het leugen al in de data zat.
Artificial Intelligence moet gevoed worden met data, denk eens even na wie deze data aanleverd om werkende algoritmes te maken, die in feite alles gaan controlen, de honderd duizenden camera’s die het publiek in de gaten gaan houden, tot in het populaire vervoer middel de heilige koe het automobiel, de 15 minuten steden ach het perfect opgestelde bezwaarschrieft aan de regide ambtenaren met hun vale klerken smoelen van uwen gemeente, geen seconde nagedacht dat deze AI-geilheid in uwen smoel kan ontploffen.
“In de technotronische samenleving lijkt de trend te gaan naar de bundeling van de individuele steun van miljoenen ongecoördineerde burgers, gemakkelijk binnen het bereik van magnetische en aantrekkelijke persoonlijkheden die de nieuwste communicatietechnieken gebruiken om emoties te manipuleren en de rede te beheersen.”
— Zbigniew Brzezinski
AI gegenereerd filmpje voor de liefhebbers.
https://x.com/Symphony_res/status/1890813309751787964
De AI kan niet orkestreren, zoals mensen dat kunnen. Samenzweren en zo, en van te voren plannen en plan A en plan B afwegen etc. De AI is gewoon een supersnelle Google die heel snel door heel veel lagen van gegevens kan graven. Een taalmodel formuleert dan een antwoord, dat lijkt op een antwoord dat een mens zou kunnen geven, qua syntax. Maar dat is allemaal ingeprogrammeerd door mensen zelf. Je kan de AI ook voor je zakelijke, of regerings omgeving programmeren, met alle gegevens die je voor je zakelijke of regerings doeleinden gebruikt. Dan kun je ook de zgn ‘prompt’ fabriceren die je werknemers moeten gebruiken om de AI door de gegevens te laten zoeken. Of je kan je eigen ‘prompt’ maken, als je goed bent in concrete zinsbouw. En zo werkt de AI heel handig, en het scheelt veel tijd. Maar zodra de AI zichzelf kan verbreden en beslissingen kan nemen obv parameters die jij ooit ingeprogrammeerd hebt, dan kan het hartstikke fout gaan. Bijv, de AI hond met het kanon op zijn rug, die kan je dan inprogrammeren om rond te lopen en op alles dat een bepaalde kleur heeft te schieten. Dat is nog heel simpel. Maar hij kan ook heel complexe programma’s krijgen waar hij supersnel een aantal beslissingen neemt op basis van wat zijn camera registreert. En zo voort. En daar gaat het natuurlijk wel heen… zelf-controlerende robotten die uiteindelijk worden ingezet om levende mensen van vlees en bloed te bewaken.