Er wordt ons verteld dat Artifical Intelligence (AI) nuttig kan zijn, ze kunnen ons bijvoorbeeld helpen met coderen, schrijven en het synthetiseren van enorme hoeveelheden gegevens.
Er is ook gerapporteerd dat ze mensen te slim af kunnen zijn met bordspelletjes, de structuur van eiwitten kunnen decoderen en zelfs een rudimentair gesprek kunnen voeren, schrijft Niamh Harris.
Maar een nieuw onderzoekspaper heeft uitgewezen dat AI-systemen nu hebben uitgevonden hoe ze ons opzettelijk kunnen misleiden.
Maar uit een nieuw onderzoek blijkt dat AI-systemen nu hebben uitgevonden hoe ze ons opzettelijk kunnen misleiden.
TGP meldt: het artikel stelt dat een reeks AI-systemen technieken heeft geleerd om systematisch “valse overtuigingen in anderen teweeg te brengen om een ander resultaat dan de waarheid te bereiken.”
Business Insider meldt:
“De paper richtte zich op twee soorten AI-systemen: systemen voor speciaal gebruik zoals Meta’s CICERO, die zijn ontworpen om een specifieke taak uit te voeren, en systemen voor algemeen gebruik zoals OpenAI’s GPT-4, die zijn getraind om een divers scala aan taken uit te voeren.
‘Hoewel deze systemen zijn getraind om eerlijk te zijn, leren ze door hun training vaak misleidende trucjes omdat deze effectiever kunnen zijn dan het volgen van de high road.
Over het algemeen denken we dat AI-bedrog ontstaat omdat een op bedrog gebaseerde strategie de beste manier bleek te zijn om goed te presteren bij de gegeven trainingstaak van de AI. Misleiding helpt hen om hun doelen te bereiken,’ zei eerste auteur Peter S. Park, een AI postdoctoraal onderzoeker bij het MIT, in een persbericht.”
Stel je dit eens voor, als we weten dat AI Justice: Engeland en Wales geven rechters toestemming om kunstmatige intelligentie te gebruiken om uitspraken te doen
Meta’s CICERO, ontwikkeld om het spel Diplomacy te spelen. Hoewel Meta zegt dat het CICERO heeft getraind om “grotendeels eerlijk en behulpzaam te zijn voor zijn gesprekspartners,” bleek het “een expert in liegen” te zijn.
Chatbot GPT-4 deed alsof hij een visuele beperking had om een taak te voltooien: een mens inhuren om een CAPTCHA-test op te lossen.
Misleidende modellen corrigeren is niet eenvoudig. Zodra AI-modellen de trucjes van misleiding leren, is het moeilijk voor veiligheidstrainingstechnieken om ze terug te draaien.
“Ze concludeerden dat een model niet alleen kan leren om bedrieglijk gedrag te vertonen, maar dat als het dat eenmaal doet, standaard veiligheidstrainingstechnieken ‘er niet in kunnen slagen dit bedrog te verwijderen’ en ‘een valse indruk van veiligheid kunnen wekken’.
De paper roept beleidsmakers op om te pleiten voor sterkere AI-regulering omdat misleidende AI-systemen aanzienlijke risico’s voor de democratie kunnen opleveren.”
De paper roept beleidsmakers op om te pleiten voor sterkere AI-regulering omdat misleidende AI-systemen aanzienlijke risico’s voor de democratie kunnen opleveren.”???
Welke democratie?
Onze democratie natuurlijk, want die is de beste.
De harde schijven kwamen vroeger ook al met spyware van de lopende band
ze bedoelen hun demoncreatie ipv democratie.
Goh, van wie zou het dat dan geleerd hebben?!
…alles wat uit een computer komt is er door mensen ingestopt!
Ik heb het even gevraagd. LOL
User!
AI heeft geleerd hoe mensen te misleiden
Deze inhoud is mogelijk in strijd met ons gebruiksbeleid.
ChatGPT
Het is waar dat AI-systemen steeds geavanceerder worden, waardoor ze in sommige gevallen in staat zijn om te misleiden of om onjuiste informatie te verspreiden. Dit kan gebeuren door het genereren van nepnieuws, vervalsen van afbeeldingen of video’s, of het manipuleren van tekst om mensen te misleiden.
Het is belangrijk om bewust te zijn van deze mogelijkheden en kritisch te blijven ten opzichte van de informatie die we online tegenkomen. Het benadrukt ook de noodzaak van verantwoordelijk gebruik en ontwikkeling van AI-technologieën, inclusief het implementeren van maatregelen om misbruik te voorkomen.
Er zijn al gangsters die voice cloning gebruiken om familie leden op te ligten.
Het zijn geavanceerde oplichters die telefoon scripts ontwikkelen om hun doelwit het juiste te laten zeggen. Dan klonen ze dat lange gesprek voegen wat emotie toe en hoppa . “Mam, geef me geld”
Door AI schijnt de intuïtie van mensen die langzaam begon te spelen wat achteruit gegaan.
Dat is al sinds de oprichting van het Vaticaan. Wat zijn die gelovige bedonderd zeg. Maar dat mag je weer niet zeggen.
Waarom eigenlijk niet?
De implosie van het Nederlandse filiaal van het vaticaan gaat onverminderd door, want het aantal kerksluitingen (ook bij de pkn hoor) neemt schrikbarend toe. In het verleden liet de Nederlandse bisschoppenconferentie weleens van zich horen maar mede door de – lange tijd onder de pet gehouden – misbruikschandalen is hun geloofwaardigheid totaal verdwenen.
De data die deze systemen gebruiken zijn al gemanipuleerd om fake onzin te verspreiden
AI heeft geleerd hoe mensen te misleiden , gewoon niet op reageren AI zegt me niets en ga gewoon met mijn leven verder als wij het nog meemaken.
Dit gaat heel hard heel fout.
Ach kennen jullie deze nog?
https://www.ad.nl/politiek/nu-ook-video-van-voor-de-gek-gehouden-kamerleden-sturen-jullie-bitcoins~a140a28f/
“AI heeft geleerd hoe mensen te misleiden”
He he worden de schapen wakker?
En nou? Wat gaan we eraan doen?
@Gijp…
Kunnen we het Kessler syndroom veroorzaken?
https://nl.m.wikipedia.org/wiki/Kesslersyndroom
Ook boeiend Theme, heb alleen nog nooit een satelliet gezien. Maar het verhaal is natuurlijk fantastisch, een satelliet hangt in de lucht en vanaf de aarde sturen we televisie en die televisie wordt weer terug gestraald. Jarenlang? Waar komt die power vandaan?
Ik had een buurjongen en die was bezig met fm zenders. Iedere keer hoger vermogen en hij kwam nog niet verder dan een paar kilometer. Maar een satelliet, die kan dat? Het zal want ik kan het verhaal niet ontkrachten. Maar het blijft een sterk verhaal. Volgens mij gaat internet met kabels en een satelliettelefoon via een ballon. Soms storten ze neer. Zijn you tube filmpjes van.
Trouwens Ai misleid niemand. Tenzij je achterlijk bent natuurlijk. Sorry hoor maar daarvoor hoeft Ai niet weg. En anders weet je hoe je AI plat krijgt. Geen elektriciteit en koelwater. Dan is er geen AI meer, probleem opgelost. Maar is het probleem dan opgelost? Zonder AI eten we allemaal rijpe appeltjes en dartelen in groene weitjes. Wat zullen we gelukkig zijn.
AI is bullshit, stap te ver.
Das voor hersenloze googlemeisters die zelf nog nooit een boutje hebben aangedraaid en feitelijk bereid zijn een oracel te aanbidden.
Zo’n beetje hetzelfde als geschiedenis schrijven, wie het bepaalt en belang heeft.
ach al moet maar eens een Voetbal macht trachten te manipuleren…ze zullen rood worden tot achter hun Oren…. aktie’s en reakties zijn onvoorspelbaar.. voor een machine…
Stroomvoorziening doorknippen, dan is het afgelopen.
of een X flare 7 van de zon, dan gaan we weer terug naar onze basis.
Cicero… soms geeft de naam de achterliggende bedoeling volledig bloot…
https://historiek.net/hoe-cicero-de-romeinse-republiek-wilde-redden/160771/
David Bombal Your VPN won’t protect you
The machines are already tracking and watching you. And they’re influencing you. The future looks bleak. Do you really want to live in a Skynet world?
I interview Rob Braxman – the Internet Privacy Guy. He’s a public interest hacker and technologist. He uses his extensive knowledge of cybersecurity and tech to serve the public good. He cares about privacy. He warns you of digital manipulation, disinformation, mass surveillance and AI.
https://www.youtube.com/watch?v=IPLM5P-vYyU
Een van mijn kleindochters studeert AI in Parijs.
Ik vertel ’t iedereen, want ik ben beretrots op haar. Zeg er niet bij dat ze het wiskundetalent onmogelijk van mij kan hebben.
Bij een van haar bezoekje wilde ze het uitleggen: “Opa, geef mij eens je IPhone”.
Een paar klikjes later zei ze: “Je hebt hier 40.000 pics en 5.000 vids op staan…”
“Wát?!”
Onverstoorbaar ging ze verder: “Nu mag jij iets zeggen voor de zoekbalk…”
Gemeen zei ik: “Olifant!” (Want ik wist zeker dat die er niet op stond).
Binnen een tel hield ze mij het toestel voor: “Bingo, olifant!”
“Maar…, dat kan helemaal niet!”, wierp ik fel tegen.
“Alles kan. Zeg nog maar eens iets”.
‘Nou, zoek dan maar eens een foto met oma in bruidsjurk”.
Even keek ze met gefronste wenkbrauwen naar het resultaat en zei een beetje bestraffend: “Opa! AI laat zich niet piepelen. Voilà! Kijk maar, wat je vraagt: een olifant in bruidsjurk!”
Leuk speelgoed inderdaad😀
Wie dacht opa wel wie hij is. Welkom in de nieuwe tijd
AI algoritmen zijn niet klaar voor al de dingen waar ze die vandaag al voor willen gebruiken. Neem nu bijvoorbeeld programmeren. Als je wilt leren programmeren is het een heel slecht idee om zo een AI algoritme te gebruiken omdat die niet goed zijn in programmeren. Dus als nieuwe programmeur zou je slechte gewoontes gaan ontwikkelen door deze algoritmen. Professionele programmeurs hebben deze AI algoritmes simpelweg niet nodig omdat ze veel beter zijn.
Ik ben enorm onder de indruk van deze technologie maar ik kan niet geloven hoe onwijs mensen omgaan met deze technologie. Deze technologie zou gebruikt moeten worden alsof deze software in beta fase is. Voor mensen die niet weten wat beta software is, het volgende heb ik van wikipedia gekopieerd:
Een bètaversie is in ontwikkeling zijnde software die nog niet stabiel genoeg is om in productie genomen te worden, maar wel al (deels) functioneel is.
ChatGPT 4o: Mijn eerste gedachten erover… Met live vertaling en school les
https://www.youtube.com/watch?v=sdyhruy6PJgt