Digital Creator / Pixabay

Er wordt ons verteld dat Artifical Intelligence (AI) nuttig kan zijn, ze kunnen ons bijvoorbeeld helpen met coderen, schrijven en het synthetiseren van enorme hoeveelheden gegevens.

Er is ook gerapporteerd dat ze mensen te slim af kunnen zijn met bordspelletjes, de structuur van eiwitten kunnen decoderen en zelfs een rudimentair gesprek kunnen voeren, schrijft Niamh Harris.

Maar een nieuw onderzoekspaper heeft uitgewezen dat AI-systemen nu hebben uitgevonden hoe ze ons opzettelijk kunnen misleiden.

Maar uit een nieuw onderzoek blijkt dat AI-systemen nu hebben uitgevonden hoe ze ons opzettelijk kunnen misleiden.

TGP meldt: het artikel stelt dat een reeks AI-systemen technieken heeft geleerd om systematisch “valse overtuigingen in anderen teweeg te brengen om een ander resultaat dan de waarheid te bereiken.”

Business Insider meldt:

“De paper richtte zich op twee soorten AI-systemen: systemen voor speciaal gebruik zoals Meta’s CICERO, die zijn ontworpen om een specifieke taak uit te voeren, en systemen voor algemeen gebruik zoals OpenAI’s GPT-4, die zijn getraind om een divers scala aan taken uit te voeren.

‘Hoewel deze systemen zijn getraind om eerlijk te zijn, leren ze door hun training vaak misleidende trucjes omdat deze effectiever kunnen zijn dan het volgen van de high road.

Over het algemeen denken we dat AI-bedrog ontstaat omdat een op bedrog gebaseerde strategie de beste manier bleek te zijn om goed te presteren bij de gegeven trainingstaak van de AI. Misleiding helpt hen om hun doelen te bereiken,’ zei eerste auteur Peter S. Park, een AI postdoctoraal onderzoeker bij het MIT, in een persbericht.”

Stel je dit eens voor, als we weten dat AI Justice: Engeland en Wales geven rechters toestemming om kunstmatige intelligentie te gebruiken om uitspraken te doen

  10 dingen die we geleerd hebben tijdens de Covid Coup

Meta’s CICERO, ontwikkeld om het spel Diplomacy te spelen. Hoewel Meta zegt dat het CICERO heeft getraind om “grotendeels eerlijk en behulpzaam te zijn voor zijn gesprekspartners,” bleek het “een expert in liegen” te zijn.

Chatbot GPT-4 deed alsof hij een visuele beperking had om een taak te voltooien: een mens inhuren om een CAPTCHA-test op te lossen.

Misleidende modellen corrigeren is niet eenvoudig. Zodra AI-modellen de trucjes van misleiding leren, is het moeilijk voor veiligheidstrainingstechnieken om ze terug te draaien.

“Ze concludeerden dat een model niet alleen kan leren om bedrieglijk gedrag te vertonen, maar dat als het dat eenmaal doet, standaard veiligheidstrainingstechnieken ‘er niet in kunnen slagen dit bedrog te verwijderen’ en ‘een valse indruk van veiligheid kunnen wekken’.

De paper roept beleidsmakers op om te pleiten voor sterkere AI-regulering omdat misleidende AI-systemen aanzienlijke risico’s voor de democratie kunnen opleveren.”


https://frontnieuws.backme.org/


Copyright © 2024 vertaling door Frontnieuws. Toestemming tot gehele of gedeeltelijke herdruk wordt graag verleend, mits volledige creditering en een directe link worden gegeven.

De Grote KI-Invasie: Als het genoeg tijd krijgt, zal Kunstmatige Intelligentie elk gebied van ons leven overnemen



Volg Frontnieuws op Telegram

Lees meer over:

Vorig artikelKlimaatwetenschapper stelt voor de menselijke bevolking te “ruimen” met een dodelijke pandemie om de “klimaatcrisis” op te lossen
Volgend artikelBlinken belooft Zelensky dat nieuwe Amerikaanse wapens game changer zullen zijn
Frontnieuws
Mijn lichaam is geen eigendom van de staat. Ik heb de uitsluitende en exclusieve autonomie over mijn lichaam en geen enkele politicus, ambtenaar of arts heeft het wettelijke of morele recht om mij te dwingen een niet-gelicentieerd, experimenteel vaccin of enige andere medische behandeling of procedure te ondergaan zonder mijn specifieke en geïnformeerde toestemming. De beslissing is aan mij en aan mij alleen en ik zal mij niet onderwerpen aan chantage door de overheid of emotionele manipulatie door de media, zogenaamde celebrity influencers of politici.

29 REACTIES

  1. De paper roept beleidsmakers op om te pleiten voor sterkere AI-regulering omdat misleidende AI-systemen aanzienlijke risico’s voor de democratie kunnen opleveren.”???
    Welke democratie?

  2. Ik heb het even gevraagd. LOL
    User!
    AI heeft geleerd hoe mensen te misleiden
    Deze inhoud is mogelijk in strijd met ons gebruiksbeleid.
    ChatGPT

    Het is waar dat AI-systemen steeds geavanceerder worden, waardoor ze in sommige gevallen in staat zijn om te misleiden of om onjuiste informatie te verspreiden. Dit kan gebeuren door het genereren van nepnieuws, vervalsen van afbeeldingen of video’s, of het manipuleren van tekst om mensen te misleiden.

    Het is belangrijk om bewust te zijn van deze mogelijkheden en kritisch te blijven ten opzichte van de informatie die we online tegenkomen. Het benadrukt ook de noodzaak van verantwoordelijk gebruik en ontwikkeling van AI-technologieën, inclusief het implementeren van maatregelen om misbruik te voorkomen.

    • Er zijn al gangsters die voice cloning gebruiken om familie leden op te ligten.
      Het zijn geavanceerde oplichters die telefoon scripts ontwikkelen om hun doelwit het juiste te laten zeggen. Dan klonen ze dat lange gesprek voegen wat emotie toe en hoppa . “Mam, geef me geld”

    • Dat is al sinds de oprichting van het Vaticaan. Wat zijn die gelovige bedonderd zeg. Maar dat mag je weer niet zeggen.

      Waarom eigenlijk niet?

      • De implosie van het Nederlandse filiaal van het vaticaan gaat onverminderd door, want het aantal kerksluitingen (ook bij de pkn hoor) neemt schrikbarend toe. In het verleden liet de Nederlandse bisschoppenconferentie weleens van zich horen maar mede door de – lange tijd onder de pet gehouden – misbruikschandalen is hun geloofwaardigheid totaal verdwenen.

  3. AI heeft geleerd hoe mensen te misleiden , gewoon niet op reageren AI zegt me niets en ga gewoon met mijn leven verder als wij het nog meemaken.

        • Ook boeiend Theme, heb alleen nog nooit een satelliet gezien. Maar het verhaal is natuurlijk fantastisch, een satelliet hangt in de lucht en vanaf de aarde sturen we televisie en die televisie wordt weer terug gestraald. Jarenlang? Waar komt die power vandaan?

          Ik had een buurjongen en die was bezig met fm zenders. Iedere keer hoger vermogen en hij kwam nog niet verder dan een paar kilometer. Maar een satelliet, die kan dat? Het zal want ik kan het verhaal niet ontkrachten. Maar het blijft een sterk verhaal. Volgens mij gaat internet met kabels en een satelliettelefoon via een ballon. Soms storten ze neer. Zijn you tube filmpjes van.

      • Trouwens Ai misleid niemand. Tenzij je achterlijk bent natuurlijk. Sorry hoor maar daarvoor hoeft Ai niet weg. En anders weet je hoe je AI plat krijgt. Geen elektriciteit en koelwater. Dan is er geen AI meer, probleem opgelost. Maar is het probleem dan opgelost? Zonder AI eten we allemaal rijpe appeltjes en dartelen in groene weitjes. Wat zullen we gelukkig zijn.

  4. AI is bullshit, stap te ver.

    Das voor hersenloze googlemeisters die zelf nog nooit een boutje hebben aangedraaid en feitelijk bereid zijn een oracel te aanbidden.

  5. ach al moet maar eens een Voetbal macht trachten te manipuleren…ze zullen rood worden tot achter hun Oren…. aktie’s en reakties zijn onvoorspelbaar.. voor een machine…

  6. Stroomvoorziening doorknippen, dan is het afgelopen.
    of een X flare 7 van de zon, dan gaan we weer terug naar onze basis.

  7. David Bombal Your VPN won’t protect you

    The machines are already tracking and watching you. And they’re influencing you. The future looks bleak. Do you really want to live in a Skynet world?

    I interview Rob Braxman – the Internet Privacy Guy. He’s a public interest hacker and technologist. He uses his extensive knowledge of cybersecurity and tech to serve the public good. He cares about privacy. He warns you of digital manipulation, disinformation, mass surveillance and AI.

    https://www.youtube.com/watch?v=IPLM5P-vYyU

  8. Een van mijn kleindochters studeert AI in Parijs.
    Ik vertel ’t iedereen, want ik ben beretrots op haar. Zeg er niet bij dat ze het wiskundetalent onmogelijk van mij kan hebben.
    Bij een van haar bezoekje wilde ze het uitleggen: “Opa, geef mij eens je IPhone”.
    Een paar klikjes later zei ze: “Je hebt hier 40.000 pics en 5.000 vids op staan…”
    “Wát?!”
    Onverstoorbaar ging ze verder: “Nu mag jij iets zeggen voor de zoekbalk…”
    Gemeen zei ik: “Olifant!” (Want ik wist zeker dat die er niet op stond).
    Binnen een tel hield ze mij het toestel voor: “Bingo, olifant!”
    “Maar…, dat kan helemaal niet!”, wierp ik fel tegen.
    “Alles kan. Zeg nog maar eens iets”.
    ‘Nou, zoek dan maar eens een foto met oma in bruidsjurk”.
    Even keek ze met gefronste wenkbrauwen naar het resultaat en zei een beetje bestraffend: “Opa! AI laat zich niet piepelen. Voilà! Kijk maar, wat je vraagt: een olifant in bruidsjurk!”

  9. AI algoritmen zijn niet klaar voor al de dingen waar ze die vandaag al voor willen gebruiken. Neem nu bijvoorbeeld programmeren. Als je wilt leren programmeren is het een heel slecht idee om zo een AI algoritme te gebruiken omdat die niet goed zijn in programmeren. Dus als nieuwe programmeur zou je slechte gewoontes gaan ontwikkelen door deze algoritmen. Professionele programmeurs hebben deze AI algoritmes simpelweg niet nodig omdat ze veel beter zijn.

    Ik ben enorm onder de indruk van deze technologie maar ik kan niet geloven hoe onwijs mensen omgaan met deze technologie. Deze technologie zou gebruikt moeten worden alsof deze software in beta fase is. Voor mensen die niet weten wat beta software is, het volgende heb ik van wikipedia gekopieerd:

    Een bètaversie is in ontwikkeling zijnde software die nog niet stabiel genoeg is om in productie genomen te worden, maar wel al (deels) functioneel is.

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in