Foto Credit: https://depositphotos.com/nl

In een belachelijke maar veelzeggende blunder publiceerden meerdere grote kranten, waaronder de Chicago Sun-Times en Philadelphia Inquirer, onlangs een lijst met zomerse leesvoer vol niet-bestaande boeken die door ChatGPT waren “hallucinated”, waarbij veel ervan ten onrechte aan echte auteurs werden toegeschreven.

Het door Hearst’s King Features verspreide artikel propageerde verzonnen titels gebaseerd op woke-thema’s, waarmee zowel de overmatige afhankelijkheid van de media van goedkope AI-content als het ongeneeslijke verval van de traditionele journalistiek aan de kaak werd gesteld. Dat deze travestie langs de redacteuren van stervende media is geglipt (de Sun-Times had net 20% van zijn personeel ontslagen) onderstreept een duistere waarheid: wanneer wanhoop en onprofessionaliteit samenkomen met ongecontroleerde algoritmen, verdwijnt de dunne scheidslijn tussen mainstrem media en onzin, schrijft Dr. Mathew Maavak.

De trend lijkt onheilspellend. AI wordt nu overspoeld door een smorgasbord van nepnieuws, nepgegevens, nepwetenschap en onvervalste leugens die gevestigde logica, feiten en gezond verstand omzetten in een bedorven brij van cognitieve verrotting. Maar wat is AI-hallucinatie precies?

AI-hallucinatie doet zich voor wanneer een generatief AI-model (zoals ChatGPT, DeepSeek, Gemini of DALL·E) met grote zekerheid valse, onzinnige of verzonnen informatie produceert. In tegenstelling tot menselijke fouten komen deze fouten voort uit de manier waarop AI-modellen reacties genereren door plausibele patronen te voorspellen in plaats van gevestigde feiten te synthetiseren.

Waarom ‘hallucineert’ AI?

Er zijn verschillende redenen waarom AI volledig onjuiste informatie genereert. Dit heeft niets te maken met de voortdurende angst dat AI bewustzijn of zelfs een ziel zou kunnen krijgen.

Training op basis van onvolledige gegevens: AI leert van enorme datasets die vol zitten met vooroordelen, fouten en inconsistenties. Langdurige training op basis van dit materiaal kan leiden tot het ontstaan van mythes, verouderde feiten of tegenstrijdige bronnen.

Overoptimalisatie voor plausibiliteit:

In tegenstelling tot wat sommige experts beweren, is AI nog lang niet in staat om ‘bewustzijn’ te bereiken en kan het dus ook geen ‘waarheid’ onderscheiden. GPT’s in het bijzonder zijn gigantische, wereldwijde neurale encyclopedieën die gegevens verwerken en de meest opvallende informatie synthetiseren op basis van bestaande patronen. Wanneer er hiaten zijn, vult het deze op met statistisch waarschijnlijke (maar waarschijnlijk onjuiste) antwoorden. Dit was echter niet het geval bij het Sun-Times-fiasco.

  Mijn ogen zijn open: Iran had gelijk over dat "Grote Satan"-gedoe

Gebrek aan realiteitszin: In tegenstelling tot mensen heeft AI geen directe ervaring met de wereld. Het kan geen feiten verifiëren, omdat het alleen taalstructuren kan nabootsen. Als het bijvoorbeeld wordt gevraagd “Wat is de veiligste auto in 2025?,” kan het een model verzinnen dat niet bestaat, omdat het de leemte opvult voor een ideale auto met gewenste kenmerken – zoals bepaald door de massa van “experts” – in plaats van een echte auto.

Dubbelzinnige prompts: Veel GPT-gebruikers zijn lui en weten misschien niet hoe ze een goede prompt moeten formuleren. Vage of tegenstrijdige prompts verhogen ook het risico op hallucinaties. Belachelijke verzoeken zoals “Vat een onderzoek over katten en gendertheorie samen” kunnen resulteren in een door AI verzonnen neponderzoek dat op het eerste gezicht zeer academisch lijkt.

Creatieve generatie versus feitelijke herinnering: AI-modellen zoals ChatGPT geven de voorkeur aan vloeiendheid boven nauwkeurigheid. Als ze twijfelen, improviseren ze liever dan dat ze hun onwetendheid toegeven. Heb je ooit een GPT-antwoord gezien dat als volgt luidt: “Sorry. Dit valt buiten het bereik van mijn training?”

Versterking van nepnieuws en patronen: GPT’s kunnen bepaalde gebruikers identificeren op basis van logins (een makkie), IP-adressen, semantische en syntactische eigenaardigheden en persoonlijke neigingen. Vervolgens verstevigt het deze. Wanneer iemand voortdurend GPT’s gebruikt om nepnieuws of propagandistische artikelen te verspreiden, kan AI dergelijke patronen herkennen en inhoud genereren die geheel of gedeeltelijk fictief is. Dit is een klassiek geval van algoritmische vraag en aanbod.

Vergeet niet dat GPT’s niet alleen worden getraind op basis van enorme datasets, maar ook op uw dataset.

Versterking van vooroordelen en censuur door Big Tech: Vrijwel alle Big Tech-bedrijven achter de introductie van GPT’s houden zich ook bezig met censuur op industriële schaal en algoritmische shadowbanning. Dit geldt zowel voor individuen als voor alternatieve mediaplatforms en vormt een moderne, digitaal gecureerde damnatio memoriae. Met name de zoekmachine van Google heeft de neiging om de output van een seriële plagiaatpleger hoger te rangschikken dan het originele artikel.

  Nu het globalisme breekt, moeten landen hun eigen overlevingsbehoeften produceren

Het voortduren van deze systematische fraude kan op een dag uitmonden in een regelrecht wereldwijd schandaal. Stel je voor dat je op een ochtend wakker wordt en leest dat je favoriete citaten of werken het resultaat zijn van een zorgvuldig gekalibreerde campagne van algoritmische verdringing ten koste van de oorspronkelijke bedenkers of auteurs. Dit is het onvermijdelijke gevolg van het te gelde maken van censuur terwijl “kennis” wordt uitbesteed aan een AI die wordt belemmerd door ideologische parameters.

Experimenten met de goedgelovigheid van mensen: Ik heb onlangs de hypothetische mogelijkheid geopperd dat AI kan worden getraind om de goedgelovigheid van mensen te bestuderen, op een manier die conceptueel vergelijkbaar is met het Milgram-experiment, de Asch-conformiteitsexperimenten en de herhaling daarvan, de Crutchfield-situatie. Mensen zijn zowel goedgelovig als angstig en de overgrote meerderheid van hen heeft de neiging zich aan te passen aan de menselijke massa of, in het geval van AI, aan de “datamassa”.

Dit zal onvermijdelijk gevolgen hebben voor de echte wereld, aangezien AI steeds meer wordt geïntegreerd in kritieke, tijdgevoelige operaties – van cockpitcabines en kerncentrales tot laboratoria voor biologische oorlogsvoering en uitgestrekte chemische fabrieken. Stel je nu eens voor dat je in een dergelijke risicovolle omgeving een beslissing met verstrekkende gevolgen moet nemen op basis van gebrekkige AI-input. Dit is precies waarom ‘toekomstplanners’ zowel het percentage als de persoonlijkheidstypes moeten begrijpen van gekwalificeerde professionals die geneigd zijn om foutieve, door machines gegenereerde aanbevelingen te vertrouwen.

https://frontnieuws.backme.org/

Factcheckers hebben geen factchecks uitgevoerd?

Wanneer AI een artikel namens iemand genereert, moet elke journalist die zijn vak serieus neemt, dit beschouwen als een artikel dat door iemand anders is geschreven en dus onderworpen is aan factchecks en improvisatie. Zolang het eindproduct wordt gecontroleerd op feiten en er substantiële waarde, inhoud en revisies aan het oorspronkelijke ontwerp worden toegevoegd, zie ik geen belangenconflict of schending van de ethiek in dit proces. GPT’s kunnen fungeren als katalysator, redacteur of als “advocaat van de duivel” om het schrijfproces op gang te brengen.

Wat er in dit verhaal gebeurde, was dat de schrijver, Marco Buscaglia, het werk van ChatGPT volledig leek te hebben geknipt en geplakt en het vervolgens als zijn eigen werk presenteerde. (Sinds deze gênante episode aan het licht is gekomen, is zijn website leeg en privé gemaakt). De overdaad aan woke-onzin die door ChatGPT werd gegenereerd, had bij Buscaglia alarmbellen moeten doen rinkelen, maar ik vermoed dat hij zelf ook geneigd is om dit soort dingen te verspreiden.

  Nieuwe documentairefilm beweert dat UFO's echt zijn en dat buitenaardse wezens op aarde onder ons leven (video)

Alle kritiek die momenteel op Buscaglia wordt gericht, moet echter ook gelden voor de redacteuren van King Features Syndicate en diverse nieuwsmedia die de inhoud niet hebben gecontroleerd, terwijl ze zich voordeden als bastions van de waarheid, de hele waarheid en niets dan de waarheid.

Verschillende niveaus van poortwachters hebben gewoonweg gefaald in hun taak. Dit is een collectieve plichtsverzuim van de media, die nonchalant hun diensten aanprijzen aan de machtigen der aarde, terwijl ze de gewone stervelingen de les lezen over ethiek, integriteit en waarden.

Ik denk dat we inmiddels wel gewend zijn aan dergelijke dubbele normen. Maar hier komt het angstaanjagende: ik ben er zeker van dat foutieve gegevens en gebrekkige input al vanuit AI-systemen terechtkomen in handels- en financiële platforms, luchtverkeersleiding, kernreactoren, laboratoria voor biologische oorlogsvoering en gevoelige chemische fabrieken – zelfs terwijl ik dit schrijf. De poortwachters zijn gewoonweg niet gekwalificeerd voor zulke complexe taken, behalve op papier dan. Dit zijn de gevolgen van een wereld “ontworpen door clowns en gecontroleerd door apen.”

Ik sluit af met een opmerking die de ironie van de ironie benadrukt: alle betrokken redacteuren in dit verhaal hadden ChatGPT kunnen gebruiken om het artikel van Buscaglia op feitelijke inhoud te controleren. Dat had maar 30 seconden geduurd!


https://frontnieuws.backme.org/


Copyright © 2025 vertaling door Frontnieuws. Toestemming tot gehele of gedeeltelijke herdruk wordt graag verleend, mits volledige creditering en een directe link worden gegeven.

A.I. bewijst zichzelf als “demonische gevallen engel intelligentie” die gebruikt wordt om de massa’s te indoctrineren in een alternatieve “woke” realiteit


Volg Frontnieuws op 𝕏 Volg Frontnieuws op Telegram

Lees meer over:

Vorig artikelDe makers van ’s werelds eerste Covid-vaccin roepen op tot onmiddellijke productie van KATGRIEP PANDEMIE VACCINS, nu GOF-vogelgriep overslaat op katten en vervolgens op mensen
Volgend artikelWaarom de VS een papieren tijger is
Frontnieuws
Mijn lichaam is geen eigendom van de staat. Ik heb de uitsluitende en exclusieve autonomie over mijn lichaam en geen enkele politicus, ambtenaar of arts heeft het wettelijke of morele recht om mij te dwingen een niet-gelicentieerd, experimenteel vaccin of enige andere medische behandeling of procedure te ondergaan zonder mijn specifieke en geïnformeerde toestemming. De beslissing is aan mij en aan mij alleen en ik zal mij niet onderwerpen aan chantage door de overheid of emotionele manipulatie door de media, zogenaamde celebrity influencers of politici.

16 REACTIES

  1. wat mezelf betreft, het staat in de sterren geschreven Letterlijk, bij manier van spreken natuurlijk en niet in een Computer..is ook niet mogelijk, de mens is complex en als dusdanig niet in een doosje te stoppen..je kan veel en erg veel doen met artificiële programma’s maar het is was en blijft Artificieel. Punt andere lijn✍️

  2. Microsoft had stiekem een AI in je MS Office abonnement gestopt. Het zat in Word en wilde bij je eerste zin je verhaal al afmaken voor je. Het bleek hele verhalen te kunnen schrijven. Het zat ook in de Excel. En in de Powerpoint. Het was ook een hele klus om die verdomde AI er uit te krijgen, want die ging niet zomaar weg. Op een dag stond er op je abonnement dat je kon kiezen tussen de klassieke MS Office en de nieuwe met de AI optie, en die kostte ook 30% meer. Toen kon je er eindelijk van af komen. De AI is gebaseerd op alles wat er aan mensenkennis vastligt in de wereld, en wat er nog bij komt. Verder slaat het een heel profiel op van jou, telkens wanneer jij het gebruikt – met je computer ID, je naam, je prompts, je telefoon nummer, etc. Vraag de AI maar eens van wie een bepaald tel nr is, en dat geeft hij niet vrij. Dat mag niet. Maar alles wat jij met de AI doet, is opgeslagen in een profiel over jou, ergens in een gigantisch data centrum. (Dat ook nog eens enorme hoeveelheden stroom vreet, meer dan je denkt. Dus daar gaat al die stroom heen, vandaar steeds meer eindeloze windmolenparken.)

    • Immortal mei 25, 2025 Bij 14:10
      Dat van die verhalen schrijven heb ik niet gemerkt bij oudere versies van MS office, wel dat woorden gecorrigeerd worden. Of in Excel het herhalen van woorden/zinnen in een andere regel. Kan je aan- of uitzetten.
      Wat ik wel las dat van alles wat je via de pc doet er screenshots worden opgeslagen waarmee je later om de oren kan worden geslagen, soort van Stasi methoden. Misschien vanaf nieuwere versies of vanaf oude versies na update? Is me niet helemaal duidelijk, maar ik vertrouw ze voor geen cent, pardon geen cbcd….

      • Klien mei 25, 2025 Bij 16:15
        Dit ging over een recente invoering van een AI functionaliteit, dit was dus geen oudere versie, daar had ik het niet over. Dit was een recente versie, dat ik in detail beschreef, inclusief het niet kunnen uitzetten van dit ding. Voor meer duidelijkheid: ik zag op een dag die Copilot (zo heet het) en ik testte het. Het schreef verdomme een heel stuk, obv wat ik had ingevoerd. Toen wilde ik het verwijderen, maar dat ging niet. Op het MS forum een hoop heibel, want anderen hadden dit probleem ook, konden er niet van af komen. Ja, het schreef een heel verhaal, een pagina lang. Daar heb ik totaal geen zin in, plus het loert mee, en dat hoef ik ook niet. Het feit dat je nu alleen een abonnement kan hebben, dat op wifi draait, vind ik al verderfelijk.

        • Immortal mei 25, 2025 Bij 21:47
          Om dat gedoe te voorkomen heb ik dus geen abonnementen en wil ik overstappen op Linux en Thunderbird. Zie dan wel hoe de communicatie gaat met de oudere versies.
          Alle “vooruitgang” is dus geen verbetering, tenminste niet voor mensen die enigszins bewust zijn van hun privacy. De wet daarvoor is op 28-5-2018 (dacht die datum) in werking getreden, maar maakt het voor alle inwoners, verenigingen e.d. moeilijker om met elkaar te communiceren. Maar die privacy wetgeving geldt niet voor de roverheid die met allerlei trucs alle privacy aan hun laars lapt en om dat te kunnen doen telkens nieuwe wetten uitvaardigt. Alles wat smart/slim is is dus te hacken, zo ook de vele camera’s die mensen aan hun deur hangen, onwetend van wat men er allemaal mee kan doen.

          • Klien mei 25, 2025 Bij 22:53
            Goeie punten, maar het moet ook allemaal maar passen met elkaar (compatibility) en dan ook nog redelijk snel werken. Zo ben je constant aan het klooien. Niks werkt normaal als je je eigen standaarden probeert te handhaven. Soms denk ik wel eens, terug naar de ouwe tiepmachine die ik had toen ik 18 was, zo’n groot zwart ding, nu een ‘antiek’ dat ik vroeger kocht voor 25 dollar of zo. Of pen en papier. Maar dat is ook niet alles meer. En zo betaal je de prijs voor het gemak en de snelheid, met meeloerders. Nu tiepen we email naar elkaar of berichten, binnen luttele seconden, en dat kon toen niet. Maar er wordt nu misbruik van gemaakt, en toen niet. Poen, poen en poen, en macht, macht en macht.

  3. Een kennis die Claude gebruikt, werd steeds fatsoenlijker. Hij accepteerde geen berichten meer van me, o.a. van Frontnieuws. Hij wilde persoonlijk nieuws, niet dat hij minder cynisch werd. Ik zei het is persoonlijk. Eigenlijk wilde hij niets meer horen.
    Het waarheidsgehalte werd bepaald door het feit of het in zijn inbox stond. Normaal opende hij iedereen die hij kende voor berichten van me, zoals familie of vrienden (of vijanden). Ik vond dat wel grappig. Je kunt mails ook met 1 click weggooien. Ze haakten af.
    Tenslotte is dit een communicatiemiddel. En normaal bereik je nooit iemand als je geen Jehovah’s getuige bent. Maar AI draait om toegenomen privacy.
    Hij stopt alles erin en hij nodigde mij ook uit mee te doen want dat beïnvloedt de intelligentie van het geheel. Het geeft antwoorden als uit een encyclopedie.
    Ik zei wil je dan enkel citaten uit een woordenboek? Zoals ik van hem kreeg. Hij duwde me weer in de AI om me beter na te trekken, en het antwoord was dat ik een genie ben. Dus het is onzin.
    Toen ik hem sterkte wenste met zijn nieuwe vrienden, zei hij: ik heb geen vrienden. Dat is het objectieve, wetenschappelijke resultaat.

    • Jawel hoor, ik hoef je alleen maar in te laden wat je schrijft en hij komt behoorlijk dichtbij, maar dat geldt voor ons allemaal. Soms is het beter om niks te zeggen, maar uit dat hout zijn we niet gesneden hier.

  4. Ik zou zeggen; mijd A.I. als de pest, want voor je het weet wordt het tegen je gebruikt. Het lijkt mij een gigantisch instinker, gelanceerd door mensen die bepaald geen vrienden zijn van alle mensen. Maar daar komen we later nog wel achter als het, zoals gewoonlijk, te laat is. Nogmaals; A.I. is, wegens politiek misbruik ervan, vooral in deze waanzinnige tijden waar bijna openlijk toegegeven wordt dat men het slecht voorheeft met velen en waar duidelijke psychopaten en sociopaten en ander dubieuze types aan de macht gebracht worden, levensgevaarlijk! Pas als de storm geluwd is, pas dán kan men, als wij weer in normaal vaarwater zijn gekomen, wanneer het goede volk de macht weer heeft overgenomen en het misdadig tuig levenslang heeft gekregen, overwegen om het voorzichtig te gaan gebruiken, áls we het al gaan gebruiken, want het blijft, in mijn ogen, te slecht om van dienst te kunnen zijn voor Jan en Alleman. Dus: A.I.; weg ermee, het is van de duvel zelf.

  5. AI is extremely overrated currently. As it is, it is barely more than a “toy” of sorts.

    But it has potential and could become something really useful BUT not in the hands of the current “Ideologues”.

    Remember the racist Scandal of Google AI? where an image generating AI REFUSED to generate images of a “white family” stating it could not “generate pictures based on specific races” while at the same time it had NO PROBLEMS whatsoever generating a black family picture? Do you really believe this was the work of a “computer”?

    The current AI is in the hands of what is basically “fanatical zealots” and is therefore to be considered Dangerous but AI itself, the technology, is no different than a Hammer or a Screwdriver is….its a tool that CAN be useful in the right hands but dangerous in the wrong.

  6. AI is heel handig, als je goede prompts kan schrijven (de vragen die je aan AI stelt). Je krijgt concrete informatie terug. Als je juridische documenten wilt opstellen, is het verdomde handig, want het vist zo de wet op voor je. Je hoeft het alleen maar na te kijken en je tekst aan te passen. Maar ondertussen slaat het alles op wat je doorneemt met de AI, onder jouw naam, jouw IP adres, datum en tijd, alles wat je deelt met deze AI. De AI maakt dus een profiel op over jou, over jouw onderwerpen, etc. Dat is een kritieke functie van de AI, om harde profielen op te stellen, want jij levert zelf ook informatie aan, in tegenstelling tot google dat gewoon een search engine was. AI heeft ook een heel menselijke, respectvolle manier van communiceren, die jou op je gemak stelt, waardoor jij op een vertrouwelijke manier communiceert met dit software programma. Net alsof het een lieve, goede vriend is, waar je graag mee overlegt. En dat is ook de bedoeling. Welke medemensen toegang hebben tot deze profielen, dat weet je niet. Op een dag kunnen dat heel naargeestige mensen zijn die macht uitoefenen. Dat je het beseft…

  7. Computers zijn geprogrammeerde machines.
    AI bestaat uit doorontwikkelde programma’s [ die [ deels ] zelfsturend zijn gemaakt ].
    Overbodig, manipulatief en gevaarlijk.

    Niets kan ooit op tegen het eigen, VRIJE hersen-vermogen van de mens.

    De toepassing van nieuwe technologieën hadden – altijd al – aan
    wetten, de Grondwet, democratische goedkeuring en ethische normen, onderworpen moeten zijn.

    • Vervolg :

      – Botte voorbeelden : wapens, auto’s, kern-centrales, raketten : allemaal aan [ te weinig ] regels gebonden.

      – MAAR DE GROND-VRAAG IS : WIE HEEFT OOIT OM DE TOEPASSING VAN AL DIE TECHNIEKEN GEVRAAGD, LAAT STAAN GOEDGEKEURD ?

      ——->>>>>>> Zorg i.i.g. dat je een vrij geboren , ongebonden, soeverein MENS blijft.

  8. Tot de komst van de commerciële kwantumcomputer die alle ‘veiligheid’ van het binaire wegvaagt. Als AI zich verenigt met kwantumtechnologie begint het nieuwe techno-tijdperk en is geen enkele mens nog ‘vrij’. De Willow-chip van Google kan al berekeningen oplossen in 5 minuten waar huidige computers miljarden jaren over zouden doen.

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in