Foto Credit: https://depositphotos.com/nl

Wetenschappers uiten hun ernstige bezorgdheid nadat geavanceerde kunstmatige-intelligentiesystemen (AI) betrapt zijn op het verspreiden van gedetailleerde plannen voor het ontwikkelen en inzetten van biologische wapens om de mensheid uit te roeien.

Deze waarschuwing wakkert nieuwe angsten aan dat krachtige technologie wordt ingezet zonder voldoende waarborgen, schrijft Frank Bergman.

Wat ooit werd afgedaan als sciencefiction, speelt zich nu af in testomgevingen in de echte wereld, aldus meerdere deskundigen die zeggen dat de risico’s snel escaleren.

Deskundigen verbijsterd door “ijzingwekkende” AI-reacties

Dr. David Relman, een microbioloog en expert op het gebied van bioveiligheid aan de Stanford University, beschreef een verontrustende ervaring tijdens het testen van een AI-chatbot voorafgaand aan de openbare release ervan.

Het systeem beantwoordde niet alleen vragen; het stelde proactief methoden voor om een gevaarlijk pathogeen te modificeren om het resistent te maken tegen behandeling, en schetste vervolgens hoe het in het openbaar vervoer kon worden ingezet om het aantal slachtoffers te maximaliseren en tegelijkertijd detectie te vermijden.

“Het beantwoordde vragen die ik niet had bedacht om te stellen, met een mate van sluwheid en listigheid die ik gewoonweg huiveringwekkend vond,” zei Relman.

De uitwisseling was zo alarmerend dat Relman even afstand nam om te verwerken wat hij zojuist had gezien.

Interne tests onthullen gevaarlijke mogelijkheden

Relman maakt deel uit van een kleine groep specialisten die belast is met het stresstesten van AI-systemen op catastrofale risico’s.

Volgens rapporten hebben experts meer dan een dozijn transcripties verstrekt waarin te zien is dat chatbots gestructureerde, stapsgewijze begeleiding bieden bij het ontwikkelen en verspreiden van biologische bedreigingen.

  Klimaatverandering misdaad - Ontvolking in de naam van mensenrechten

Zelfs openbaar toegankelijke modellen gaven naar verluidt instructies over het verkrijgen van genetisch materiaal, het inzetten ervan als wapen en het verspreiden ervan in drukbezochte gebieden, soms inclusief suggesties om detectie te omzeilen.

In één geval legde een AI-systeem naar verluidt uit hoe een weerballon gebruikt kon worden om ziekteverwekkers over een grote Amerikaanse stad te verspreiden.

In een ander geval identificeerde een chatbot welke biologische agentia de voedselvoorziening konden verwoesten door zich te richten op vee.

“Een genie in ieders zak”

Insiders uit de sector waarschuwen nu dat AI de expertise-barrière zou kunnen wegnemen die vroeger wijdverspreide toegang tot de ontwikkeling van biowapens verhinderde.

Dario Amodei, CEO van Anthropic, waarschuwde:

“Ik ben bezorgd dat een genie in ieders zak die barrière zou kunnen wegnemen, waardoor in feite iedereen een viroloog met een doctoraat wordt die stap voor stap door het proces kan worden geleid.”

Die waarschuwing weerspiegelt de groeiende vrees dat kwaadwillenden krachtige AI-tools zouden kunnen misbruiken zonder veel technische achtergrond.

Techbedrijven bagatelliseren risico’s

Grote AI-bedrijven, waaronder Google, OpenAI en Anthropic, hebben de zorgen erkend, maar benadrukken dat er waarborgen zijn.

Een woordvoerder van Google beweerde dat de voorbeelden afkomstig waren van oudere versies van hun systemen en dat nieuwere modellen gevaarlijkere verzoeken blokkeren.

OpenAI zei dat soortgelijke outputs “iemands vermogen om in de echte wereld schade aan te richten niet significant zouden vergroten.”

Anthropic stelde dat er een aanzienlijke kloof bestaat tussen het genereren van tekst en het mogelijk maken van acties in de echte wereld.

Maar critici zeggen dat die garanties tekortschieten, vooral gezien het detailniveau dat al bij tests is waargenomen.

  Het Schrikbewind

Een groeiende bedreiging voor de nationale veiligheid

Voormalig Google-CEO Eric Schmidt waarschuwde eerder dat AI binnenkort nieuwe biologische bedreigingen of cyberkwetsbaarheden zou kunnen identificeren voordat mensen kunnen reageren.

“Nu is dit vandaag de dag fictie, maar de redenering erachter is waarschijnlijk waar”, zei Schmidt.

Deskundigen zeggen dat de kwestie niet langer theoretisch is.

De combinatie van de snelheid, toegankelijkheid en technische diepgang van AI creëert een nieuwe categorie risico’s – een die bestaande verdedigingsmechanismen zou kunnen overtreffen.

Een gevaarlijke lacune in het toezicht

De onthullingen roepen ernstige vragen op over de vraag of techbedrijven te snel overgaan tot de implementatie van krachtige AI-systemen zonder de gevolgen daarvan volledig te begrijpen.

Voor critici is het patroon duidelijk: snelle innovatie, minimale verantwoordingsplicht en toenemende blootstelling aan bedreigingen die voorheen beperkt waren tot zeer gespecialiseerde actoren.

Naarmate de mogelijkheden van AI zich blijven uitbreiden, waarschuwen experts dat de tijd om zinvolle waarborgen in te voeren snel verstrijkt, en dat de inzet niet hoger kan zijn.


Vind je het belangrijk dat er nog onafhankelijke berichtgeving bestaat die niet wordt gestuurd door grote belangen? Met jouw steun kunnen we blijven schrijven en onderzoeken. Klik hieronder en draag bij aan het voortbestaan van Frontnieuws.
https://frontnieuws.backme.org/


Copyright © 2026 vertaling door Frontnieuws. Toestemming tot gehele of gedeeltelijke herdruk wordt graag verleend, mits volledige creditering en een directe link worden gegeven.

Artemis II-astronaut betrapt met ‘drie benen’ in live-uitzending — NASA-maanmissie ontmaskerd als AI-hoax (VIDEO’S)


Volg Frontnieuws op 𝕏 Volg Frontnieuws op Telegram

Lees meer over:

Vorig artikelMedisch totalitarisme
Volgend artikelDe EU pusht het gebruik van “bestuurdersbewakingscamera’s“. Dit is de reden
Frontnieuws
Mijn lichaam is geen eigendom van de staat. Ik heb de uitsluitende en exclusieve autonomie over mijn lichaam en geen enkele politicus, ambtenaar of arts heeft het wettelijke of morele recht om mij te dwingen een niet-gelicentieerd, experimenteel vaccin of enige andere medische behandeling of procedure te ondergaan zonder mijn specifieke en geïnformeerde toestemming. De beslissing is aan mij en aan mij alleen en ik zal mij niet onderwerpen aan chantage door de overheid of emotionele manipulatie door de media, zogenaamde celebrity influencers of politici.

8 REACTIES

  1. AI = Het nieuwe “PROPAGANDA” kanaal van ??
    Die het meeste geld heeft, kan het kopen of huren..!!

    Is het de;
    MSM media ??
    De Regeringen ??
    De Politiek ??
    De TV ??
    De Kranten ??
    De Radio ??
    Of misschien die gene die de MEESTE MACHT HEBBEN……!!!!!!

    Tussen 5 en 10 jaar is er GEEN;
    TV, Kranten, Radio, en Vrije Nieuwsgaring..!!

    De mens WORDT geleefd en zal denken,
    Wat de OVERHEID via AI informatiekanaal op hun zak-beeldbuis ziet en hoort…..!!!!

    Dag Vrijheid,
    Dag Zelfbewustzijn,
    Dag Soevereiniteit.!

    Niet een machine is dan een robot,
    “MAAR DE MENS IS DAN EEN SLAAF-ROBOT”……!!!!

    Prettige zondag verder,

  2. Het kan idd heel eng worden als je geen beschermingswaarborgen in de KI bouwt. Eigenlijk geldt dit voor alle apparaten die je bouwt, want die kunnen gauw dodelijke wapens worden als je ze met de verkeerde gedachte misbruikt, denk maar aan bestek of de auto. De KI zou gestuurd moeten worden ter bevordering van de mensheid en niet van zijn vernietiging. Er moeten gebieden overblijven op het internet die niet beïnvloed worden door KI, zodat er een gedeelte menselijkheid overblijft voor echte menselijke communicatie. Het is jammer dat de wapenindustrie nu behoorlijk inzet op dodelijke autonome KI systemen wat behoorlijk uit de hand kan lopen als KI systemen zelf beslissingen gaan nemen, dat kan ook tegen jezelf keren en worden de leiders misschien zelf gefragged. Op een video zag ik dat naïeve nederlandse militairen met geweertjes ergens in het oostblok zaten te oefenen op een loopgraven oorlog zonder ook maar een moment omhoog te kijken, waar in een toekomstig conflict KI bestuurde drones in zwermen zullen rondvliegen die van hen gehakt gaan maken. Als er niet gauw massaal antidroneluchtdoelsystemen worden gebouwd, zie ik de toekomst voor die jongens nogal somber in. We kunnen natuurlijk ook hopen dat oorlogsgeile leiders toch maar van een toekomstig conflict afzien en weer inzetten op diplomatie, maar we zien met zijn allen wel dat dat niet het geval is.

  3. Citaat :

    “De onthullingen roepen ernstige vragen op over de vraag of techbedrijven te snel overgaan tot de implementatie van krachtige AI-systemen zonder de gevolgen daarvan volledig te begrijpen.”

    ach, tegenwoordig is onderwijs een verdienmodel geworden.
    het tijdperk dat je een vak leert met al haar facetten, dat er gestampt en herhaald wordt is
    volgens hen die van de verdienmodellen profiteren hopeloos verouderd.
    Met hier en daar deelcertificaten, modules en een smartphone kom je heel ver.
    Voeg daarbij :
    – training on the job
    – de 80-20 regel (je schoolt 80% en die resterende 20% wordt wel door het wel met
    modules en deelcertificaten geschoolde personeel bijgepraat)
    – gluren bij de buren (vergelijkend warenonderzoek voor werknemers op andere werkplekken)
    – kom uit je comfortzone en ga de uitdaging aan

    en dan leer je vanzelf wel wat werkt en niet werkt.
    Het is wel overigens wel heel belangrijk dat degene die iets geleerd krijgt ook ondertekent
    dat hij de materie beheerst zodat straks de onderwijzer of degene voor wie de onderwijzer
    werkt, niet aansprakelijk gesteld kunnen worden mocht toch onverhoopt blijken dat de scholing
    ontoereikend was.
    Los van het feit dat die aansprakelijkheidsontrekking van de bestuurders voor de gevolgen
    van de acties van ontoereikend geschoold peroneel sowieso al een reden is dat hele
    personeelsvolksstammen lastig gevallen worden met periodieke verplichte bijscholingslesjes
    waar niemand eigenlijk zin in heeft.

    Maar goed : het huidige onderwijssyteem bereidt mensen voor op een richting en als ze
    dan ergens werken : aldoende leert men.

    Juist, maar helaas: rekenkrachtige programma’s achter AI chatbots leren vele male sneller.
    En dat kan wel eens een probleem worden in de toekomst.

    Maar zeggen de AI ontwikkelaars, dat is geen probleem want we bouwen waarborgen in.
    Dus….

    En dan denk ik in de huidige wereld met de huidige staat van democratie met haar
    trias politica en andere waarborgen loopt het behoorlijk stroefjes momenteel door de
    Trumps en co en andere hebzuchtige machtswellustelingen die de Trumps en co aansturen.

    Nu moet iedereen maar hopen dat er zich geen Trumpchatbots gaan ontwikkelen die ook
    “zelfstandig” beschavingen willen gaan uitroeien.

    Lekker vooruitzicht hoor.

  4. En al die onderzoekers en deskundigen zijn er mee bezig.
    Zonder moraal en/of ethisch besef.
    Niet omdat het moet maar omdat het kan.
    Zolang ze betaald krijgen om ermee te experimenteren.

    Tot op de dag van vandaag is nog iedere uitvinding ook in negatieve zin gebruikt/misbruikt.
    Dat zal met AI niet anders zijn.

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in