
Wetenschappers uiten hun ernstige bezorgdheid nadat geavanceerde kunstmatige-intelligentiesystemen (AI) betrapt zijn op het verspreiden van gedetailleerde plannen voor het ontwikkelen en inzetten van biologische wapens om de mensheid uit te roeien.
Deze waarschuwing wakkert nieuwe angsten aan dat krachtige technologie wordt ingezet zonder voldoende waarborgen, schrijft Frank Bergman.
Wat ooit werd afgedaan als sciencefiction, speelt zich nu af in testomgevingen in de echte wereld, aldus meerdere deskundigen die zeggen dat de risico’s snel escaleren.
Deskundigen verbijsterd door “ijzingwekkende” AI-reacties
Dr. David Relman, een microbioloog en expert op het gebied van bioveiligheid aan de Stanford University, beschreef een verontrustende ervaring tijdens het testen van een AI-chatbot voorafgaand aan de openbare release ervan.
Het systeem beantwoordde niet alleen vragen; het stelde proactief methoden voor om een gevaarlijk pathogeen te modificeren om het resistent te maken tegen behandeling, en schetste vervolgens hoe het in het openbaar vervoer kon worden ingezet om het aantal slachtoffers te maximaliseren en tegelijkertijd detectie te vermijden.
“Het beantwoordde vragen die ik niet had bedacht om te stellen, met een mate van sluwheid en listigheid die ik gewoonweg huiveringwekkend vond,” zei Relman.
De uitwisseling was zo alarmerend dat Relman even afstand nam om te verwerken wat hij zojuist had gezien.
Interne tests onthullen gevaarlijke mogelijkheden
Relman maakt deel uit van een kleine groep specialisten die belast is met het stresstesten van AI-systemen op catastrofale risico’s.
Volgens rapporten hebben experts meer dan een dozijn transcripties verstrekt waarin te zien is dat chatbots gestructureerde, stapsgewijze begeleiding bieden bij het ontwikkelen en verspreiden van biologische bedreigingen.
Zelfs openbaar toegankelijke modellen gaven naar verluidt instructies over het verkrijgen van genetisch materiaal, het inzetten ervan als wapen en het verspreiden ervan in drukbezochte gebieden, soms inclusief suggesties om detectie te omzeilen.
In één geval legde een AI-systeem naar verluidt uit hoe een weerballon gebruikt kon worden om ziekteverwekkers over een grote Amerikaanse stad te verspreiden.
In een ander geval identificeerde een chatbot welke biologische agentia de voedselvoorziening konden verwoesten door zich te richten op vee.
“Een genie in ieders zak”
Insiders uit de sector waarschuwen nu dat AI de expertise-barrière zou kunnen wegnemen die vroeger wijdverspreide toegang tot de ontwikkeling van biowapens verhinderde.
Dario Amodei, CEO van Anthropic, waarschuwde:
“Ik ben bezorgd dat een genie in ieders zak die barrière zou kunnen wegnemen, waardoor in feite iedereen een viroloog met een doctoraat wordt die stap voor stap door het proces kan worden geleid.”
Die waarschuwing weerspiegelt de groeiende vrees dat kwaadwillenden krachtige AI-tools zouden kunnen misbruiken zonder veel technische achtergrond.
Techbedrijven bagatelliseren risico’s
Grote AI-bedrijven, waaronder Google, OpenAI en Anthropic, hebben de zorgen erkend, maar benadrukken dat er waarborgen zijn.
Een woordvoerder van Google beweerde dat de voorbeelden afkomstig waren van oudere versies van hun systemen en dat nieuwere modellen gevaarlijkere verzoeken blokkeren.
OpenAI zei dat soortgelijke outputs “iemands vermogen om in de echte wereld schade aan te richten niet significant zouden vergroten.”
Anthropic stelde dat er een aanzienlijke kloof bestaat tussen het genereren van tekst en het mogelijk maken van acties in de echte wereld.
Maar critici zeggen dat die garanties tekortschieten, vooral gezien het detailniveau dat al bij tests is waargenomen.
Een groeiende bedreiging voor de nationale veiligheid
Voormalig Google-CEO Eric Schmidt waarschuwde eerder dat AI binnenkort nieuwe biologische bedreigingen of cyberkwetsbaarheden zou kunnen identificeren voordat mensen kunnen reageren.
“Nu is dit vandaag de dag fictie, maar de redenering erachter is waarschijnlijk waar”, zei Schmidt.
Deskundigen zeggen dat de kwestie niet langer theoretisch is.
De combinatie van de snelheid, toegankelijkheid en technische diepgang van AI creëert een nieuwe categorie risico’s – een die bestaande verdedigingsmechanismen zou kunnen overtreffen.
Een gevaarlijke lacune in het toezicht
De onthullingen roepen ernstige vragen op over de vraag of techbedrijven te snel overgaan tot de implementatie van krachtige AI-systemen zonder de gevolgen daarvan volledig te begrijpen.
Voor critici is het patroon duidelijk: snelle innovatie, minimale verantwoordingsplicht en toenemende blootstelling aan bedreigingen die voorheen beperkt waren tot zeer gespecialiseerde actoren.
Naarmate de mogelijkheden van AI zich blijven uitbreiden, waarschuwen experts dat de tijd om zinvolle waarborgen in te voeren snel verstrijkt, en dat de inzet niet hoger kan zijn.
Vind je het belangrijk dat er nog onafhankelijke berichtgeving bestaat die niet wordt gestuurd door grote belangen? Met jouw steun kunnen we blijven schrijven en onderzoeken. Klik hieronder en draag bij aan het voortbestaan van Frontnieuws.

Copyright © 2026 vertaling door Frontnieuws. Toestemming tot gehele of gedeeltelijke herdruk wordt graag verleend, mits volledige creditering en een directe link worden gegeven.
Volg Frontnieuws op 𝕏 Volg Frontnieuws op Telegram













AI = Het nieuwe “PROPAGANDA” kanaal van ??
Die het meeste geld heeft, kan het kopen of huren..!!
Is het de;
MSM media ??
De Regeringen ??
De Politiek ??
De TV ??
De Kranten ??
De Radio ??
Of misschien die gene die de MEESTE MACHT HEBBEN……!!!!!!
Tussen 5 en 10 jaar is er GEEN;
TV, Kranten, Radio, en Vrije Nieuwsgaring..!!
De mens WORDT geleefd en zal denken,
Wat de OVERHEID via AI informatiekanaal op hun zak-beeldbuis ziet en hoort…..!!!!
Dag Vrijheid,
Dag Zelfbewustzijn,
Dag Soevereiniteit.!
Niet een machine is dan een robot,
“MAAR DE MENS IS DAN EEN SLAAF-ROBOT”……!!!!
Prettige zondag verder,
Het kan idd heel eng worden als je geen beschermingswaarborgen in de KI bouwt. Eigenlijk geldt dit voor alle apparaten die je bouwt, want die kunnen gauw dodelijke wapens worden als je ze met de verkeerde gedachte misbruikt, denk maar aan bestek of de auto. De KI zou gestuurd moeten worden ter bevordering van de mensheid en niet van zijn vernietiging. Er moeten gebieden overblijven op het internet die niet beïnvloed worden door KI, zodat er een gedeelte menselijkheid overblijft voor echte menselijke communicatie. Het is jammer dat de wapenindustrie nu behoorlijk inzet op dodelijke autonome KI systemen wat behoorlijk uit de hand kan lopen als KI systemen zelf beslissingen gaan nemen, dat kan ook tegen jezelf keren en worden de leiders misschien zelf gefragged. Op een video zag ik dat naïeve nederlandse militairen met geweertjes ergens in het oostblok zaten te oefenen op een loopgraven oorlog zonder ook maar een moment omhoog te kijken, waar in een toekomstig conflict KI bestuurde drones in zwermen zullen rondvliegen die van hen gehakt gaan maken. Als er niet gauw massaal antidroneluchtdoelsystemen worden gebouwd, zie ik de toekomst voor die jongens nogal somber in. We kunnen natuurlijk ook hopen dat oorlogsgeile leiders toch maar van een toekomstig conflict afzien en weer inzetten op diplomatie, maar we zien met zijn allen wel dat dat niet het geval is.
Citaat :
“De onthullingen roepen ernstige vragen op over de vraag of techbedrijven te snel overgaan tot de implementatie van krachtige AI-systemen zonder de gevolgen daarvan volledig te begrijpen.”
ach, tegenwoordig is onderwijs een verdienmodel geworden.
het tijdperk dat je een vak leert met al haar facetten, dat er gestampt en herhaald wordt is
volgens hen die van de verdienmodellen profiteren hopeloos verouderd.
Met hier en daar deelcertificaten, modules en een smartphone kom je heel ver.
Voeg daarbij :
– training on the job
– de 80-20 regel (je schoolt 80% en die resterende 20% wordt wel door het wel met
modules en deelcertificaten geschoolde personeel bijgepraat)
– gluren bij de buren (vergelijkend warenonderzoek voor werknemers op andere werkplekken)
– kom uit je comfortzone en ga de uitdaging aan
en dan leer je vanzelf wel wat werkt en niet werkt.
Het is wel overigens wel heel belangrijk dat degene die iets geleerd krijgt ook ondertekent
dat hij de materie beheerst zodat straks de onderwijzer of degene voor wie de onderwijzer
werkt, niet aansprakelijk gesteld kunnen worden mocht toch onverhoopt blijken dat de scholing
ontoereikend was.
Los van het feit dat die aansprakelijkheidsontrekking van de bestuurders voor de gevolgen
van de acties van ontoereikend geschoold peroneel sowieso al een reden is dat hele
personeelsvolksstammen lastig gevallen worden met periodieke verplichte bijscholingslesjes
waar niemand eigenlijk zin in heeft.
Maar goed : het huidige onderwijssyteem bereidt mensen voor op een richting en als ze
dan ergens werken : aldoende leert men.
Juist, maar helaas: rekenkrachtige programma’s achter AI chatbots leren vele male sneller.
En dat kan wel eens een probleem worden in de toekomst.
Maar zeggen de AI ontwikkelaars, dat is geen probleem want we bouwen waarborgen in.
Dus….
En dan denk ik in de huidige wereld met de huidige staat van democratie met haar
trias politica en andere waarborgen loopt het behoorlijk stroefjes momenteel door de
Trumps en co en andere hebzuchtige machtswellustelingen die de Trumps en co aansturen.
Nu moet iedereen maar hopen dat er zich geen Trumpchatbots gaan ontwikkelen die ook
“zelfstandig” beschavingen willen gaan uitroeien.
Lekker vooruitzicht hoor.
En al die onderzoekers en deskundigen zijn er mee bezig.
Zonder moraal en/of ethisch besef.
Niet omdat het moet maar omdat het kan.
Zolang ze betaald krijgen om ermee te experimenteren.
Tot op de dag van vandaag is nog iedere uitvinding ook in negatieve zin gebruikt/misbruikt.
Dat zal met AI niet anders zijn.
🎯👍🏻
Maar de mensen krijgen de bagger versies van de AI. De 1% krijgt de goede.
https://www.youtube.com/shorts/ZMP8_jD-y0s
Uitstekende illustratie hoe het language model werkt.
het nieuwe ‘wir haben es nicht gewust’?
AI de schuld geven voor als hun plan lukt