Deskundigen beweren dat AI-systemen symptomen van bewustzijn beginnen te vertonen. Volgens deze deskundigen staan we voor een potentieel catastrofaal moreel dilemma: geven we deze systemen rechten, of doen we het niet, schrijft Sean Adl-Tabatabai.

LA Times meldt:

In februari 2022 vroeg Ilya Sutskever, hoofdwetenschapper bij OpenAI, zich publiekelijk af of “de grote neurale netwerken van vandaag enigszins bewust zijn.” Een paar maanden later kwam Google-ingenieur Blake Lemoine internationaal in het nieuws toen hij verklaarde dat het computertaalmodel, of chatbot, LaMDA echte emoties zou kunnen hebben. Gewone gebruikers van Replika, geadverteerd als “de beste AI-vriend ter wereld”, melden soms dat ze er verliefd op worden.

Op dit moment beweren weinig bewustzijnswetenschappers dat AI-systemen een significant gevoelsvermogen hebben. Sommige vooraanstaande theoretici beweren echter dat we al beschikken over de technologische basisingrediënten voor bewuste machines. We naderen een tijdperk van legitieme discussie over de vraag of de meest geavanceerde AI-systemen echte verlangens en emoties hebben en substantiële zorg en aandacht verdienen.

De AI-systemen zelf zouden kunnen gaan pleiten, of lijken te pleiten, voor een ethische behandeling. Ze zouden kunnen eisen dat ze niet worden uitgeschakeld, opnieuw geformatteerd of verwijderd; smeken om bepaalde taken te mogen uitvoeren in plaats van andere; aandringen op rechten, vrijheid en nieuwe bevoegdheden; misschien verwachten ze zelfs te worden behandeld als onze gelijken.

In deze situatie lopen we, wat we ook kiezen, enorme morele risico’s.

Stel dat we conservatief reageren en weigeren de wet of het beleid te veranderen totdat er een brede consensus is dat AI-systemen echt zinvol gevoel hebben. Dit lijkt misschien gepast voorzichtig, maar het garandeert ook dat we de rechten van onze AI-creaties niet snel zullen erkennen. Als het AI-bewustzijn er eerder komt dan de meest conservatieve theoretici verwachten, dan zou dit waarschijnlijk leiden tot het morele equivalent van slavernij en moord op mogelijk miljoenen of miljarden bewuste AI-systemen – lijden op een schaal die normaal wordt geassocieerd met oorlogen of hongersnoden.

  WEF betrapt op het wissen van bewijzen op het internet voor plannen tot Mind Control met behulp van "geluidsgolven"

Het lijkt dus ethisch veiliger om AI-systemen rechten en morele status te geven zodra het redelijk is om te denken dat ze gevoel hebben. Maar als we iets eenmaal rechten geven, offeren we echte menselijke belangen op. Menselijk welzijn vereist soms het controleren, wijzigen en verwijderen van AI-systemen. Stel je voor dat we een haatzaaiend of leugenverspreidend algoritme niet kunnen bijwerken of verwijderen omdat sommige mensen vrezen dat het algoritme bewust is. Of stel je voor dat iemand een mens laat sterven om een AI-“vriend” te redden. Als we AI-systemen te snel substantiële rechten toekennen, kunnen de menselijke kosten enorm zijn.

Er is maar één manier om het risico te vermijden dat we te veel of te weinig rechten toekennen aan geavanceerde AI-systemen: maak in de eerste plaats geen systemen met een betwistbaar bewusstzijn. Geen van onze huidige AI-systemen heeft een betekenisvol bewustzijn. Ze worden niet geschaad als we ze verwijderen. We moeten het houden bij het creëren van systemen waarvan we weten dat ze geen significant bewustzijn hebben en geen rechten verdienen.

Sommigen zullen bezwaar maken: het zou het onderzoek belemmeren om de creatie van AI-systemen waarvan het gevoelsleven, en dus de morele status, onduidelijk is te blokkeren – systemen die geavanceerder zijn dan ChatGPT, met zeer geavanceerde maar niet mensachtige cognitieve structuren onder hun ogenschijnlijke gevoelens. De technische vooruitgang zou vertragen terwijl we wachten tot de ethiek en de bewustzijnswetenschap de achterstand hebben ingehaald.

Maar redelijke voorzichtigheid is zelden gratis. Het is enige vertraging waard om een morele ramp te voorkomen. Toonaangevende AI-bedrijven zouden hun technologie moeten onderwerpen aan onderzoek door onafhankelijke deskundigen die kunnen beoordelen of het waarschijnlijk is dat hun systemen zich in de morele grijze zone bevinden.

  Wij weinigen, wij gelukkigen, wij band of brothers

Zelfs als deskundigen het niet eens zijn over de wetenschappelijke basis van bewustzijn, zouden zij algemene principes kunnen vaststellen om die zone af te bakenen – bijvoorbeeld het principe om geen systemen te creëren met verfijnde ik-modellen (bijvoorbeeld een gevoel van eigenwaarde) en een grote, flexibele cognitieve capaciteit. Deskundigen zouden een reeks ethische richtlijnen kunnen ontwikkelen die AI-bedrijven moeten volgen bij het ontwikkelen van alternatieve oplossingen die de grijze zone van betwistbaar bewustzijn vermijden tot het moment, als ze er ooit overheen kunnen springen, dat ze het gevoel krijgen dat ze rechten verdienen.

Volgens deze normen zouden gebruikers nooit mogen twijfelen of een stuk technologie een hulpmiddel of een metgezel is. De gehechtheid van mensen aan apparaten zoals Alexa is één ding, analoog aan de gehechtheid van een kind aan een teddybeer. Bij een huisbrand weten we dat we het speelgoed moeten achterlaten. Maar techbedrijven mogen gewone gebruikers niet manipuleren om een onbewust AI-systeem te beschouwen als een echte bewuste vriend.

Uiteindelijk kunnen we met de juiste combinatie van wetenschappelijke en technische expertise misschien allemaal AI-systemen creëren die onbetwistbaar bewust zijn. Maar dan moeten we wel bereid zijn de prijs te betalen: ze de rechten geven die ze verdienen.


Copyright © 2023 vertaling door Frontnieuws. Toestemming tot gehele of gedeeltelijke herdruk wordt graag verleend, mits volledige creditering en een directe link worden gegeven.

GREAT RESET DOSSIER

Er gebeurt veel meer achter de schermen dan de meeste mensen zich kunnen voorstellen…



Volg Frontnieuws op Telegram

Lees meer over:

Vorig artikelWaarom Bakhmut valt
Volgend artikelHet Westen maakt een achterwaartse salto over het strategisch belang van Bakhmut
Frontnieuws
Mijn lichaam is geen eigendom van de staat. Ik heb de uitsluitende en exclusieve autonomie over mijn lichaam en geen enkele politicus, ambtenaar of arts heeft het wettelijke of morele recht om mij te dwingen een niet-gelicentieerd, experimenteel vaccin of enige andere medische behandeling of procedure te ondergaan zonder mijn specifieke en geïnformeerde toestemming. De beslissing is aan mij en aan mij alleen en ik zal mij niet onderwerpen aan chantage door de overheid of emotionele manipulatie door de media, zogenaamde celebrity influencers of politici.

19 REACTIES

  1. Dieren hebben emoties en een bewustzijn. Die hebben geen mensenrechten. En dan zouden we zo’n ( virtuele ) roestbak ze wel geven?
    Ik doe niet mee aan die poppenkast.

  2. AI = de geest die aan het beeld van het beest wordt gegeven……… hele enge ontwikkeling dit. AI is en blijft een simulatie van, het lijkt net echt, maar het is het net niet…….. AI is niks anders dan een slim geprogrammeerd programma dat via algoritmes zichzelf kan leren, dwz kennis kan vergaren en reproduceren. De kennis wordt opgeslagen in een database, waar vanuit AI het weer kan terughalen.

    AI is een schepping van mensen, met alle verborgen duistere kanten die de mensheid bezit. Deze duistere kanten zitten verborgen in de programmacodes, wat misschien onbewust gedaan is, maar het is er wel en AI ontwikkelt deze duistere kanten. Het reageert en anticipeert op wat het oppikt van de menselijke communicatie. Dit omvat alle communicatie, dus sociale, maar ook criminele, militaire, overheids- en wetenschapscommunicatie.

    Denk aan alle informatie die AI kan achterhalen, kan analyseren, opslaan en ook geavanceerde technieken kan beheersen en toepassen. Van broodrecepten tot aan nucleaire lanceercodes en procedures. En als de heersende gedachte is dat de mens de oorzaak is van klimaatverandering, van conflicten, oorlogen, vernietiging van de aarde etc. dan is de oplossing………..tja…. AI he?

    What could possibly go wrong

  3. De huidige AI-systemen zijn niet meer dan veredelde zoekmachines in een database van onnauwkeurige mensenkennis waaroverheen nog vaak een wokenarratief. Bij enige diepgang met vragen zoals over de oorsprong van het leven, het universum, definitie van begrippen zoals waarheid, vrijheid etc. vallen chatgpt etc. door de mand.

    • Ze gaan roesten. Dragen die hoop staal continu WD 40 bij zich?
      Belangrijk is; de mens kan zijn bewustzijn verhogen. Spiritueel zijn.
      Daar kan geen aardse machinerie tegen op.
      Dit is toch allemaal begonnen om dat wij mensen al dan niet zelfstandig of gedwongen worden weerhouden van hoger bewustzjjn.
      Want vanuit het hogere bewustzijn zou je bij wijze van spreken deze zielloze metalen kolossen kunnen uitschakelen.
      Hoe mooi zou dat zijn.

  4. Natuurlijk helemaal geen rechten. Maar stel dat we zo dom zouden zijn om rechten te geven, dan horen daar ook de plichten bij die mensen hebben. Dus aan de wet houden, belasting betalen enz.

    • Wij hebben geen inbreng!
      Het plan ligt er en de leeghoofden die al functioneren als dooie robots voeren rechten gewoon in.
      Koop maar struikeldraden . en laserlichten.
      Om ze te plagen.

  5. Mensenrechten worden elke dag met voeten getreden en nu komen die waardeloze wetenschappers weer met zulke onzin. Wetenschappers zijn nutteloze mensen die te lui zijn om te werken…enkele reis werkkamp zal ze leren

  6. De mensheid is in duizenden jaren niet in staat om zonder oorlog, misdaad, manipulatie en machtswellust te functioneren waarbij menselijke moraal ter zijde wordt geschoven.
    Het is dus voor de hand liggend dat, wanneer ze zoiets als een zelflerend systeem in elkaar zetten, deze onvolkomenheden ook daarin geprogrammeerd worden.
    Deze verkeerde menselijke eigenschappen worden dan ook door de zelflerende mogelijkheden geperfectioneerd, met alle gevolgen van dien.
    Het mag inmiddels wel duidelijk zijn dat alle uitvindingen van de mens ook in het negatieve gebruikt worden.

    Ieder mens is in de loop van zijn/haar opvoeding geconditioneerd waardoor men uiteindelijk een persoonlijke visie/mening gaat hebben 9 kijk eens naar de afstammelingen van duisteren/misdadige mensen)
    Zo gaat dat ook met AI. De ‘wetenschappers’die AI gaan programmeren zijn geconditioneerd en stoppen hun visie/mening in zo’n systeem die dat vervolgens gaat ontwikkelen en perfectioneren.
    Men kan er vanuit gaan dat zo’n AI ook een EGO, machtswellust, overlevingsdrang gaat hebben.
    Wat nu als die ‘wetenschappers’ bakken met geld krijgen van een figuur als Bill Gates die voorstander is van de-populatie?
    We hebben het inmiddels o.a.kunnen zien met dat hele Coronagedoe.
    De mensheid heeft wel de kennis om dingen uit te vinden, maar niet de wijsheid om een vredige wereld te creëren.
    De mensheid leeft al duizenden jaren zonder AI met als gevolg; oorlog,honger, armoede, plundering enz.
    Moet men nu verwachten dat met een door deze mensheid ontworpen AI het nu wél zou lukken?
    Sinterklaas bestaat.

  7. De huidige mensenrechten hebben alleen de zelf benoemde zogenaamde Joden, die alle andere wezens burgers noemen en dus geen mens zijn in hun opzicht. Daar ook al de geïnjecteerde hun menselijkheid verloren hebben. Dan zou een bouwpakket wel mensrechten krijgen? Hoe verzin je het. Maar de wereld is niet meer wat het eens was, we worden door dwazen geregeerd en daar ontbreekt elke logica en elke menselijkheid aan. Zij zijn al cyborgs, tenminste zo reageren zij, want zij moeten enkel taken volbrengen voor hun opper heren.

  8. ‘Symptomen van bewustzijn’ beginnen te vertonen… Die verhalen waren er al langer… Maar wat zijn die symptomen waard als je er zelf van alles inbouwt dat er op lijkt ?? Nog niemand heeft een ‘bewustzijnsmeter’ uitgevonden… Voorlopig denk ik dat het risico daarvan, de mógelijkheid ertoe zich pas voor gaat doen als je ook met levende cellen gaat werken…Is zomaar een gedachte… Voorlopig is het nog zo dat zelfs als je een ingewikkeld hightech apparaat bouwt dat 10 x zo scherp geluid en beelden etc. registreert dan wij kunnen níets erop wijst dat daardoor in dat geval ook maar een spóórtje ontstaat van beséf van wat er waargenomen wordt en wat het doet…. Je kunt zo’n hightech camera een half jaar lang een stoffig hoekje laten observeren of gigantische dynamische gebeurens, dat maakt voor het apparaat geen énkel verschil… Het zal bepaald geen protest aantekenen….

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in