
Image by Dr. Frank Gaeth, from Wikimedia Commons
Zweedse Premier Bekritiseerd Voor Het Gebruik Van ChatGPT In Regeringsbeslissingen
De Zweedse premier Ulf Kristersson kreeg kritiek nadat hij toegaf ChatGPT te gebruiken om ideeën te genereren voor overheidsbeslissingen.
Haast? Hier zijn de snelle feiten:
- Zweedse premier geeft toe ChatGPT te gebruiken voor politieke besluitvorming.
- Zijn woordvoerder beweert dat er geen gevoelige gegevens worden gedeeld met AI-tools.
- Critici zeggen dat het gebruik van AI in de overheid gevaarlijk en ondemocratisch is.
De Zweedse premier Ulf Kristersson krijgt te maken met toenemende publieke verontwaardiging nadat hij heeft onthuld dat hij ChatGPT en LeChat gebruikt om zijn officiële besluitvormingsproces te ondersteunen.
“Ik gebruik het zelf vrij vaak. Als niets anders dan voor een tweede mening,” zei Kristersson zoals gerapporteerd door The Guardian. “Wat hebben anderen gedaan? En moeten we het volledig tegenovergestelde denken? Dat soort vragen.”
Zijn uitspraak veroorzaakte een terugslag, waarbij Aftonbladet hem beschuldigde van het vallen voor “de AI psychose van de oligarchen”, zoals gerapporteerd door The Guardian. Critici beweren dat het vertrouwen op AI voor politiek oordeel zowel roekeloos als ondemocratisch is.
“We moeten eisen dat betrouwbaarheid kan worden gegarandeerd. We hebben niet gestemd voor ChatGPT,” zei Virginia Dignum, hoogleraar verantwoordelijke AI aan de Universiteit van Umeå.
Kristerssons woordvoerder, Tom Samuelsson, bagatelliseerde de controverse en zei: “Natuurlijk is het geen veiligheidsgevoelige informatie die daar terechtkomt. Het wordt eerder gebruikt als een ballpark,” zoals gemeld door The Guardian.
Maar technologie-experts zeggen dat de risico’s verder gaan dan gevoeligheid van gegevens. Professor Simone Fischer-Hübner van de Karlstad Universiteit raadt het gebruik van ChatGPT en vergelijkbare tools voor officiële werktaken af, zoals opgemerkt door The Guardian.
AI-onderzoeker David Bau heeft gewaarschuwd dat AI-modellen gemanipuleerd kunnen worden. “Ze hebben een manier getoond voor mensen om hun eigen verborgen agenda’s in de trainingsdata te sluizen, wat erg moeilijk op te sporen zou zijn.” Onderzoek toont een succespercentage van 95% aan in het misleiden van AI-systemen door middel van geheugeninjectie of “Rules File Backdoor” aanvallen, wat angsten oproept over onzichtbare interferentie in politieke besluitvorming.
Verdere risico’s komen voort uit het potentieel van AI om de democratie te ondermijnen. Een recente studie waarschuwt dat AI-systemen in de rechtshandhaving de macht concentreren, het toezicht verminderen en mogelijk autoritarisme bevorderen.