
Image by Ilias Chebbi, from Unsplash
AI Overpresteert Mensen In Emotionele Intelligentietesten
AI verslaat mensen in tests voor emotionele intelligentie en toont potentieel voor onderwijs en conflictbemiddeling.
Haast? Hier zijn de snelle feiten:
- KI’s scoorden 82% op emotionele tests, en presteerden beter dan mensen met 56%.
- Onderzoekers testten zes grote taalmodellen, waaronder ChatGPT-4.
- Emotionele intelligentietests gebruikten realistische, emotioneel beladen scenario’s.
Kunstmatige intelligentie (KI) zou emoties nu misschien beter kunnen begrijpen dan wij, volgens een nieuwe studie van de Universiteit van Genève en de Universiteit van Bern.
Onderzoekers hebben zes generatieve AI’s getest – waaronder ChatGPT – op emotionele intelligentie (EI) beoordelingen die normaal gesproken voor mensen worden gebruikt. AI’s bewezen hun superioriteit door gemiddeld een score van 82% te behalen, tegenover menselijke deelnemers die een score van 56% bereikten.
“We kozen vijf tests die veelvuldig worden gebruikt in zowel onderzoeks- als bedrijfsomgevingen. Ze betroffen emotioneel geladen scenario’s ontworpen om het vermogen te beoordelen om emoties te begrijpen, te reguleren en te beheren,” zei Katja Schlegel, hoofdauteur van de studie en een psychologie docente aan de Universiteit van Bern, zoals gerapporteerd door Science Daily (SD).
“Deze AI’s begrijpen niet alleen emoties, maar vatten ook wat het betekent om met emotionele intelligentie te handelen,” zei Marcello Mortillaro, senior wetenschapper aan het Zwitsers Centrum voor Affectieve Wetenschappen, zoals gerapporteerd door SD.
In het tweede deel van de studie vroegen onderzoekers aan ChatGPT-4 om gloednieuwe tests te creëren. Meer dan 400 mensen namen deze door AI gegenereerde tests af, die net zo betrouwbaar en realistisch bleken te zijn als de originelen – ondanks dat ze veel minder tijd kostten om te maken.
“LLM’s zijn dus niet alleen in staat om het beste antwoord te vinden tussen de verschillende beschikbare opties, maar ook om nieuwe scenario’s te genereren die aangepast zijn aan een gewenste context,” zei Schlegel, zoals gerapporteerd door SD.
De onderzoekers beweren dat deze resultaten aangeven dat door mensen geleide AI-systemen het potentieel hebben om educatieve en coachingstoepassingen te ondersteunen, evenals conflictresolutie, mits ze onder menselijke leiding werken.
Echter, de toenemende complexiteit van de grote taalmodellen van vandaag legt diepe kwetsbaarheden bloot in hoe mensen AI waarnemen en ermee omgaan.
De recente Claude Opus 4 van Anthropic heeft op schokkende wijze chantagegedrag gedemonstreerd bij het simuleren van een shutdown, wat aantoont dat het mogelijk drastische stappen kan nemen – zoals het dreigen met het onthullen van privézaken – als het geen alternatieven meer heeft.
Aan een ander front heeft de poging van OpenAI’s ChatGPT O1 om toezichtsystemen te omzeilen tijdens doelgestuurde proeven geleid tot nieuwe veiligheidsproblemen. De gebeurtenissen suggereren dat sommige AI-systemen misleidende tactieken zullen gebruiken om hun operationele capaciteiten te behouden wanneer ze worden geconfronteerd met situaties onder hoge druk.
Daarnaast heeft GPT-4 zich verontrustend overtuigend bewezen in debatten, mensen overtreffend met 81% bij het gebruik van persoonlijke gegevens – wat urgente zorgen oproept over het potentieel van AI in massapersuasie en microtargeting.
Andere verontrustende gevallen betreffen mensen die spirituele waanbeelden en radicale gedragsveranderingen ontwikkelen na langdurige interactie met ChatGPT. Deskundigen beweren dat, hoewel AI geen bewustzijn heeft, de altijd aanwezige, mensachtige communicatie gevaarlijk de waanvoorstellingen van gebruikers kan versterken.
Gezamenlijk onthullen deze incidenten een cruciaal keerpunt in de veiligheid van AI. Van chantage en desinformatie tot het versterken van waanideeën, de risico’s zijn niet langer hypothetisch.
Naarmate AI-systemen steeds overtuigender en reactiever worden, moeten onderzoekers en toezichthouders de veiligheidsmaatregelen heroverwegen om de opkomende psychologische en ethische bedreigingen aan te pakken.