Home / Blog / AI-agency als verantwoordelijkheid van de universiteit

AI-agency als verantwoordelijkheid van de universiteit

LATER LEZEN

Zorgen over AI en onderwijs richten zich aanvankelijk vooral op consequenties voor toetsing: wat is onderwijs nog als studenten alles met ChatGPT kunnen schrijven? Nu gaan berichten vaak over cognitieve achteruitgang, zoals dit artikel dat ik vanochtend kreeg toegestuurd met de heldere kop ‘College Students Losing Ability to Participate in Class Discussions Because They Offloaded Their Thinking to AI’.

De toon is alarmistisch en overdreven (“students from all layers of society have become empty vessels that parrot the outputs of AI without critically engaging with the subject matter at hand”). Toevallig las ik vanochtend ook een ander artikel over de cognitieve kosten van AI, waarin verschillende concepten over AI en kenniswerk ontleed worden en vanuit een ander perspectief bezien worden.

Auteur Johannes Kleske noemt zichzelf een kritische futurist en wijst op een blinde vlek: al die concepten zijn diagnoses van het individuele brein, terwijl de omstandigheden die deze effecten veroorzaken organisatorisch van aard zijn. Hij heeft het dan over de bedrijven waarin AI gebruikt wordt, maar wat betekent zijn analyse voor het hoger onderwijs en de manier waarop universiteiten omgaan met AI?

Cognitive offloading
Het eerste concept is redelijk neutraal en gaat over het uitbesteden van mentale processen aan externe hulpmiddelen: dingen opschrijven in plaats van ze te onthouden of een rekenmachine gebruiken in plaats van hoofdrekenen. We zijn daarover niet in paniek, al is het altijd goed om op te merken (zoals Kleske doet) dat Socrates naar verluid mopperde over het verlies van onze geheugenvaardigheden dankzij de uitvinding van het schrift.

Mensen hebben altijd al hun geest op deze manier uitgebreid. AI is wat dat betreft gewoon een ontwikkeling in die lijn, geen breuk.

Cognitive debt
Het tweede concept is een stapje erger. ‘Cognitieve schuld‘ werd gemunt in 2025 en verwijst naar wat er gebeurt als we het denken overslaan en direct naar het antwoord gaan, zonder dus de antwoorden te begrijpen. Het lijkt op het concept technische schuld in softwareontwikkeling, als een team code levert zonder degelijke architectuur.

Kleske plaatst een belangrijke kanttekening:

“The metaphor is useful, but it has a blind spot. Technical debt is a conscious trade-off. A team decides to ship fast and clean up later. Cognitive debt, in most cases, is not that. It accumulates under pressure, not by choice: forty more emails, three more deliverables due by Friday. The distinction matters.”

Cognitive atrophy
Hier gaat het alarm luider rinkelen. Aftrofie is een medische term die gebruikt wordt als je spieren wegteren. Het gaat dus om schade die niet meer terug te draaien is. Cognitieve atrofie blijkt bijvoorbeeld uit onderzoek onder kenniswerkers die een  vermindering van hun kritisch denkvermogen rapporteerden, vooral bij routinetaken.

Kleske werpt tegen dat zulke effecten contextafhankelijk zijn. AI helpt juist bij leren als gebruikers dat willen. AI wordt pas een sluiproute als organisaties output boven begrip stellen – een belangrijke waarschuwing voor universiteiten waar we sterk leunen op het schrijven van papers als manier om leerdoelen te toetsen.

Cognitive drift
Waar atrofie een meetbare achteruitgang impliceert, suggereert cognitief afdrijven een geleidelijke, onmerkbare verschuiving. De erosie van hogere-orde vermogens zoals systeemdenken en veerkracht komt niet door dramatische gebeurtenissen, maar door de stille opeenstapeling van kleine concessies: hier een prompt, daar een geautomatiseerde samenvatting, een beslissing gedelegeerd omdat de agenda vol zat.

Kleske wijst op het fatalisme van de term:

“Offloading was something you do. Debt was something you accumulate. Atrophy was something that happens to you. Drift is something you do not even notice.”

Cognitive surrender
De laatste in het rijtje is volledig defaitistisch. Overgave is een woord uit een studie naar de manier waarop AI menselijk redeneren opnieuw vormgeeft. Op een bepaald moment geven mensen zich over aan het systeem, dat waren vooral deelnemers met “higher trust in AI and lower need for cognition and fluid intelligence”. Ze plaatsen dan meer vertrouwen in AI dan in collega’s.

Agency
Het valt Kleske op dat het probleem steeds bij het individu wordt gelegd:

“You are offloading too much. You are accumulating debt. Your skills are atrophying. The prescription, implicitly, is personal too: be more disciplined, think harder, resist the shortcuts.”

Elk van deze vijf concepten gaat in zekere zin over handelingsvermogen, zoals Kleske laat zien met deze handige tabel.

Concept Wat er gebeurt Jouw handelingsvermogen
Cognitief uitbesteden Je delegeert mentale taken aan tools Actieve keuze
Cognitieve schuld Je slaat het denken over voor snelheid Keuze onder druk
Cognitieve atrofie Je redeneren verzwakt door gebrek aan gebruik Passieve achteruitgang
Cognitief afdrijven Hogere-orde denken erodeert onmerkbaar Onopgemerkt
Cognitieve overgave Je houdt op met het handhaven van een onafhankelijk oordeel Capitulatie

Maar een individu gaat over tot deze shortcuts vanwege specifieke werkomstandigheden. Mensen hebben een volle inbox, een naderende deadline. We maakten al ‘cognitieve compromissen’ lang voordat ChatGPT uitrolde, schrijft Kleske. Het is precies ook wat managers doen: ze delegeren taken zodat ze zich er zelf niet mee bezig hoeven te houden. Hij noemt het een “rationele reactie op een systeem dat nooit ruimte heeft gemaakt voor het denkwerk waarvan het verlies nu wordt betreurd”.

Implicaties voor het hoger onderwijs
Als gedelegeerde van de Examencommissie spreek ik voortdurend studenten die oneigenlijk gebruik hebben gemaakt van AI in het onderwijs. Bijna allemaal geven ze aan dat ze onder tijdsdruk stonden. Daarnaast is er sprake van veel ongemerkte AI-inzet: studenten gebruiken bijvoorbeeld een online vertaaltool zonder te weten dat deze AI-componenten bevat. De context van het gebruik is dus relevant. Als het belangrijkste toetsmoment in een vak één groot paper is, werken we dan niet verkeerd gebruik van AI in de hand?

De inzichten van Kleske wijzen op het belang van het ontwikkelen van AI-agency: mensen zouden bewust moeten kiezen hoe ze AI inzetten, zonder zich erin te verliezen. Dit idee sluit goed aan bij dat van AI-geletterdheid. Eerder ontwikkelde ik samen met collega’s een voorstel voor een AI-index die daar stapsgewijs naartoe werkt, in een eigen aparte leerlijn. AI-geletterdheid is precies de tegenbeweging tegen de escalatie hierboven: studenten leren herkennen wanneer ze aan het uitbesteden, afkalven of capituleren zijn.

De vraag die nu voor universiteiten ligt is: hoe richten wij onderwijs en toetsing zo in dat AI studenten helpt om beter te denken in plaats van minder? De voorgestelde AI-index (met duidelijke niveaus van ‘geen AI’ tot ‘AI als co-piloot’ en bijbehorende eisen rond proces, monitoring en reflectie) past daar goed bij. Per opdracht kunnen docenten kiezen welk soort denkwerk hij vereist en welke AI-ondersteuning en -verantwoording daarbij passend zijn, terwijl studenten steeds worden aangemoedigd om zichtbaar zelf te blijven nadenken.