
Hoe TU/e-docenten omgaan met AI-gebruik van hun studenten
Studenten gebruiken steeds vaker AI om mee te studeren. Het kan ze helpen met leren of tentamens oefenen, maar er zijn ook studenten die hele opdrachten door AI laten maken. Vier docenten van de TU/e vertellen hoe ze AI-gebruik signaleren en wat ze wel en niet toestaan, of juist stimuleren in hun colleges.
‘Schrijf de observaties in een menselijke toon, alsof een student het heeft geschreven.’ Dit soort prompts kunnen studenten soms gebruiken om een door AI gegenereerde tekst zo veel mogelijk te laten lijken alsof die door henzelf geschreven is.
Data science-docent bij Mathematics & Computer Science Natalia Sidorova weet dat het in haar vak is gebeurd, omdat de prompt in de opmerkingen van een ingeleverde tekst van een student stond.
“Ik kon het niet geloven. De student leek de gegenereerde tekst niet eens zelf nagelezen te hebben.” Dergelijke gevallen worden gemeld bij de examencommissie en kunnen leiden tot sancties.
Sinds dit jaar krijgen studenten bij haar vak voor de opdracht geen cijfer meer, maar een voldoende, onvoldoende of goed. Als ze een onvoldoende krijgen, halen ze het volledige vak niet; bij een goed krijgen studenten een bonus bovenop hun cijfer.
De aanpassingen waren volgens Sidorova nodig vanwege het razendsnelle tempo waarmee de technologie zich ontwikkelt. Zo testte ze bijvoorbeeld een van haar opdrachten in 2024, aan het begin van het collegejaar, door ChatGPT die te laten oplossen. Dat lukte de bot niet. Maar binnen een paar maanden veranderde dat: “In december kon ChatGPT een groot deel van de opdracht oplossen.”
Voor docenten is het volgens Sidorova heel moeilijk om erachter te komen waarvoor studenten AI precies hebben gebruikt bij een opdracht. Ze heeft er geen bezwaar tegen als ze de tool gebruiken voor bijvoorbeeld taalcorrecties, het vinden van fouten in code of als sparringpartner om mee te brainstormen.
Leermodule
Om een strategie te kunnen ontwikkelen voor AI in onderwijs en daarmee studenten te helpen AI op een verantwoorde manier te gebruiken, startte Sidorova het project AIDE binnen DRIVE; een programma voor onderwijsinnovatie. “Daarvoor zijn we eerst begonnen met kijken waar we eigenlijk staan.”
De eerste resultaten wijzen erop dat veel studenten AI vooral als hulpmiddel gebruiken en minder als ‘shortcut’ en dat zij zich bewust zijn van de gebreken van de tools. Wel lijkt er bij sommige groepen een correlatie te zijn tussen AI-gebruik en slechtere tentamenresultaten, “maar dat moeten we nog verder analyseren.” Sidarova hoopt uiteindelijk een soort leermodule te ontwikkelen op basis van haar bevindingen.
Ook Joep Frens en Janet Huang van Industrial Design zien het AI-gebruik toenemen, zowel bij hun eigen vakken als bij de casussen die binnenkomen bij de examencommissie, waar ze allebei lid van zijn.
Frens zag sinds het uitkomen van ChatGPT 3.5 in 2022 het schrijfwerk van zijn studenten drastisch verbeteren: “Het werd van de ene op de andere dag perfect.” Ook is het gebruik van AI vaak te zien aan bronvermeldingen die refereren aan bronnen die helemaal niet bestaan.
AI-gebruik onderdrukken is volgens Frens geen optie, omdat hij dat onmogelijk acht. “Zolang het mogelijk blijft om iets te genereren, zullen mensen dat doen.” Hij zou liever studenten beter willen opleiden in het verantwoord gebruik van de technologie. Zo kijkt ook Huang ernaar. Zij vindt het in sommige gevallen niet erg als studenten AI gebruiken, zolang ze er maar eerlijk over zijn. “Ze moeten transparant zijn over hoe ze het gebruiken.”
Wat wel en niet is toegestaan en hoe groot het ‘gevaar’ is dat studenten verslagen of opdrachten in zijn geheel genereren wisselt per les die de docenten geven. Voor een vak dat ze samen geven met hun collega Kristina Andersen is er het risico dat studenten op een verkeerde manier gebruiken heel klein.
AI-resistent
Het gaat om het vak Digital Craftmanship, waar ze de beoordelingsmethode Annotated Portfolio gebruiken, die Andersen ontwikkelde. Studenten moeten daarvoor elke stap in het ontwerp- en maakproces visueel maken en beschrijven. Andersen ontwikkelde de methode lang voordat AI groot begon te worden, aldus Frens, maar de methode blijkt van nature AI-resistent.
“Je kan het ontwerpproces niet namaken; je moet het daadwerkelijk doorlopen om er iets zinnigs over te kunnen vertellen”, vertelt hij. De methode dwingt studenten na te denken over hun keuzes, inclusief hoe zij AI wel of niet inzetten.
Als ze het wel gebruiken, is het belangrijk dat studenten hun leerproces niet uitbesteden aan AI, benadrukt Huang. “We willen er zeker van zijn dat een diploma naar de student gaat, en niet naar een AI-agent”, valt Frens haar bij.
Een heel andere ervaring dan de voorgaande docenten heeft Bert Sadowski, professor bij Industrial Engineering & Innovation Sciences (IE&IS). Bij zijn vak ‘Economic policy in practice: social cost benefit analysis’ ziet hij dat studenten nog veel vaardigheden missen op het gebied van AI en ze het juist maar weinig inzetten.
Vorig jaar nog, hadden de studenten zijn opdracht zo in ChatGPT kunnen zetten om tot antwoorden te komen, “maar niemand deed het. Ze dachten er niet aan”, aldus Sadowski. “Ik vond het teleurstellend, ik dacht dat ze al veel verder waren.”
Syllabus-check
Bert Sadowski leidt een taskforce van IE&IS die zich bezighoudt met AI in het onderwijs en werkt aan richtlijnen. Daarvoor ontwikkelde hij ook een chatbot-concept met prompt, waarmee docenten van de faculteit kunnen controleren hoe AI-proof hun syllabi zijn.
“De bot gaat door de syllabus heen en zegt: dit is een opdracht om thuis te maken, de kans dat studenten daarvoor AI gebruiken is waarschijnlijk 80 tot 90 procent, gebruik hem daarom niet.” Daarna geeft de prompt advies over wat voor voor type opdracht geschikter zou zijn.
Sadowski heeft geprobeerd om de syllabus-check universiteitsbreed uit te rollen, maar dat is door beperkingen van Microsoft Copilot en problemen met toegang en rechten vooralsnog niet gelukt.
Toch wilde Sadowski dit jaar geen risico nemen, omdat hij de kans dat studenten nu wel AI zouden gebruiken te groot vond. Studenten moeten de opdracht nu in Excel uitvoeren terwijl hij toekijkt.
Zijn vak heeft hij in verschillende lagen opgebouwd, waarbij hij AI langzaam integreert. De Excelberekeningen moeten de studenten zonder AI doen, dat is de eerste fase. Daarna krijgen ze een introductie in AI, waarbij ze leren over passief en actief prompten. Dan mogen ze optioneel AI gebruiken en aan het eind van het vak volgt een opdracht waarbij AI-gebruik verplicht is.
In die laatste fase moeten de studenten een website maken. “Ik vroeg de studenten of ze daarvoor vibe coding (coderen met behulp van AI) hadden gebruikt – niemand.” Weer had hij andere verwachtingen.
Volgens Sadowski is het heel belangrijk dat studenten naast de vakinhoud ook AI-vaardigheden onder de knie krijgen, omdat ze dat in de toekomst nodig zullen hebben. Ze moeten leren de technologie kritisch en verantwoord te gebruiken, vindt hij.
Passieve prompts
Studenten gebruiken AI volgens Sadowski daarnaast nu vaak nog te oppervlakkig. “Ze gebruiken vooral passieve prompts.” Daarmee bedoelt hij prompts als ‘maak een samenvatting’ en ‘geef suggesties’, maar studenten zouden actieve prompts moeten gebruiken, stelt hij, waarbij ze duidelijke criteria moeten geven, en de AI vragen om te redeneren op basis van inhoudelijke concepten.
“Daarmee krijg je veel betere resultaten en heb je meer controle over de output.” Actief prompten ziet hij als een moderne academische vaardigheid, net zo belangrijk als schrijven of data-analyse.
Niet alleen studenten kunnen wat Sadowski betreft nog wat leren op AI-gebied, ook docenten zouden er meer over moeten leren. Daarvoor zou hij graag een AI-competentiecentrum zien op de universiteit. Maar of dat er komt en in welke vorm is niet duidelijk, wel onderzoekt Carlo van de Weijer van EAISI welke rol het AI-instituut daar eventueel in zou kunnen spelen.




Discussie