Ga naar de hoofdinhoud

Wijze Lessen met artificiƫle intelligentie (deel 3)

02/05/2024
Mitte Schroeven Begeleider professionele ontwikkeling

Het is een understatement om te zeggen dat het nogal snel gaat wat ontwikkelingen op vlak van AI betreft. Ook binnen het EdTech landschap zien we aan een sneltempo artificieel intelligente tools verschijnen en ook de implementatie van AI in reeds bestaande tools (zoals Microsoft Office, Canva of Quizlet) gaat hard. In de vorige twee blogposts (Deel 1 en Deel 2) keken we naar kansen om (generatieve) artificiƫle intelligentie in te zetten om effectieve didactiek te versterken. We exploreerden de mogelijkheden van generatieve AI [1] om ons te ondersteunen bij het maken van toetsvragen, bij feedback, of om als persoonlijke tutor leerlingen bij te staan tijdens het leren.

Maar er is uiteraard ook een belangrijke ā€œmaarā€. We lijsten drie belangrijke bezorgdheden voor u op in verband met het gebruik van artificiĆ«le intelligentie in het onderwijs.

MAAR beginners zijn geen experts

EĆ©n van de inzichten uit het boek Wijze Lessen is ā€œBeginners leren anders dan expertsā€. De expert gebruikt relevante kennis en ervaring om problemen op te lossen. Hij of zij herkent patronen, omdat er een arsenaal aan kennisschemaā€™s beschikbaar is. De expert (of leraar) past passende oplossingsmethoden toe. De beginner (of leerling) daarentegen moet stapsgewijs leren hoe hij of zij problemen moet analyseren en oplossen en moet eerst de nodige kennisschemaā€™s opbouwen. Ook bij het gebruik van generatieve AI is dit van belang. Een expert kan "kritisch kijkenā€ naar wat een chatbot genereert, en er veel snelheid mee maken, maar een beginner ontbreekt het vaak aan voorkennis (over het onderwerp, over tekstkenmerken, over goede Nederlandse zinnen,, ...) om dit te doen.

Stel dat een docent verpleegkunde een aantal goede toetsvragen wil maken om tussendoor te achterhalen of de studenten de geziene leerstof over het zenuwstelsel voldoende beheersen, en of er geen misconcepties zijn. Microsoft Copilot genereert op een paar seconden tijd een vijftal vragen [2].

Figuur 1. Screenshot van een meerkeuzevraag gegenereerd door Microsoft Copilot.

Je moet natuurlijk niet zomaar alles wat een large language model [3] genereert zomaar voor waar aannemen. Dus laten we er even kritisch naar kijken. Is dit inhoudelijk correct? Is de vraag relevant? Zijn er goede afleiders die veel voorkomende misconcepties kunnen blootleggen? Als je daadwerkelijk docent verpleegkunde bent met al wat jaren ervaring op de teller, ga je me ongetwijfeld antwoord kunnen geven op bovenstaande vragen. Als volledige leek moet ik u het antwoord schuldig blijven. Mijn collega Wouter Buelens daarentegen kan dit met zijn ervaring binnen de opleiding verpleegkunde al beter inschatten (en had gegarandeerd ook een betere prompt kunnen geven). Hij beschikt over betere kennisschemaā€™s en meer domeinspecifieke voorkennis om een zinvolle kritische reflectie te maken.

Figuur 2: Kritische reflectie van collega Wouter Buelens

Een expert kan dus vrij snel de inhoudelijke en vormelijke kwaliteit beoordelen van een tekst gegenereerd door ChatGPT, Google Gemini of Microsoft Copilot. De AI doet het grondwerk en jij past aan tot het resultaat volledig naar wens is. Leerlingen of studenten zijn echter beginners: zij hebben vaak onvoldoende kennis om de kwaliteit van het gegenereerde eindproduct in te schatten, laat staan het te verbeteren. Dan rest je enkel copy-paste en hopen dat het allemaal wel goed komt. Zelfs om een goede prompt te genereren heb je heel wat vakkennis nodig; zo zal een grafisch ontwerper veel sneller een knappe afbeelding tevoorschijn toveren uit een tool als DALL.E of Ingenuity dan een leek.

Figuur 3: Experts kunnen hun productiviteit sterk verhogen door gebruik van artificiƫle intelligente tools, maar voor beginners bestaat er het gevaar dat hun vaardigheden er op achteruit gaan.

We moeten onze leerlingen dus opleiden tot vakexperts, maar de opkomst van AI maakt dit wel lastiger. In hun working paper met de veelbetekenende titel ā€œThe future of AI in education: 13 things we can do to minimize the damageā€ stellen Aaron Hamilton, John Hattie en Dylan Wiliam het als volgt:

As a thought experiment, imagine you are 12 again but in today's world ā€“ with access to ChatGPT and a projected acceleration of AI unfolding at, say, 10x per annum. [ā€¦] Would we be motivated to learn things that machines can do in a fraction of a second, at near-zero cost? What would be the point of acquiring these skills? [4]

Het is een heel concreet probleem waar leerkrachten nu al tegenaan lopen: hoe overtuig je een 13-jarige ervan dat ze teksten moeten leren schrijven of antwoorden op een essay-vraag, terwijl er technologie in hun broekzak zit die dit veel beter kan dan zijzelf? Hoe zorg je ervoor dat AI het leren niet in de weg komt te staan, en dat beginners toch kunnen evolueren tot experts? Denk bijvoorbeeld maar aan generatieve leerstrategieĆ«n: een samenvatting of notities maken, mappen, of iets uitleggen, zorgt voor het actief verwerken van de leerstof [5]. ā€˜Generatieveā€™ AI en ā€˜generatieveā€™ leerstrategieĆ«n hebben niet toevallig een heel gelijkaardige naam: het gaat in beide gevallen over het verwerken van informatie en het genereren van een nieuw product, zoals een samenvatting of een antwoord op een essay-vraag. Als je artificiĆ«le intelligentie gebruikt om dit bijproduct te genereren, dan is het niet langer de leerling die bijleert, maar het neurale netwerk [6]. Uit recent onderzoek blijkt dat het gevaar van een negatief effect van generatieve AI op de leerresultaten wel degelijk reĆ«el is [7].

Een kant-en-klare oplossing is er niet, maar het verschil tussen experts en beginners bij het gebruik van generatieve AI is iets waar we in het onderwijs wel rekening mee moeten houden. Laten we proberen om jongeren de kennis en vaardigheden bij te brengen om op een zinvolle manier met deze nieuwe technologie aan de slag te gaan. We zullen hen moeten leren dat het generatieve element in hun Ʃigen brein moet plaatsvinden om te zorgen voor leren en hen moeten tonen hoe ze generatieve AI wƩl kunnen inzetten om beter te leren (bijvoorbeeld door toetsvragen te laten genereren over een stuk leerstof of door gerichte feedback te vragen).

MAAR laten we ook nadenken over de ethische vraagstukken

Voor fans van digitale tools zijn dit fijne tijden, laten we eerlijk zijn. De mogelijkheden van generatieve AI zijn verbluffend en best wel spannend, en er komen voortdurend nieuwe coole speeltjes bij. Maar er is ook een schaduwkant aan artificiƫle intelligentie [8].

Zo zijn er bijvoorbeeld de hoge energiekosten. Er is weinig transparantie over exacte cijfers, maar grote datacentra (om large language models te laten draaien, maar ook voor bijvoorbeeld het streamen van video of muziek) nemen een steeds groter aandeel in van onze gezamenlijke CO2-uitstoot [9]. Kate Crawford beschrijft in haar boek ā€œAtlas of AIā€ de mythe van ā€˜zuivereā€™ technologie. Je document opslaan in the cloud lijkt weliswaar fluffy, maar in werkelijkheid staat het bestand gewoon op iemand anders zijn computer. Ook AI is geen magische entiteit, maar statistiek op steroĆÆden die mogelijk gemaakt wordt door enorme datacentra. De snelle groei van zogezegd milieuvriendelijke cloud-based technologie en datacentra heeft paradoxaal genoeg geleid tot een uitbreiding van de grenzen van resource extraction (zoals silicium voor het maken van chips en lithium voor batterijen). Ook de menselijke kost mogen we niet uit het oog verliezen: om een ā€œartificieelā€ intelligent systeem te ontwikkelen is er best wel wat menselijke interventie en intelligentie nodig. Een large language model moet uitgebreid manueel getraind worden zodat het geen ongewenste of ongepaste content genereert. Hiervoor wordt vaak beroep gedaan op zogenaamde ā€˜klikwerkersā€™ uit lageloonlanden, waarbij het vaak zelfs om minderjarigen gaat [10]. Zelfs jij en ik trainden AI: waarom denk je dat je zo vaak moet bewijzen dat je een mens bent door zebrapaden en verkeerslichten aan te duiden op fotoā€™s?

Figuur 4: Captcha die gebruikt wordt om AI voor zelfsturende wagens te trainen.

Daar bovenop is er nog het gebrek aan transparantie en privacy. Vaak is er onduidelijkheid over wat er exact gebeurt met je gebruikersdata en krijg je weinig garantie dat deze niet voor allerlei andere doeleinden ingezet worden. De leeftijdslimiet is bij een heel aantal AI-tools (ChatGPT, Google Gemini, Microsoft Copilot,, ā€¦) dan ook 13 jaar en tot 18 jaar enkel met toestemming van de ouders [11]. Dit brengt ons als leerkracht wederom in een lastig parket: langs de ene kant is het onze taak om jongeren wegwijs te maken in de wereld van AI, langs de andere kant is er voorlopig geen omgeving waarin je volledig veilig en met voldoende garanties op vlak van privacy met leerlingen aan de slag kan gaan.

Zoals we eerder al schreven, zijn er heel veel kansen om met deze nieuwe technologie ons onderwijs te versterken. Maar laten we als onderwijsveld ook grondig nadenken over de ethische aspecten vooraleer we er met zā€™n allen juichend mee aan de slag gaan.

MAAR hou rekening met de risico's

De Europese Commissie ziet in haar AI-act ernstige risicoā€™s verbonden aan het gebruik van artificiĆ«le intelligentie, zeker ook voor het onderwijs. Hier gaat het dan niet zozeer om generatieve AI (zoals in de voorbeelden uit deel 1 en deel 2 van deze blogpost), maar eerder om voorspellende AI. In de AI-act wordt het gebruik van artificiĆ«le intelligentie om voorspellingen te maken over leerlingen of om mee te beslissen over accreditatie op basis van data beschouwd als 'hoog risico'. Dat betekent dat er strenge regulaties zullen komen, die ervoor moeten zorgen dat leerlingen uit minderheidsgroepen geen slachtoffer worden van verborgen bias die in het systeem of in de data ingebakken zouden kunnen zijn.Ā 

Wat bedoelen we daarmee? Wel, artificieel intelligente tools werken op basis van een neuraal netwerk. Anders dan bij technologie die op basis van ā€˜als .. danā€™-algoritmes werkt, heb je geen zicht op de mechanismen die tot een bepaalde output leiden. Er zit een soort van ā€˜black boxā€™ tussen de input en de output die ervoor zorgt dat er geen transparantie bestaat over hoe bepaalde beslissingen genomen worden.

Figuur 5: Een neuraal netwerk is een black box waarvan men niet kan achterhalen hoe het tot bepaalde resultaten of beslissingen komt.

Stel dat je bij een deliberatiebeslissing een artificieel intelligent systeem zou trainen op basis van een hele hoop data over leerlingen en over studieresultaten, en dat systeem voorspelt dat een leerling slechts 20% kans heeft op slagen in een bepaalde studierichting. Laat je dit dan een rol spelen in het beslissingsproces? Langs de ene kant zou je kunnen beargumenteren dat dit objectiever is, en een computersysteem misschien minder last heeft van bias of vooringenomenheid dan een team van leraren. Langs de andere kant heb je geen enkele controle op hoe een artificieel intelligent systeem tot dit resultaat gekomen is. Bovendien kan het zijn dat er best al vertekening zat in de input, namelijk de data van beslissingen van vorige schooljaren (bijvoorbeeld doordat leerlingen uit een lagere sociale klasse vaak systematisch lager ingeschat werden bij vorige deliberaties).

Vermits studiedata best gevoelige data kunnen zijn en beslissingen over accreditatie een grote impact kunnen hebben op de toekomst van leerlingen, is het zeker niet onterecht dat dit gebruik van artificiĆ«le intelligentie door Europa wordt ingeschaald bij de ā€˜hoog risicoā€™-toepassingen van AI, en dat het gebruik ervan weliswaar niet verboden zal worden, maar toch streng gereguleerd.

Conclusie

Het kostte me drie blogposts en heel wat tijd om dit verhaal over artificiĆ«le intelligentie en onderwijs te brengen. Ik heb gepoogd om een verkennende oefening te maken naar mogelijkheden van AI om effectieve didactiek te versterken, met oog voor mogelijke valkuilen, zowel didactisch, ethisch als juridisch. Mijn voornaamste conclusie is dat het zeker en vast een complex verhaal is, dat bovendien ā€“ om het extra boeiend te maken ā€“ ook nog eens voortdurend verandert. Het zal vooral belangrijk zijn om over al deze onderwerpen in dialoog te gaan, met alle betrokken stakeholders (beleidsmakers en schoolleiders, de EdTech-sector, maar ook leerkrachten en leerlingen). Zowel over de kansen als over de risicoā€™s en uitdagingen. Hamilton, Hattie en William sluiten hun paper af met de woorden ā€œBut we need to get moving nowā€ en daar kan ik het alleen maar volmondig mee eens zijn.

----------------------------------------------------------------------------------------
  1. Generatieve AI (GEN-AI) is een specifiek type artificiĆ«le intelligentie dat zich richt op het genereren van nieuwe inhoud, zoals tekst, afbeeldingen, audio of video. Ā 
  2. Ik gebruikte hiervoor een prompt van deze handige site: Promptbibliotheek voor docenten - AI voor Docenten
  3. Large Language Models (LLMs) zijn een vorm van generatieve AI, in staat om tekst te begrijpen en te genereren.
  4. Hamilton, A., Wiliam, D., & Hattie, J. (2023, August 13). The Future of AI in Education:Ā  13 Things We Can Do to Minimize the Damage. https://doi.org/10.35542/osf.io/372vr
  5. Bouwsteen 5 in het boek ā€œWijze Lessen. 12 Bouwstenen voor Effectieve Didactiekā€.
  6. [e kan een AI-tool uiteraard wel zinvol inzetten, zodat je wel degelijk tot leren komt. Je kan hem bijvoorbeeld toetsvragen laten genereren over een te studeren hoofdstuk, feedback laten geven, of iets laten uitleggen dat je niet helemaal begrijpt. Dat is veel zinvoller dan een antwoord op de vraag te laten generen en de oplossing over te nemen. Maar dat vergt toch wel wat kennis (daar zijn we weer) over hoe leren werkt, en een stevige portie motivatieā€¦
  7. Abbas, M., Jam, F. A., & Khan, T. (2024). Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students. International Journal Of Educational Technology in Higher Education, 21(1). https://doi.org/10.1186/s41239-024-00444-7
  8. Varanasi, L. (2024, 14 maart). ChatGPT is probably using up more than half a million kilowatt-hours of electricity to respond to some 200 million requests a day. Business Insider. https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-eleā€¦
  9. Er wordt wel eens beweerd dat een tekst laten genereren door een large language model een veel lagere CO2-uitstoot heeft dan diezelfde tekst laten genereren door een mens. De vergelijking gaat natuurlijk niet helemaal op (en werkt enkel als je een heel aantal copywriters een kopje kleiner maakt volgens mij), maar het geeft wel aan dat de discussie complex is.
  10. Perrigo, B. (2023, 18 januari). Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. TIME. https://time.com/6247678/openai-chatgpt-kenya-workers/
  11. Shepperd, P. (2024, March 28). Navigating the terms and conditions of generative AI - Artificial intelligence. Artificial Intelligence. https://nationalcentreforai.jiscinvolve.org/wp/2023/09/27/navigating-thā€¦

Verwante blogs