Vervangt AI docenten bij leren van volwassenen?

Verleden week gaf Donald Clark tijdens de Next Learning aan dat docenten op termijn weleens overbodig kunnen worden bij het leren van volwassenen. Artificiële intelligentie wordt immers steeds krachtiger en kan werkzaamheden zoals het geven van instructie, het geven van feedback en het beoordelen van het geleerde overnemen van mensen. Volgens mij is er een aantal redenen waarom docenten ook bij het leren van volwassenen onmisbaar zullen blijven.

3D render of artificial intelligence on a hype cycle, on a dark purple background, digital art
Dall-E:3D render of artificial intelligence on a hype cycle, on a dark purple background, digital art

De eerste reden heeft te maken met de werkzaamheden van een docent. Bryan Alexander heeft de werkzaamheden op een rij gezet die docenten zullen blijven uitvoeren. Hij kijkt naar docenten in het algemeen. Veel werkzaamheden zijn ook relevant voor het leren van volwassenen. Bijvoorbeeld lerenden leren hoe zij goede ‘prompts’ moeten formuleren, een kritische houding ten opzichte van technologie bevorderen, samenwerkend leren faciliteren (toepassingen als ChatGPT werken vooral met individuele lerenden), ondersteunen bij het samenstellen van leertrajecten, nieuwsgierigheid bevorderen, lerenden motiveren om te leren en ‘modelling’.

De tweede reden heeft te maken met voorkeuren en eigenschappen van volwassenen. Mensen geven vaak de voorkeur aan menselijke interactie. Dat zie je bijvoorbeeld aan het gebruik van chatbots. Op een gegeven moment wil je ook geholpen worden door een mens. Mensen willen ook spontaan interacteren, en informele gesprekken voeren. Bepaalde gesprekken verlopen ook meer soepel als je elkaar ziet en hoort. Ondanks dat we veel werkzaamheden prima op afstand kunnen uitvoeren, gaan we toch regelmatig naar een locatie om anderen te ontmoeten. Volwassen lerenden hebben niet voor niets moeite om asynchrone online cursussen met succes af te ronden. Zij hebben vaak moeite om volledig zelfgestuurd te leren. Aansporingen van een computerprogramma zijn dan makkelijker te negeren dan aansporingen van een docent van vlees en bloed. Verder kunnen volwassen lerenden ook te maken hebben met emotionele of complexe problemen die menselijke communicatie noodzakelijk maken.

De derde reden is dat je vanuit drie theorieën/modellen op het gebied van communicatie kunt concluderen dat AI zich voorlopig nog niet kan meten met een docent van vlees en bloed. Ik heb ChatGPT gevraagd: Welke communicatie- of psychologische theorieën bestaan er over interactie tussen mensen en computers? Vervolgens heb ik ChatGPt gevraagd zichzelf vanuit drie theorieën/modellen te beoordelen. De output heb ik gecheckt:

De Social Presence Theory stelt dat media verschillen in hun vermogen om sociale aanwezigheid over te brengen. Het gevoel van “er zijn” met anderen is een belangrijk element bij online leren. Het is de vraag of AI-toepassingen een gevoel van sociale aanwezigheid weten te bevorderen. Bij videoconferencing is dit gevoel er wel, ook afhankelijk van hoe je videoconferencing gebruikt. Maar is AI ook in staat rekening te houden met non-verbale signalen?

ChatGPT noemt de volgende beperkingen als het gaat om het faciliteren van “sociale aanwezigheid” :

  1. Geen non-verbale communicatie: ChatGPT communiceert uitsluitend via tekst, maar kan niets met non-verbale signalen zoals gezichtsuitdrukkingen of lichaamstaal. Deze signalen zijn cruciaal voor het interpreteren van intentie, emotie en betekenis in menselijke communicatie.
  2. Geen emoties: Hoewel ChatGPT empathische of emotioneel geladen antwoorden kan genereren, heeft het zelf geen emoties. Het is geprogrammeerd om menselijke taal na te bootsen, maar het heeft geen bewustzijn, gevoelens of intenties.
  3. Geen bewustzijn: ChatGPT is niet bewust van zichzelf of zijn gesprekspartner. Het kan gesprekscontext behouden en gebruiken om relevante antwoorden te genereren, maar het begrijpt de context en de betekenis van zijn communicatie niet op dezelfde manier als mensen.
  4. Beperkte context en begrip: ChatGPT kan soms verkeerde of irrelevante antwoorden geven omdat het niet altijd in staat is om de volledige context of nuances van een vraag of opmerking te begrijpen.

De Media Richness Theory stelt dat verschillende communicatiemedia variëren in hun “rijkdom” of het vermogen om informatie over te dragen op een manier die begrip en samenwerking bevordert. Rijkere media, zoals face-to-face communicatie, worden beschouwd als beter geschikt voor complexe of emotioneel geladen boodschappen, terwijl minder rijke media, zoals e-mail, geschikter kunnen zijn voor eenvoudige of feitelijke informatie. AI-toepassingen zijn waarschijnlijk “rijker” dan media als email, maar “armer” dan bijvoorbeeld fysieke gesprekken. Dat blijkt ook als je ChatGPT vraagt om zichzelf te beoordelen op “media rijkdom”:

  1. Medium: ChatGPT communiceert via tekst, wat het een minder rijk medium maakt in vergelijking met face-to-face communicatie, videoconferenties of zelfs telefoongesprekken. Het ontbreken van non-verbale signalen, zoals gezichtsuitdrukkingen, lichaamstaal en toon van stem, kan de mogelijkheid om complexe of emotioneel geladen boodschappen over te brengen beperken.
  2. Snelheid van feedback: ChatGPT kan snel en in real-time reageren op vragen en opmerkingen van gebruikers. Dit aspect van onmiddellijke feedback kan de rijkdom van het medium enigszins vergroten en effectieve communicatie bevorderen.
  3. Persoonlijke focus: Hoewel ChatGPT gepersonaliseerde antwoorden kan geven op basis van de informatie die door gebruikers wordt verstrekt, heeft het geen emoties of bewustzijn. Dit betekent dat het empathie en emotionele betrokkenheid mist, wat de rijkdom van het medium kan beperken, vooral bij emotioneel geladen of complexe onderwerpen.
  4. Natuurlijk taalgebruik: ChatGPT kan gebruik maken van een breed scala aan taal- en communicatiestijlen, van formeel en informatief tot informeel en humoristisch. Dit aspect van taalvariëteit kan bijdragen aan de rijkdom van het medium door de mogelijkheid om verschillende soorten informatie en boodschappen over te brengen.

Over het algemeen kan ChatGPT als een minder rijk medium worden beschouwd in vergelijking met andere communicatiemethoden die non-verbale signalen en een hogere mate van emotionele betrokkenheid bevatten.

Het Technology Acceptance Model is een model dat factoren onderzoekt die de acceptatie en het gebruik van technologieën beïnvloeden. Dit model stelt dat gebruiksgemak (hoe gemakkelijk een technologie te gebruiken is) en waargenomen nut (hoe nuttig de technologie wordt geacht) de belangrijkste determinanten zijn van acceptatie van technologie. Toepassingen als ChatGPT scoren op beide aspecten hoog. Dat blijkt ook uit de explosieve groei van deze toepassing. Bovengenoemde beperkingen, plus de huidige beperkingen op het gebied van privacy, onnauwkeurigheid en originaliteit, belemmeren de acceptatie echter. Met name op het gebied van leren en ontwikkelen speelt dit waarschijnlijk een belangrijke rol. We kunnen nog niet vertrouwen op AI-toepassingen als docent.

Er wordt al vele jaren gediscussieerd over de vraag of AI docenten gaat vervangen. Zie bijvoorbeeld Online Educa Debate: Kan kunstmatige intelligentie docenten vervangen? #OEB16. Volgens mij zijn er tal van redenen waarom dit niet zal gaan gebeuren. AI kan docenten wel assisteren, en hopelijk de werkdruk van docenten verlichten.

Mijn eerdere bijdragen over ChatGPT

 

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.