The Good, the Bad and the Limitations of AI in Education #oeb22

Deze sessie ging over de mogelijkheden en valkuilen van het gebruik van AI en machine learning voor het verbeteren van leren, opleiden en onderwijs. Beperkingen kwamen ook aan bod, net als de toegevoegde waarde van het menselijk brein.

Ik heb de volgende wetenswaardigheden genoteerd:

  • We bevinden ons in het late Turing tijdperk. Informatie is met name digitaal beschikbaar. Mensen beschouwen computers als verlengstuk van zichzelf. Feiten zijn altijd en overal beschikbaar. Een boek is dood als medium, wordt weleens gesteld.
  • Er zijn nieuwe poortwachters die toegang geven tot gegevens: zoekmachines, algoritmes. Een risico hiervan is wel dat mensen informatie zoeken die bevestigen wat zij al denken. AI is vol met biases.
  • Binnen het onderwijs wordt de docent als poortwachter van informatie overbodig. Het verkrijgen van informatie verloopt dankzij AI namelijk veel sneller.
  • Maar onderwijs gaat niet over het verkrijgen van informatie. Het gaat om kritisch denken, evalueren, en om alternatieven te bedenken. Daar heb je mensen voor nodig. Het menselijk brein kan kennis ook transporteren naar andere domeinen. Zo kun je een tweede programmeertaal veel sneller leren dan de eerste programmeertaal. Neuronetwerken zijn daar niet goed in.
  • Kennis halen uit een boek is complexer dan je denkt. Het verloopt trager, bevordert transfer en kritisch denken. Het gebruik van nieuwe media verloopt veel sneller, maar je gaat er minder kritisch door denken. AI kan de illusie scheppen dat je snelle antwoorden voor complexe problemen kunt vinden. Mensen zijn ook niet in staat om al die informatie te verkrijgen. Het boek is wellicht dood. Maar leve het boek.
  • Er is sprake van zwakke AI (niet bewust, ondersteunen van mensen bij beperkingen) en sterke AI (zelfde intellectuele capaciteiten dan mensen; bestaat nog niet). Eén van de sprekers liet voorbeelden zien van zwakke AI. Bijvoorbeeld de app Seeing AI. Blinden kunnen daarmee beschrijvingen krijgen van situaties. Een ander voorbeeld is Speaksee. Deze app voor doven en slechthorenden laat zien wat wordt beschreven.
  • We moeten vooral kijken naar de bekwaamheden van mensen om om te gaan met AI. Dat betekent begrip hebben van AI (in de basis), nieuw begrip ontwikkelen van de interactie tussen mensen en computers (ethiek) en in staat zijn om leren te heren.
  • Het gebruik van dergelijke tools laat echter sporen na. Lerenden moeten zich daar bewust van zijn. Deze sporen kunnen ook worden gebruikt voor learning analytics. Je hebt daarom te maken met ethische aspecten. Je moet daar transparant over zijn en ervan uitgaan dat de lerende de eigenaar is van de data. Inclusie is daarbij ook een belangrijk uitgangspunt (iedereen kansen geven om te participeren).
  • Een risico van learning analytics is paternalisme en het ‘surveilleren’.
  • Duitse onderzoekers op het gebied van AI doen vaak onderzoek in China omdat men daar minder last heeft van regels.
  • AI kan mensen met beperkingen (en anderen) helpen en ondersteunen. Maar de prijs is dat je datasporen achterlaat. Je kunt daar wel transparant over zijn. Maar is dat voldoende? Hebben mensen wel een keuze?

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

* Checkbox GDPR is verplicht

*

Ik ga akkoord

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.