Houd controle over AI-toepassingen op het gebied van onderwijs en opleiden

Dankzij kunstmatige intelligentie (AI) en big data zijn we in staat om onderwijs en opleiden meer toe te spitsen op het niveau en het leergedrag van de individuele lerende. De bijdrage
Discrimination in a Sea of Data: Exploring the Ethical Implications of Student Success Analytics laat zien dat deze ontwikkeling ook negatieve kanten kan hebben. Bepaalde lerenden kunnen daardoor baat hebben bij de combinatie AI en learning analytics, maar anderen juist niet.

AI in combinatie met het analyseren van grote hoeveelheden studiedata kan worden gebruikt om te analyseren hoe lerenden leren, maar ook om voorspellingen te doen en zelfs om bepaalde zaken voor te schrijven. Lerenden kunnen automatisch notificaties ontvangen, bijvoorbeeld als zij een bepaalde tijd niet hebben ingelogd. Ook kunnen lerenden automatische ondersteuning krijgen als zij bepaalde formatieve toetsvragen fout maken. Zij krijgen dan geen standaard feedback, maar feedback die rekening houdt met hun online leergedrag. De AI-toepassing analyseert daarvoor data van zeer veel lerenden. Aan de andere kant kunnen automatische voorspellingen over leerprestaties van lerenden uit ondervertegenwoordigde groepen onnauwkeurig zijn als deze voorspellingen gebaseerd zijn op data van lerenden uit oververtegenwoordigde groepen.

Volgens de auteurs van deze bijdrage kunnen voorspellingen en automatische interventies dan ook onherstelbare gevolgen hebben als sprake is van onnauwkeurigheden en fouten, en als sprake is van belangrijke consequenties. Lerenden die juist uitblinken, kunnen juist baat hebben bij deze toepassingen.

Je zou volgens de auteurs kritische ‘student-focused’ vragen moeten stellen als je zogenaamde adaptieve en gepersonaliseerde leeromgevingen ontwikkelt en invoert. Je moet je bijvoorbeeld afvragen waarom lerenden in geringe mate leeractiviteiten uitvoeren.

For AI to benefit all learners, we must keep all learners at the forefront of the AI development and implementation process.

Een probleem hierbij is dat veel medewerkers over onvoldoende kennis beschikken ten aanzien van AI-toepassingen. Zij weten niet hoe AI ‘onder de motorkap’ werkt. Dus op basis waarvan een applicatie bepaalde beslissingen neemt.

Algorithms are not always listed on the menu, but they may be in the recipe.

Schattingen en voorspellingen zullen altijd een zekere mate van vooringenomenheid (‘bias’) en fouten bevatten.

Als we begrijpen waarom en hoe AI en machine learning kunnen falen en hoe ze vooringenomenheid kunnen bevatten, kunnen we volgens de auteurs beter bepalen hoe we deze krachtige instrumenten in de toekomst zullen hanteren.

In hun bijdrage gaan zij in op verschillende typen ‘bias’. Bias kan voorkomen in datasets, in didactische modellen (je kunt fouten maken bij het ontwikkelen van modellen die je gebruikt), in toetsen en in de toepassing (mensen passen AI bijvoorbeeld verkeerd toe en verliezen controle over de uitkomsten). Dankzij de enorme aandacht voor AI aanvaarden mensen de resultaten als absolute waarheid en handelen zij er dienovereenkomstig naar:

they move forward with data-driven responses rather than taking data-informed action.

Daarom pleit ik al langer om de term ‘data-driven’ niet meer te gebruiken.

Volgens de auteurs moeten we binnen het onderwijs drie acties ondernemen om de kans op vooringenomenheid te verkleinen als we gebruik maken van AI:

  1. Leer meer over verschillende soorten vooroordelen en bedenk hoe deze zich kunnen manifesteren bij het gebruik van AI en machine learning voor het versterken van initiatieven op het gebied van studiesucces.
  2. Investeer in verbeteringen van het leermanagementsysteem, en het gebruik ervan. Denk na over scenario’s waarbij lerenden verkeerd kunnen worden geïdentificeerd.
  3. Ondersteun de ‘data democratisering’, inclusief kennis van data, de toegankelijkheid van data en de invoering van data science.

De auteurs pleiten ook voor zo transparant mogelijke algoritmen zodat mensen het model begrijpen en de beslissingen vertrouwen.

Ik mis in dit rijtje overigens:

Wees terughoudend in het toepassen van AI op terreinen waar de impact op lerenden groot is (denk aan beoordelen of plagiaatcontrole). Check altijd waarom lerenden leren zoals zij leren. Laat computers dergelijke beslissingen nooit zelfstandig nemen. Ook niet als uitkomsten achteraf gecorrigeerd kunnen worden. Het maakt nogal wat uit of je onterecht een notificatie ontvangt, of dat je een onvoldoende beoordeling krijgt. Gebruik AI en learning analytics vooral voor beschrijven wat er gebeurt en voor diagnosticeren. Wees terughoudend met voorspellen en voorschrijven als de impact groot is.

De auteurs concluderen dat technologieën op het gebied van AI (inclusief machine learning) niet zullen verdwijnen, maar alleen krachtiger worden naarmate we over meer data beschikken.

If we do not create our own knowledge and literacy around the use of data in AI and ML, the advancing technologies will, by default, drive our practices rather than inform them. Let us be the ones to steer data practices and policies toward our vision for student success analytics and to create the future we want to see for our students and our higher education institutions.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

* Checkbox GDPR is verplicht

*

Ik ga akkoord