Vier dimensies van vertrouwen bij learning analytics en kunstmatige intelligentie

Zowel binnen het onderwijs als op het gebied van leren en ontwikkelen (L&D) verzamelen we dankzij het gebruik van technologie (zoals kunstmatige intelligentie) veel data over leren en van lerenden. Deze data kunnen voor verschillende doelen worden gebruikt. Dit brengt ethische vraagstukken met zich mee, zoals het risico op misbruik. Er zijn verschillende manieren om daar naar te kijken.

Josh Bersin heeft bijvoorbeeld onlangs een kader ontwikkeld om deze ethische aspecten te begrijpen.

Bersin kijkt daarbij naar de volgende aspecten:

  • Zijn de data en het algoritme die je gebruikt eerlijk? Daarbij gaat het om zaken als validiteit en betrouwbaarheid (o.a. bias).
  • Zijn de data en het algoritme veilig? Hiertoe behoren privacy, vertrouwelijkheid en veiligheid.

De combinatie van deze aspecten leidt dan tot ‘vier dimensies van vertrouwen’:

  1. Privacy. Je mag data niet zo maar inzien en relateren aan individuen. Bovendien hebben we in Europa te maken met de AVG, en het recht om vergeten te worden. Medewerkers moeten bekend zijn met regels en procedures rond privacy. Organisaties moeten beleid op dit punt hebben, en diverse maatregelen nemen om privacy te beschermen.
  2. Beveiliging. Wordt data zodanig opgeslagen en beschermd dat alleen bevoegden er toegang toe hebben? Welke maatregelen neemt de organisatie om data te beschermen? Hoe is toegang van derden tot data geregeld? Beschikt de organisatie bijvoorbeeld over een Data Protection Officer?
  3. Bias. Algoritmes zijn gebaseerd op bestaande data. Deze data kunnen ‘bias’ bevatten. Voorspellingen en aanbevelingen bevatten dan ook bias. Dit kan tot vooroordelen en discriminatie leiden. Je kunt bias reduceren door je systemen intensief te monitoren en te trainen. Volgens Bersin neemt het bewustzijn omtrent bias toe. Het bedrijf Pymetrics heeft de algoritmes daarom ‘open source’ gemaakt. Dit bevordert in elk geval transparantie. Systemen zouden verder uit te leggen moeten zijn.
  4. Gevolgen voor mensen. Wat is de intentie om deze data te verzamelen? Dat betekent dat je geen data mag verzamelen om daarna te kijken wat je er mee kunt doen. Helpt het gebruik van data en algoritmes werknemers bij hun ontwikkeling? Volgens Bersin hebben de meeste bedrijven positieve intenties bij het gebruik van hun technologieën. Toch kunnen bedrijven deze technologieën verkeerd gebruiken. Bijvoorbeeld door data heimelijk toch te gebruiken voor beoordelingen, door data voor andere doelen te gebruiken dan is afgesproken, door data over leren te gebruiken voor het beoordelen van werkprestaties of door de grens tussen persoonlijke en professionele data te overschrijden.

Bersin adviseert:

focus your analytics program on strategies that positively impact people. If you’re tracking people to measure work productivity and the data will be used to make work better, then you’re moving in the right direction. If you’re using the data to weed out low performers, you’re probably violating your company’s management principles.

Toen ik deze bijdrage las, moest ik ook denken aan de bijdrage Privacy and Learning Analytics–it’s a DELICATE issue (pdf) van Hendrik Drachsler en Wolfgang Greller. Zij presenteren een checklist die je kunt gebruiken voor de implementatie van learning analytics:

  • Determination(waartoe learning analytics?)
  • Explain (doelen en kaders)
  • Legitimate (waarom mag dit?)
  • Involve (alle belanghebbenden betrekken)
  • Consent (overeenkomst met ‘data subjects’)
  • Anonymise (niet herleidbaar naar individuen)
  • Technical (procedures om privacy te garanderen)
  • External (overeenkomsten met derden)

Daarnaast onderscheiden zij vijf zorg- cq aandachtspunten bij learning analytics:

  1. Machtsrelatie tussen degene die data controleert en degene die data produceert. Bersin besteedt hier weinig aandacht aan, al hebben de gevolgen voor mensen hier wel een duidelijke relatie mee.
  2. Eigenaarschap (hier besteedt Bersin m.i. geen aandacht aan).
  3. Anonimiteit en beveiliging van data.
  4. Privacy en data identiteit (hier maakt bias feitelijk deel van uit).
  5. Transparantie en vertrouwen.

Ik zie dus nadrukkelijke overlap, maar ook accentverschillen. Mooi om de raakvlakken tussen onderwijs en L&D op dit terrein te signaleren. De checklist van Hendrik en Wolfgang kan m.i. ook door arbeidsorganisaties worden gebruikt voor het ontwikkelen van beleid op dit terrein.

Verder vind ik het heel aardig om te zien dat Bersin met regelmaat naar de AVG (GDPR) verwijst. Min of meer als kader waaraan je je als organisatie te houden hebt. Ik lees regelmatig dat Amerikaanse bedrijven en edubloggers daar instemmend naar kijken, en als voorbeeld gebruiken hoe om te gaan met persoonsgegevens.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.