Laat machine learning niet alleen aan de computer over

Er zijn hoge verwachtingen van machine learning, ook op het gebied van leren en ontwikkelen en onderwijs. Op dit moment moeten we er echter voor waken te veel te vertrouwen op het oordeel van de computer. Menselijke interventies blijven dikwijls nodig.

data science
Foto: geralt, Pixabay

Bij machine learning handelen computers zonder expliciet geprogrammeerd te worden. Computers zijn in staat beslissingen te nemen op basis van het analyseren van data. Dit leidt idealiter tot betere prestaties, zonder dat een werknemer van vlees en bloed er aan te pas komt. Machine learning  is in staat steeds complexere beslissingen nemen. Toepassingen zijn zelfrijdende auto’ s, spraakherkenning of slimmer online zoeken (bron). Het gaat hierbij om artificiële intelligentie waarbij ‘big data’ wordt gebruikt.

Deze ontwikkeling kan ook gevolgen hebben voor leren en ontwikkelen en onderwijs. Ik denk bijvoorbeeld aan het geven van automatische persoonlijke feedback of aan het automatisch beoordelen.

Toch moeten we ons ervan bewust zijn dat deze ontwikkeling op dit moment nog belangrijke beperkingen heeft.

Gisteravond las ik via Blendle het artikel Het einde van het functioneringsgesprek. Rens Lieman laat hierin zien dat data steeds vaker worden gebruikt om het werk van medewerkers te beoordelen. Bij Uber krijgen chauffeurs dankzij een algoritme ritten toebedeeld waar ook de beloning van afhankelijk is. Het systeem kijkt o.a. naar hoeveel ritten een chauffeur heeft geweigerd en welke beoordeling passagiers de chauffeur hebben gegeven. Bezorgbedrijven passen vergelijkbare systematiek toe.

Als je bij Uber ritten weigert, kun je een inkomstengarantie mislopen. Lage beoordelingen kunnen ertoe leiden dat je tijdelijk geen ritten krijgt toegewezen.

Nu blijken de data echter niet altijd een betrouwbare graadmeter te zijn. Er wordt namelijk niet gekeken naar achterliggende redenen voor het weigeren van ritten of voor een lage beoordeling. Onderzoekers van de Carnegie Mellon Universiteit concluderen dat vrouwelijke chauffeurs ’s avonds laat klanten weigeren die geen profielfoto gebruiken. Zij vertrouwen dit niet. Verder blijken klanten chauffeurs een lage beoordeling te geven als zij door files bijvoorbeeld hun vlucht hebben gemist. De chauffeur kan daar echter niets aan doen.

Uber heeft inmiddels besloten de wijze van beoordelen aan te passen.

Rens Lieman meent terecht dat het tijd wordt om naar de implicaties te kijken van deze manier van beoordelen.  Werkgevers beschikken bijvoorbeeld over meer informatie en macht dan werknemers. Verder kunnen medewerkers via calculerend gedrag proberen het systeem te omzeilen.

De relevantie voor leren en ontwikkelen en onderwijs ligt m.i. voor de hand. Een docent kan een slechte beoordeling krijgen als de digitale leeromgeving niet bereikbaar is (en de digitale leeromgeving wordt minder goed beoordeeld als het identity management systeem kuren heeft).

Verder moet je oppassen vergaande conclusies te trekken over cijfers van verzuim of minder goede studieprestaties zonder naar de achterliggende oorzaken te kijken. Een lerende die niet goed kan rekenen, zou best wel eens problemen met lezen kunnen hebben.

Voorlopig kun je data ten aanzien van het gedrag van een individu daarom het beste gebruiken als bron van informatie om het gesprek aan te gaan. Vooral als sprake is van verstrekkende gevolgen.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.