Tweede bloemlezing interessante artikelen over AI

Op 23 september 2019 heb ik een eerste bloemlezing geschreven over artificiële -kunstmatige- intelligentie (AI). Het aantal relevante artikelen dat over dit onderwerp verschijnt is zo groot, dat ik aan dit onderwerp alleen een weblog kan wijden. Onderstaande bijdrage is een tweede bloemlezing waarin ik weer vier bijdragen over AI kort samenvat.


Aswin Pranam stelt dat universiteiten hoger onderwijs -dankzij online leren- tegen een lagere prijs kunnen aanbieden. Georgia Tech University biedt bijvoorbeeld een master in computerwetenschappen aan die asynchroon in een virtuele omgeving wordt verzorgd. Voor $ 7.000. hij stelt dat online leren voor deelnemers vaak 25-50% goedkoper is dan campusonderwijs. Dit kan volgens hem weleens ten koste gaan van onderwijsinstellingen die hier niets of weinig mee doen.
AI kan dan als volgt een bijdrage leveren aan de volgende generatie online leren:

  • Automatische inleveren van opdrachten en online proctoring (surveilleren op afstand) zorgen ervoor dat docenten minder repeterende en tijdrovende taken hoeven uit te voeren.
  • AI zou ook kunnen bevorderen dat leerinhouden beter rekening houden met -daar is ie weer- leerstijlen en voorkeuren. AI kan leerinhouden in elk geval in kleine eenheden helpen onderverdelen (hoe precies maakt hij niet duidelijk).
  • Verder kan AI bijdragen aan het automatisch vertalen en samenvatten van leerinhouden.
  • Machine learning algoritmes kunnen worden gebruikt om een cursus te analyseren op vooringenomenheid, complexiteit en dubbelzinnigheid. Docenten kunnen op basis hiervan de cursus bijstellen.

Pranam heeft een nogal ‘economistische’ kijk op onderwijs. Ik heb gemengde gevoelens bij zijn voorbeelden.

Vertrouwen

Marco Annunziata schrijft in AI Can Help You—And Your Boss—Maximize Your Potential. Will You Trust It? over AI-toepassingen die gebruikt kunnen worden om het gedrag en de performance van werknemers te analyseren. Bijvoorbeeld over de wijze van communiceren. Je krijgt zicht op de best presterende werknemers, en op werknemers die wellicht ontslag dreigen te nemen. Werknemers kunnen de analyses ook gebruiken om op hun eigen gedrag te reflecteren.
Werknemers beslissen zelf of zij persoonlijke data delen. Als zij dat doen, krijgen zij wel rijkere analyses. Eén op de vijf doet dat niet.

De auteur heeft begrip voor zorgen rond privacy bij het nemen van besluiten op het gebied van HR. Hij vraagt zich echter af of je mensen meer kunt vertrouwen dan AI. Bij het nemen van beslissingen over zaken als promotie, heb je immers ook te maken met menselijke bias. Hij stelt ook dat kleinere bedrijven wellicht eerder zullen vertrouwen op AI als het gaat om HR, dan grote bedrijven. Kleine bedrijven beschikken immers in veel gevallen niet over een HR-functie.

Ik vind dat we hier zeer terughoudend in moeten zijn.  AI kent veel bias, al leren de systemen wel snel. In welke mate speelt sociale druk in het geven van toestemming om data te analyseren? En kun je beroep aantekenen als een AI-systeem een beslissing neemt over jouw loopbaan?

Transparantie!

Artikel drie heeft met deze vraagstukken te maken. Volgens Greg Satell en Josh Sutton moeten we ook aandacht besteden aan de wijze waarop algoritmes leren. AI-toepassingen leren van de omgeving waaraan ze worden blootgesteld. Zij nemen beslissingen op basis van vooroordelen die ze ontwikkelen. Satell en Sutton vinden dat we mogen verwachten dat modellen die we bij AI toepassen in staat zijn om hun beslissingen te verklaren, terwijl ze zich ontwikkelen. Deze mathematische modellen worden echter nooit ter discussie gesteld.

De auteurs wijzen daarbij niet alleen op de bekend grote blunders, die de media halen. Bij AI is namelijk ook sprake van meer subtiele storingen die onopgemerkt blijven, maar toch grote gevolgen hebben voor mensen. Zoals in het geval van Sarah Wysocki die van school werd gestuurd omdat de leerprestaties ver onder de maat zouden zijn. Volgens een algoritme.

Why? It’s not exactly clear, because the system was too complex to be understood by those who fired her.

De auteurs wijzen daarbij op twee soorten ‘bias’ (vooringenomenheid): de datasets waarop de modellen worden getraind en het ontwerp van de modellen zelf. In beide gevallen komt het ook voor dat mensen hun vooringenomenheid -zoals vaak subtiel racisme en seksisme- inbedden in de AI-systemen.

Satell en Sutton pleiten ervoor dat AI-systemen beter verklaarbaar, controleerbaar en transparanter worden. Zij adviseren daarbij drie praktische stappen te zetten. De combinatie van AI en menselijke beoordelingen kan fouten bijvoorbeeld drastisch reduceren. Daarnaast zouden data wetenschappers hun algoritmes moeten kennen (en er zeer voorzichtig mee zijn). Tenslotte moeten AI-systemen en de gegevensbronnen die worden gebruikt om AI-systemen te trainen, transparant en beschikbaar zijn voor audits.

Verboden voor ‘deepfakes’

‘Deepfakes’ worden een steeds groter probleem. Je kunt dankzij AI foto’s, geluidsfragmenten of video’s manipuleren. Je kunt dan letterlijk politici woorden in de mond leggen die zij nooit hebben uitgesproken. De artefacten zijn bijna niet van echt te onderscheiden. De technieken hiervoor worden ook steeds beter.

In Californië hebben ze onlangs wetgeving aangenomen die verbiedt om gemanipuleerde foto’s, geluidsfragmenten of video’s van politici binnen 60 dagen voor een verkiezing te verspreiden. Het gaat daarbij niet om overduidelijke satire of parodieën. Ook mag je ‘deepfakes’ maken als je aangeeft dat het om manipulaties gaat.

Kristin Houser vraagt zich af of deze wetgeving veel zal helpen. Veel van de ‘deepfakes’ worden immers anoniem gepost. Zij schrijft onder meer

But does nothing to stop the deepfakes from hitting the web in the first place — and once uploaded, each clip is just a series of shares away from spreading election-influencing misinformation far and wide.

Ik vind dit wel een goede maatregel. Het zal de productie van ‘deepfakes’ ontmoedigen, en vooral leiden tot terughoudendheid bij het delen ervan. Je denkt wel twee keer na voordat je een politieke opponent op deze manier schade wilt berokkenen. Het delen van een gemanipuleerde video kan een boemerangeffect krijgen.

 

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.