AI verandert de manier waarop we interacteren met computers, hetgeen leidt tot nieuwe keuzemogelijkheden en risico’s

AI zal lerenden en docenten in staat stellen op meer natuurlijke wijze te interacteren met computers. Gebruikers zullen het moeilijk vinden om een balans te vinden tussen de aantrekkelijkheid van natuurlijke interactie en de potentiële risico’s. Beleid moet daarbij helpen.

AI
Foto: geralt, Pixabay

Dit is de strekking van de bijdrage AI and the Future of Teaching and Learning: New Interactions, New Choices.

AI stelt ons in staat om op een meer menselijke manier met computers te interacteren. In plaats van door te typen, zullen we vaker spraak gebruiken. Klikken en slepen wordt vaker vervangen door ’tekenen’ en het analyseren van (al dan niet bewegende) beelden vervangt aanraken en gebaren gebruiken.

Computers verstrekken straks niet alleen informatie en taken, maar zullen lerenden en docenten meer ondersteunen. Leeractiviteiten worden meer ingepland en adaptief georganiseerd. AI helpt ook patronen in het werk van lerenden zichtbaar te maken, in plaats van alleen ingeleverd werk te controleren.

Als het gaat om de resultaten van interacties gaan conversaties de plaats in nemen van tekst. ‘Annoteren en markeren’, ‘suggesties en aanbevelingen’ en ‘organiseren en begeleiden’ (in plaats van gepresenteerde data op dashboards) zullen ook vaker het resultaat van interacties met computers zijn. AI ondersteunt leren meer op maat en zal docenten een deel van het werk uit handen kunnen nemen (o.a. lerenden helpen bij het plannen).

De nieuwe mogelijkheden van AI brengen volgens de auteur ook risico’s met zich mee:

  1. We zijn sinds jaar en dag geneigd de potentie van AI te overschatten. Computers kunnen bijvoorbeeld op basis van onvoldoende data ook aanbevelingen doen die niet heel slim of goed getest zijn. Je moet dus kritisch blijven ten aanzien van de output van interacties.
  2. AI-systemen zullen meer persoonsgegevens zoals beelden van gebruikers verzamelen. Dit brengt risico’s op het gebied van privacy en identiteit met zich mee.
  3. AI kan ongewenste of “nep” uitkomsten produceren. Het gepersonaliseerde karakter kan leiden tot ongewenste vormen van individualisering (en kansenongelijkheid). Door computers gecreëerde artefacten kunnen onware informatie bevatten. Je hebt menselijk toezicht nodig om te voorkomen dat AI er toe bijdraagt aan ongewenste controverses binnen de leeromgeving.
  4. AI-systemen zijn niet altijd zichtbaar of voor de hand liggend. Je bent je daardoor niet bewust van risico’s, waardoor risico’s juist versterkt kunnen worden.

Volgens de auteur moet je de beslissing om AI in bepaalde situaties wel of niet te gebruiken, niet over laten aan individuen. Je hebt beleid nodig als basis voor een gezonde besluitvorming over het gebruik van AI binnen het onderwijs. De auteur werkt dit niet verder uit. Je kunt m.i. echter denken aan het bevorderen van geletterdheid op dit terrein, afspraken over het opslaan en gebruik van data, het verbod op gezichtsherkenning in bepaalde situaties, of transparantie in het gebruik van algoritmes.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.