Een antwoord krijgen is iets anders dan iets begrijpen (en daarom moet je uitkijken met generatieve AI-toepassingen voor het verkrijgen van antwoorden)

Wanneer ik tijdens presentaties en workshops vraag naar de taken waarvoor deelnemers generatieve AI-toepassingen inzetten, scoort ‘Het zoeken naar antwoorden’ doorgaans het hoogst. Tony Hirst beargumenteert echter dat je juist daar voorzichtig mee moet zijn.


Educational researchHij wijst erop dat gebruikers vaak vertrouwen op AI-gegenereerde antwoorden zonder zelf verder onderzoek te doen. Mensen klikken maar weinig door naar de oorspronkelijke bronnen achter AI-samenvattingen. Gebruikers stellen zich tevreden met de aangereikte samenvatting. Dit roept volgens Hirst fundamentele vragen op over de kwaliteit van het leerproces.

Er bestaat volgens hem immers een wezenlijk verschil tussen het ontvangen van een kant-en-klaar antwoord en het ontwikkelen van werkelijk begrip. Het proces van informatie zoeken, bronnen beoordelen en vaststellen dat bepaalde bronnen tekortschieten, biedt op zichzelf waardevolle inzichten. Als je simpelweg een prompt invoert en het gegenereerde antwoord zonder kritische blik accepteert, dan ontbreekt de onderbouwing die noodzakelijk is voor echte kennis. De gebruiker ontwikkelt mogelijk geen diepgaand begrip of vergeet het antwoord snel weer. Dat maakt dat het laten formuleren van antwoorden door applicaties als Claude 3.7 Sonnet of Google Gemini minder leerzaam is dan het gebruik van zoekmachines.

Mensen die generatieve AI-toepassingen gebruiken voor het genereren van antwoorden functioneren volgens Hirst als een ‘Chinese kamer‘ die antwoorden produceert zonder werkelijk begrip. Hoewel ze gedurende de werkdag met AI-hulpmiddelen ogenschijnlijk kenniswerk verrichten, verlaten ze aan het eind van de dag hun werkplek zonder verrijkt te zijn met nieuwe inzichten of meer begrip.

Mijn opmerkingen

Generatieve AI-toepassingen zoals Perplexity en ChatGPT stellen je inderdaad in staat antwoorden te genereren en te gebruiken. In toenemende mate krijg je daarbij verwijzingen naar bronnen. Dergelijke verwijzingen fungeren waarschijnlijk vaak als de ‘kleine letters’ in de algemene voorwaarden: ze worden niet gelezen. Het is echter de vraag of dit anders is bij media als Wikipedia of blogposts. Op basis van meer dan 20 jaar bloggen durf ik te stellen dat links naar achterliggende bronnen nauwelijks worden geraadpleegd. Daar komt bij dat gebruikers ook bij zoekmachines vaak niet verder kijken dan de eerste resultaten. Het verschil met Wikipedia en blogposts is echter dat je kunt zien wie de auteur is, en dat je op basis daarvan een beeld kunt krijgen van de betrouwbaarheid van de inhoud van een tekst. Bij zoekmachines gaat dat vooralsnog ook gemakkelijker dan bij menig generatieve AI-applicatie.

Alle reden dus om gebruikers ervan bewust te maken dat je de gegenereerde antwoorden van AI-toepassingen aan een kritisch oordeel moet onderwerpen. Gebruik de applicaties vooral als je even iets niet meer weet, en niet als je iets nog niet weet.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *