Waarom censuur erger is dan bias (en dat een relevante vraag is bij het gebruik van generatieve AI)?

Verleden week werd de generatieve AI toepassing DeepSeek met veel bombarie gelanceerd. Er zijn wat mij betreft meerdere redenen waarom je deze uit China afkomstige applicatie niet zou moeten gebruiken. Eén van die redenen is dat DeepSeek censuur pleegt. In deze blogpost maak ik duidelijk waarom ‘censuur’ kwalijker is dan de ‘bias’ zoals we die kennen van toepassingen als ChatGPT. Ik baseer me daarbij ook op verschillende ethische benaderingen.

Donald Trump en Big TechIn diverse commentaren werd de censuur van DeepSeek gelijkgesteld aan de ‘bias’ waar andere generatieve AI-toepassingen mee behept zijn. Je kunt immers  ChatGPT bijvoorbeeld ook geen afbeeldingen laten maken van Donald Trump. Critici die wijzen op de censuur door DeepSeek zouden te veel vanuit een Westers perspectief redeneren, inconsequent of zelfs huichelachtig zijn. Er is echter een verschil tussen de censuur van DeepSeek, en de ‘bias’ en effecten van ingebouwde vangrails van Claude 3.5. Sonnet cs.

Laat ik allereerst het verschil tussen bias en censuur uitleggen. Beiden beïnvloeden de output van AI-systemen. Tegelijkertijd verschillen ze in hun oorsprong en werking. Bias ontstaat vaak onbedoeld door de data waarmee een AI-model is getraind. Als deze dataset niet representatief is, kan het model bepaalde perspectieven over- of ondervertegenwoordigen. Denk aan een AI-toepassing die lesmateriaal genereert, maar consistent voorbeelden kiest die traditionele genderrollen bevestigen. Lerenden krijgen hierdoor onbewust een vertekend beeld voorgeschoteld.

Censuur daarentegen is het bewust achterhouden, manipuleren of verwijderen van informatie voordat gebruikers deze kunnen zien. Bij AI-toepassingen betekent dit vaak dat bepaalde onderwerpen systematisch worden weggelaten of geblokkeerd. Dit gebeurt bijvoorbeeld wanneer organisaties of overheden besluiten om specifieke thema’s of meningen te weren, vaak uit angst voor reputatieschade, juridische problemen of aantasting van de machtspositie. Je kunt aan DeepSeek bijvoorbeeld geen vragen stellen over de onderdrukking van Oeigoeren, de schending van mensenrechten in China, of het bloedbad op het Plein van de Hemelse Vrede. Ook krijg je informatie over Taiwan als Chinese provincie. De invloed van de Chinese overheid op bedrijven als DeepSeek is erg groot. Alibaba’s Jack Ma kan daar over mee praten.

Daarnaast heb je te maken met ‘guardrails’ binnen AI-applicaties. Deze zijn gericht op het voorkomen van misbruik en het naleven van richtlijnen die ontwikkelaars van de AI-toepassingen hebben opgesteld. Deze richtlijnen zijn doorgaans gericht op thema’s als auteursrecht, privacy, geweld, haatdragend taalgebruik, racisme, discriminatie, seksisme en het verspreiden van misinformatie. Dit is de reden waarom je met behulp van DALL-E bijvoorbeeld geen afbeeldingen meer van Donald Trump kunt genereren. Het effect is inderdaad dat ook geen cartoons meer kunt samenstellen. Een tijd geleden wilde ik bijvoorbeeld een afbeelding maken op basis van de volgende prompt:

Genereer een afbeelding van een aantal techmiljardairs (witte mannen) die ieder een zak met dollars op een onderdanige manier aanbieden aan een staatshoofd van een groot land die op een voetstuk staat. Het staatshoofd heeft oranje haar en een gezet postuur.

Alleen Venice.ai genereerde een afbeelding (zie illustratie). AI-toepassingen zijn helaas niet zo ‘intelligent’ dat ze de context of intentie snappen. Het effect is dat de vrijheid van meningsuiting wordt ingeperkt.

Het cruciale verschil is echter de intentie: bias en vreemde effecten van guardrails zijn meestal een onbedoeld gevolg van beperkte of onevenwichtige trainingsdata (en onvoldoende ‘slimme’ technologie), terwijl censuur voortkomt uit bewuste keuzes om bepaalde informatie niet te tonen. Beide vragen om verschillende oplossingen. Bij bias ligt de focus op het verbeteren van de dataselectie, de gebruikte technologie en het trainingsprogramma. Bij censuur gaat het evenwel om fundamentele vragen over informatievrijheid en de rol van AI bij meningsvorming. Digitale geletterheid zou aandacht moeten besteden op al deze fenomenen.

Je zou wat mij betreft ook vanuit vier ethische benaderingen op bias en censuur moeten reflecteren:

  • Het utilitarisme kijkt vooral naar de uitkomst die het meeste voordeel oplevert voor zoveel mogelijk mensen. Binnen deze stroming staat de vraag centraal welke keuzes leiden tot het grootste ‘geluk’ of welzijn voor de samenleving als geheel.
  • De deontologie, waar Immanuel Kant een belangrijke vertegenwoordiger van was, benadrukt universele morele plichten en regels, los van de uitkomsten. Vanuit deze benadering zijn handelingen goed of fout op basis van fundamentele principes zoals menselijke waardigheid en autonomie. Het feit dat een handeling positieve gevolgen heeft, rechtvaardigt binnen deze stroming niet automatisch de schending van basisrechten zoals gelijke behandeling of toegang tot informatie.
  • Het consequentialisme lijkt op het utilitarisme maar kijkt breder naar alle mogelijke gevolgen van een handeling, niet alleen naar ‘geluk’. Deze stroming weegt bijvoorbeeld ook effecten op lange termijn mee, zoals de impact op kritisch denkvermogen of maatschappelijke verhoudingen.
  • De deugdethiek, ten slotte, richt zich op het karakter en de intentie van de handelende persoon of organisatie. Hier draait het om waarden als rechtvaardigheid, moed, eerlijkheid en wijsheid.

Al deze vier benaderingen zijn m.i. relevant om keuzes te maken over het gebruik van technologieën zoals generatieve AI-toepassingen.

Vanuit het utilitarisme geredeneerd, kun je dan stellen dat beide fenomenen het totale maatschappelijke welzijn kunnen schaden, maar op verschillende manieren. Bias kan systematisch bepaalde groepen benadelen. Dit leidt bijvoorbeeld tot ongelijke kansen in het onderwijs. Als een AI-systeem bijvoorbeeld consequent mannelijke rolmodellen toont bij exacte vakken, kan dit vrouwelijke lerenden ontmoedigen. Censuur daarentegen kan het algemeen welzijn ondermijnen door kennisdeling en kritische meningsvorming te belemmeren.

Als je redeneert vanuit het consequentialisme, dan zul je concluderen dat bias kan leiden tot maatschappelijke spanningen en versterking van stereotypen. Tegelijkertijd kan censuur resulteren in verminderd kritisch denkvermogen, onderdrukking en beperkte innovatie. Deze stroming zou ook positieve effecten van censuur erkennen, zoals het voorkomen onrust, maar alleen als deze voordelen aantoonbaar opwegen tegen de nadelen van informatiebeperking. Een dergelijke benadering gaan ongetwijfeld dan ten koste van minderheden. Het is m.i. dan ook niet houdbaar om uitsluitend vanuit dit perspectief te redeneren.

Vanuit de deontologie zijn beide praktijken problematisch omdat ze fundamentele morele plichten schenden. Echter, censuur wordt vanuit dit perspectief als ernstiger beschouwd omdat het een bewuste schending is van het recht op informatievrijheid en autonomie. Waar bias vaak voortkomt uit onzorgvuldigheid of systeemfouten, is censuur een doelbewuste inperking van fundamentele rechten.

De deugdethiek beoordeelt beide fenomenen op basis van de onderliggende intenties en karaktereigenschappen. Censuur wordt hier als kwalijker gezien omdat het direct getuigt van een gebrek aan essentiële deugden zoals eerlijkheid, openheid en respect voor autonomie. Bias kan weliswaar wijzen op onzorgvuldigheid, maar is vaak meer het gevolg van technische beperkingen dan van een bewuste keuze om deugdzaam handelen te ondermijnen.

Bias is voor individuen en onderwijsinstellingen ook beter hanteerbaar te maken door te investeren in digitale geletterdheid en door wijs gebruik te maken van de betreffende toepassingen. Op censuur heb je veel minder invloed.

Vanuit ethisch perspectief kies ik er daarom voor om geen gebruik te maken van DeepSeek (er zijn ook nog andere redenen). Er zijn betere alternatieven, vanuit ethisch perspectief geredeneerd.

Bij Westerse generatieve AI-toepassingen zoals Copilot, ChatGPT, Google Gemini of Claude is momenteel sprake van bias en van negatieve effecten van ‘guardrails’. Ik vind het overigens knap irritant dat de ontwikkelaars hier betrekkelijk weinig aan doen. Ik sluit trouwens niet uit dat deze applicaties ook censuur gaan toepassen. De politieke ontwikkelingen in de VS stellen mij bepaald niet gerust.

Alle reden ook om te werken aan goede alternatieven uit de EU.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *