Over de verkeerde opvatting dat technologie neutraal is

Tijdens de Online Educa 2023 is Luciano Floridi één van de keynote sprekers. De organisatie van de OEB heeft hem gevraagd alvast te reflecteren op de vraag of technologie niet eigenlijk ‘neutraal’ is en dat er menselijke perversiteit voor nodig is om het te veranderen in een kracht die kwaad aanricht.

A photo of an evil smartphone and a friendly smartphone, standing in a blue laboratory
A photo of an evil smartphone and a friendly smartphone, standing in a blue laboratory

Luciano Floridi is trouwens hoogleraar cognitiewetenschappen en oprichter van het centrum voor digitale ethiek aan de universiteit van Yale. In deze bijdrage bestrijdt hij de stellingname in het debat rondom de ethische impact van digitale technologieën, en met name kunstmatige intelligentie (AI), dat technologie neutraal is en dat problemen voortkomen uit het gebruik en niet uit het ontwerp.  De schuldigen moeten, zo wordt vaak beweerd, verderop in het proces worden gevonden als sprake is van ethische rampen. Dus niet bij het ontwerp en de ontwikkeling, maar bij de inzet van de specifieke technologie.

Floridi maakt daarbij in de context van technologie een onderscheid tussen twee typen ‘evenwicht’: een ‘neutraal evenwicht’ en een ‘statisch evenwicht’. Terwijl een object in neutraal evenwicht niet beweegt tenzij er een externe kracht op inwerkt, blijft een object in statisch evenwicht in balans door gelijke, tegengestelde krachten. Floridi stelt dat bij technologie nooit echt sprake kan zijn van een neutraal evenwicht, omdat het altijd wordt ontworpen volgens bepaalde waarden en binnen culturele contexten. De ontwerpers kiezen bewust voor bepaalde waarden, beperkingen en mogelijkheden. Veel technologieën hebben krachten die ze in verschillende richtingen duwen en trekken, soms duidelijk, soms onmerkbaar, vaak op een onevenwichtige manier, schrijft hij.

De centrale stelling van Floridi is dat technologieën niet waardevrij of neutraal zijn, maar ‘dubbel geladen’ (double-charged): ze hebben zowel positieve als negatieve mogelijkheden ingebouwd. Als voorbeeld haalt hij onder meer het verschil aan tussen een mes om brood mee te smeren en een bajonet; terwijl een mes een balans heeft tussen goed (eten) en kwaad (verwonden), is een bajonet primair ontworpen om schade toe te brengen. Zwaarden zijn bedoeld om kwaad te doen en te doden, dus ze zijn dubbel geladen, maar ten gunste van het kwade. Ploegscharen, die dubbel geladen zijn ten gunste van het goede. Zowel zwaarden als ploegscharen zijn volgens de auteur nog steeds ‘statisch’, nooit neutraal, omdat zwaarden ook kunnen worden gebruikt om onschuldige levens te verdedigen en te redden, en ploegscharen nog steeds kunnen worden getransformeerd in zwaarden.

Digitale technologieën en AI zijn volgens Floridi ook niet neutraal maar dubbel geladen. Digitalisering kan, mits goed ontworpen, een kracht ten goede zijn. Floridi stelt echter dat het ontwerpen van elke technologie een morele daad is en dat de ‘neutraliteitsthese’ deze verantwoordelijkheid probeert te ontlopen. Volgens Floridi legt de stelling van de dubbele lading een belangrijke verantwoordelijkheid bij ontwerpers van technologie. Het zijn immers de ontwerpers die (op zijn minst enige) controle kunnen hebben over de waarden die uiteindelijk bepalen (of net zo belangrijk: niet bepalen) wat voor soort dubbelgeladen technologie gebruikt zal worden en hoe. Hij benadrukt het belang van ethische keuzes tijdens het ontwerpproces en roept op tot een breder debat over de waarden die in technologieën worden ingebed. Hij schrijft:

The design of any technology is a moral act. The neutrality thesis tries to hide this fact, and the responsibilities that it implies. This is unhelpful also because it makes it difficult to clarify the ethical choices and trade-offs that many technologies often require and, therefore, the policies and regulations that need to be devised. Which and whose values should be privileged when designing a technology, given the fact that it is double-charged? Which way should the ball roll, and according to what vectors?

Hij beschrijft de neutraliteitsthese als een kop-in-het-zand benadering en een vergissing omdat iemand ergens zal hebben beslist over de waarden die zijn ingebed. In plaats van de neutraliteit van technologie te verdedigen, moeten we volgens deze aanstaande OEB-keynote spreker erkennen dat technologie altijd waarden bevat en moeten we actief deelnemen aan het debat over welke waarden dat moeten zijn.

Hoe krachtiger een technologie is, hoe belangrijker volgens Floridi de morele daad van het ontwerp wordt. Als een technologie van nature tot meer positieve dan negatieve resultaten leidt, is er volgens de auteur menselijke kwaadaardigheid of domheid voor nodig om het te veranderen in een kracht voor het kwaad. We moeten volgens Floridi er echter vooral bewust zijn statische, niet neutrale evenwichten, ten goede kunnen worden benut volgens welke waarden en afwegingen – en dus waar de verantwoordelijkheden liggen. Dat is volgens hem een noodzakelijke stap naar betere technologieën en een betere digitale samenleving.

Mijn opmerkingen

Ik vind dit een interessante stellingname. Ik was me er altijd van bewust dat leertechnologie nooit neutraal was, maar ik had er nooit vanuit het perspectief van de dubbele lading naar gekeken. Ik ben dan ook benieuwd naar zijn bijdrage tijdens de aanstaande OEB.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *