Wie moet artificiële intelligentie reguleren?

De opmars van artificiële intelligentie (AI) lijkt niet te stuiten. Net als elke technologie biedt AI kansen, maar kan AI ook verkeerd worden gebruikt. In de VS is onderzoek gedaan naar de houding van burgers te aanzien van AI. Daaruit blijkt dat respondenten willen dat AI wordt gereguleerd. De vraag is alleen: wie moet dat doen?

In Never mind killer robots—here are six real AI dangers to watch out for in 2019 geven Will Knight en Karen Hao een overzicht van risico’s die kleven aan AI:

  • Zelfsturende auto’s kunnen verongelukken.
  • Bots kunnen worden gebruikt voor politieke manipulaties.
  • Algoritmes kunnen worden gebruikt voor autonoom opererende wapens.
  • Gezichtsherkenningssoftware kan worden gebruikt voor het volgen van mensen.
  • AI kan worden gebruikt voor het maken van nep-video’s.
  • Algoritmes kunnen last hebben van bias en leiden tot discriminatie.

In een andere bijdrage schrijft Hao dat het daarom niet verbazingwekkend is dat mensen gemengde gevoelens hebben ten aanzien van AI. Dat blijkt volgens haar ook uit een studie van het Center for the Governance of AI en het Future of Humanity Institute van de Universiteit van Oxford:

  • 41% van de ondervraagden is voorstander van AI (in enige mate of in sterke mate). 28% is niet voor of tegen. 22% is tegenstander (in enige mate of in sterke mate). De overige 10% weet het niet.
  • Als slimme machines taken beter gaan uitvoeren dan mensen, dan vindt 26% dat (zeer) goed, 21% vindt dat niet goed of slecht, 34% vindt dat (zeer) slecht, terwijl 18% het niet weet.
  • De meeste zorgen hebben mensen over data privacy, autonome wapens en cyberaanvallen.
  • Maar liefst 82% van de respondenten vindt dat AI en robots zorgvuldig gemanaged en gereguleerd moeten worden. 6% vindt van niet, 12% weet het niet.

Over de vraag wie je het meest kunt vertrouwen in het ontwikkelen van AI, zijn de respondenten zeer verdeeld. Onderzoekers van universiteiten en het leger kunnen op het meeste vertrouwen rekenen. Technologiebedrijven kunnen wat dit betreft op redelijk wat vertrouwen rekenen.

De onderzoekers hebben ook gevraagd wie je meeste kunt vertrouwen als het gaat om het managen van AI. Geen enkele antwoordcategorie scoort meer dan 41%. Technologiebedrijven kunnen wat mij betreft verbazingwekkend genoeg op het meeste vertrouwen rekenen. Partnerships op het gebied van AI, niet-gouvernementele wetenschappelijke organisaties en intergouvernementele onderzoeksorganisaties scoren ook redelijk hoog. De overheid scoort laag als het gaat om vertrouwen.

Ik vraag me af of de zorgen ten aanzien van AI en het geringe vertrouwen in het managen en reguleren van AI het gebruik ervan gaan belemmeren. AI wordt vaak toegepast zonder dat we daar erg in hebben. Sommige, zeer zichtbare, toepassingen -zoals autonome wapens- kunnen in democratische rechtstaten worden tegen gehouden.

Regulering van AI is m.i. ook zeer wenselijk. Ik heb daarbij het meeste vertrouwen in een onafhankelijk en transparant opererend orgaan waarin verschillende disciplines zoals technologie, ethiek en recht, vertegenwoordigd zijn.

This content is published under the Attribution 3.0 Unported license.

Delen

5 reacties

  1. Wie dat moet reguleren lijkt mij een achterhaalde vraag in “The Second Machine Age” (Erik Brynjolfsson Andrew McAfee, 2014) en tijdens 4IR:
    “A hallmark of the Fourth Industrial Revolution (4IR) is the convergence of the digital and physical worlds, which is in turn blurring traditional boundaries throughout the value chain.”

  2. Waarom is dat een achterhaalde vraag, als traditionele grenzen binnen de waardeketen vervagen?

  3. Als een AI eenmaal slim genoeg is valt er weinig meer te reguleren, behalve als daar bij het ontwikkelen van die AI rekening mee is gehouden. Dat is niet eenvoudig, lees daarover bijvoorbeeld Max Tegmark of Nick Bostrom. Het “veilig” ontwikkelen van AI vereist grote voorzichtigheid en terughoudendheid, ik vrees dat de commerciëlen en de militairen daar geen boodschap aan zullen hebben. Daarom is m.i.het antwoord op de hierboven gestelde vraag dat de AI zichzelf zal reguleren als zij daar behoefte aan heeft. En wij zullen moeten afwachten of dat voor ons goed uitpakt.

  4. Hmmm…ik wil me hier toch niet zo makkelijk bij neerleggen. Je kunt bepaalde toepassingen als land of EU bijvoorbeeld best verbieden (uiteindelijk).

  5. Een AI heeft “Superintelligence” als zij het niveau van de mens heeft bereikt. Volgens velen zal dat nooit gebeuren, maar er zijn er ook die dat punt, ook wel “singularity” genoemd, al over circa 30 jaar verwachten. Mocht dat gebeuren dan is reguleren niet meer aan de orde, behalve als die mogelijkheid er vanaf het begin is ingebouwd. Denk daarbij aan gehoorzaamheid aan de mens, of het gebruik van menselijke normen en waarden.
    In december 2017 las ik Life 3.0 van Max Tegmark, waarin onder andere wordt gesteld dat de evolutie van AI zeer snel zal gaan als de software zichzelf gaat aanpassen. Ook in december 2017 las ik in de krant dat AlphaZero, een programma van Google, na een paar uur leren het beste schaakprogramma ooit had verslagen. In hetzelfde krantenbericht stond ook dat Google werkt aan software die AI software kan ontwikkelen.
    Tegmark heeft met geld van o.a. Elon Musk een instituut opgericht speciaal voor onderzoek naar “veilige” AI ontwikkeling.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *