Begrip van werking algoritmes is noodzakelijk om het ‘black box’ probleem van artificiële intelligentie aan te pakken.

Artificiële intelligentie wordt op stal van terreinen toegepast bij het nemen van belangrijke beslissingen. Deze technologische toepassingen worden bijvoorbeeld gebruikt om terroristen op het spoor te komen, kanker te ontdekken of om financiële malversaties te achterhalen. Op dit moment worden daarmee helaas ernstige fouten gemaakt. Gelukkig zijn er echter ontwikkelingen die helpen dergelijke missers in de toekomst te voorkomen.

Het artikel Solving AI’s ‘black box’ problem: Learning how algorithms make decisions beschrijft dergelijke blunders. Bijvoorbeeld van de Palestijnse bouwvakker die op basis van een vertaalfout van Facebook’s vertaalservice onterecht werd beschuldigd van het voorbereiden van een aanslag.

Om dergelijke problemen te voorkomen zullen we beter moeten weten hoe algoritmes werken, en moeten we methodes ontwikkelen om de werking van algoritmes te verbeteren. Auteur Ben Dickson beschrijft in het artikel op welke manier onderzoekers hier mee bezig zijn, vaak samen met technologiebedrijven:

Their efforts will be crucial to the development of the AI industry — especially as deep learning finds its way into critical domains where mistakes can have life-changing consequences.

Dickson beschrijft eerst de werking van een deep learning algoritme. Op basis van afbeeldingen (zoals wel of geen kat) ontwikkelt het algoritme eigen regels waarmee het kan bepalen wat  een bepaald voorwerp of bepaalde gedragingen voorstellen. De machine ontwikkelt zelf patronen op basis van ruwe data. Deze patronen zijn dan zeer nauwkeurig in het oplossen van problemen.

Indien je een neuraal netwerk dan een eigen gedragsmodel laat ontwikkelen, verlies je in feite de zichtbaarheid in het denkproces. Vanwege de complexiteit van innerlijke parameters en verbindingen binnen neurale netwerken, ben je als mensen niet meer in staat te controleren wat er gebeurt.

De redenering die een neuraal netwerk ontwikkelt, weerspiegelt dan niet noodzakelijkerwijs de redenering van mensen, ook al levert het meestal nauwkeurige resultaten op. De redenering bevat vaak vooringenomenheid en problematische correlaties. Terwijl het voor mensen soms ingewikkeld of onmogelijk is om te achterhalen waar die redenering op gebaseerd is. Daardoor durven organisaties beslissingen ook niet toen te vertrouwen aan geautomatiseerde systemen. Als je niet weet op basis van welke logica een besluit is gebaseerd, dan vertrouw je het besluit nemende systeem niet.

Er gloort echter licht aan het eind van de tunnel. Verschillende onderzoekers zijn bezig met methodes die helpen beslissingen van neurale netwerken te interpreteren. Zogenaamde “lokale verklaringen” proberen motieven en parameters achter de individuele beslissingen van een AI-algoritme te begrijpen. “Globale verklaringen” proberen de algemene redeneerlogica van een AI-model te beschrijven.

Zo gebruikt de RISE-aanpak -een lokale verklaring- zogenaamde hittemappen om na te gaan welke onderdelen van een afbeelding bijdragen aan de verklaring van die afbeelding.

The idea behind RISE is to randomly obscure parts of the input image and run it through the neural network to observe how the changes affect the output weights. By repeating the masking process multiple times, RISE is able to discern which parts of the image are more important to each output class.

Een andere aanpak focust zich bijvoorbeeld op ontbrekende kenmerken.

Dickson bespreekt in deze bijdrage ook voorbeelden van “globale verklaringen”, waarbij bijvoorbeeld de complete evolutie van een neuraal netwerk gemonitord en gedocumenteerd wordt.

Hierdoor worden artificiële intelligentie-toepassingen niet alleen minder foutgevoelig en daarmee kwalitatief beter. Het kan ook leiden tot nieuwe, onverwachte, inzichten en verbeterde services voor klanten.

Meer transparantie in de werking van algoritmes en methoden om de toepassingen minder foutgevoelig te maken, zijn volgens mij cruciaal voor vertrouwen en voor de bredere adoptie van deze technologieën. Tot die tijd, en overigens daarna, moeten we zeer kritisch blijven in het verbinden van verstrekkende gevolgen aan dergelijke geautomatiseerde beslissingen.

This content is published under the Attribution 3.0 Unported license.

Posted in Wetenswaardigheden
Tags: , ,

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

*

* Checkbox GDPR is verplicht

*

Ik ga akkoord

Notificaties via mail?

Via email geattendeerd worden op nieuwe berichten?

Volg

Subscribe via RSS
december 2018
M D W D V Z Z
« nov    
 12
3456789
10111213141516
17181920212223
24252627282930
31  

Archief

Categorieën

%d bloggers liken dit: