Uitlegbare AI (XAI)

Uitlegbare AI (XAI)

Uitlegbare AI (XAI)

Intussen worden op steeds meer toepassingsgebieden methoden uit de kunstmatige intelligentie (AI) gebruikt, b.v. om voorwerpen in beelden te herkennen of om spraak te verwerken. In sommige gevallen overtreffen ze nu al de prestaties van mensen. De resultaten van de thans gebruikte AI-systemen zijn echter vaak niet begrijpelijk, b.v. waarom een bepaald voorwerp in een afbeelding werd herkend. Dit is een aanzienlijk nadeel, vooral bij toepassingen die cruciaal zijn voor de veiligheid, zoals autonome voertuigen of op medisch gebied, en beperkt de verdere verspreiding van AI-systemen dienovereenkomstig.

Een robot en een mens schudden elkaar de hand. Een robot en een mens schudden elkaar de hand.
© Robot hand photo created by rawpixel.com - www.freepik.com

In het kader van Explainable Artificial Intelligence (XAI) gaat het er dus om de resultaten van AI-systemen uit te leggen in een vorm die voor mensen begrijpelijk is. Dit vermogen is een belangrijke voorwaarde om het vertrouwen van de gebruiker in het AI-systeem te vergroten. Het maakt het ook mogelijk de sterke en zwakke punten van het systeem beter te beoordelen. (Fraunhofer Instituut voor Wetenschappelijke en Technische Trendanalyse INT)

Explainable Aritificial Intelligence (XAI) verwijst dus naar het streven om inzichten en voorspellingen die worden verkregen door Machine Learning (ML) (dit omvat ook neurale netwerken) verklaarbaar en verifieerbaar te maken. In het kader van de digitalisering is XAI een belangrijke bouwsteen voor het openen van de veelbesproken "black box", zowel om de kwaliteit van de productie te verbeteren als om het vertrouwen van gebruikers en klanten te winnen in op AI gebaseerde besluitvorming (1). Daarnaast bevat de GDPR (General Data Protection Regulation) van de EU ook regelgeving die het gebruik van XAI noodzakelijk kan maken zodra persoonsgegevens worden verwerkt (2).

Toepassingen van XAI in de industriële context worden bijvoorbeeld gedreven door de behoefte aan vertrouwen - in die zin dat kostbare beslissingen moeten worden genomen door een ML-model - en de behoefte om bepaalde fenomenen beter te begrijpen - het voorspellen van machinestoringen en deze vervolgens verbeteren aan de hand van overeenkomstige gegevens (3).

Vanwege het toepassingsgebied richten veel ML-modellen zich op beeld- of sensorgegevens, omdat deze informatie relatief gemakkelijk te verkrijgen is of reeds is verzameld. Recent onderzoek toont aan dat het mogelijk is om sensorgegevens van complexe productiefaciliteiten als trainingsgegevens te gebruiken. De resulterende modellen zijn in staat i) time-to-failure (TTF), ii) de toestand van de apparatuur, en iii) TTF-intervallen beter te voorspellen of te herkennen dan menselijke deskundigen (Jalali et al.).

Op het gebied van beeldverwerking bestaat er al geruime tijd verwant onderzoek dat erop gericht is de beeldregio's te identificeren die worden gebruikt voor classificatie door een ML-model. (Ribeiro et al. 2016) is hier een van de fundamentele werken; de auteurs bieden ook een open source tool, die echter volgens hun eigen informatie gemaakt is voor tekst- of tabelgegevens (4).

Uitlegbare AI verschilt dus van traditionele technieken voor machinaal leren, waarbij ontwikkelaars vaak niet kunnen begrijpen waarom het systeem tot een bepaalde beslissing is gekomen (5).

Bronnen:

(1):Cf: https://www.forbes.com/sites/forbestechcouncil/2021/02/22/why-explainability-is-the-next-step-for-ai-in-manufacturing/?sh=70e798761517, opgevraagd 31.8.2021; en https://www.pwc.co.uk/services/risk/insights/explainable-ai.html, opgevraagd 1.9.2021
(2):https://www.dsgvo-portal.de/gdpr_recital_71.php, opgevraagd 1.9.2021
(3):https://ercim-news.ercim.eu/en116/r-i/understandable-deep-neural-networks-for-predictive-maintenance-in-the-manufacturing-industry, opgevraagd 1.9.2021
(4):https://github.com/marcotcr/lime, opgevraagd 1.9.2021
(5):https://www.nextmsc.com/report/explainable-ai-market, opgevraagd 05.10.2021.