Skip to content
News
NL

"Wat bewezen moest worden?" - Naar een typologie van het concept van uitleg voor het ontwerp van uitlegbare kunstmatige intelligentie.

ScienceDirect

Content

Overslaan naar de hoofdinhoud Overslaan naar artikel

Elsevier logoScienceDirect

Inloggen voor bedrijvenInloggen / registreren

  • PDF bekijken PDF

Zoeken

Elsevier

Expert Systems with Applications

Online beschikbaar sinds 24 september 2022, 118888

In druk, Journal Pre-proofHulpWat zijn Journal Pre-proof artikelen?

Expert Systems with Applications

Quod erat demonstrandum? - Naar een typologie van het concept van uitleg voor het ontwerp van uitlegbare AI

Auteursinformatie (opent een overlay paneel)FedericoCabitzaabEnvelopeAndreaCampagneraEnvelopeGianclaudioMalgieridEnvelopeChiaraNatalicEnvelopeDavidSchneebergereEnvelopeKarlStoegereEnvelopeAndreasHolzingerfPersonEnvelope

Meer weergevenNaar beneden navigeren

DelenDelen

Geciteerd doorCite

https://doi.org/10.1016/j.eswa.2022.118888Rechten en inhoud verkrijgen

Onder een Creative Commons licentie

Open access

Belangrijkste punten

•

We stellen een raamwerk voor om verschillende soorten uitleg van AI-systemen te definiëren.

•

We plaatsen de huidige XAI-discussies binnen het voorgestelde raamwerk.

•

We benadrukken twee brede perspectieven voor het definiëren van kwaliteitscriteria voor uitlegbaarheid.

•

We bespreken de relevantie van ons raamwerk in het licht van de huidige en toekomstige AI-regelgeving.

•

We identificeren fundamentele aspecten voor toekomstig onderzoek door XAI-onderzoekers.

Samenvatting

In dit artikel presenteren we een fundamenteel raamwerk voor het definiëren van verschillende soorten uitleg van AI-systemen en de criteria voor het evalueren van hun kwaliteit. Uitgaande van een structureel perspectief op hoe uitleg kan worden opgebouwd, namelijk in termen van een "explanandum" (wat uitgelegd moet worden), meerdere "explantia" (uitleg, aanwijzingen of onderdelen van informatie die uitleggen), en een relatie die het "explanandum" en de "explantia" verbindt, stellen we een typologie voor op basis van het "explanandum" en wijzen we op andere mogelijke typologieën op basis van hoe de "explantia" worden gepresenteerd en hoe ze zich verhouden tot de "explantia". We benadrukken ook twee brede en complementaire perspectieven voor het definiëren van mogelijke kwaliteitscriteria voor het beoordelen van uitlegbaarheid: epistemologisch en psychologisch (cognitief). Deze definities zijn bedoeld om de drie belangrijkste functies te ondersteunen die we geloven dat de aandacht en het verdere onderzoek van XAI-onderzoekers zouden moeten trekken: duidelijke inventarissen, duidelijke verificatiecriteria en duidelijke validatiemethoden.

Trefwoorden

Explainable AI

XAI

Uitleg

Taxonomie

Kunstmatige intelligentie

Machine learning

Aanbevolen artikelen

Beschikbaarheid van gegevens

Er zijn geen gegevens gebruikt voor het onderzoek dat in het artikel wordt beschreven.

Geciteerd door (0)

© 2022 The Author(s). Published by Elsevier Ltd.

Aanbevolen artikelen

Naar beneden navigeren

Geen artikelen gevonden.

Artikelstatistieken

Naar beneden navigeren

Bekijk artikelstatistieken

Elsevier logo met tekst

Wij gebruiken cookies om onze dienstverlening te verbeteren en te personaliseren, en om relevante inhoud en advertenties te tonen. Door verder te gaan, stemt u in met het gebruik van cookies.

Copyright © 2022 Elsevier B.V. of haar licentiegevers of bijdragers. ScienceDirect® is een geregistreerd handelsmerk van Elsevier B.V.

ScienceDirect® is een geregistreerd handelsmerk van Elsevier B.V.

RELX groep homepage


Deze inhoud is automatisch vertaald met behulp van machinevertaling. De originele versie is beschikbaar in de brontaal.