Innovationsprojekte

Explainable Artificial Intelligence for safe and trusted Industrial Applications (ExplAIn)

Erklärbare Künstliche Intelligenz: Nachvollziehbare KI-Anwendungen etablieren

Ob Bilderkennung oder virtueller Assistent: Maschinelles Lernen (ML) wird bereits von Unternehmen vielseitig genutzt. Der Mehrwert: Produktionsprozesse können durch Methoden des maschinellen Lernens autonom adaptiert oder sogar komplett vorgeplant und geregelt werden. Doch es gibt auch Unternehmen, die aufgrund situationsbedingter Fehler, fehlender Nachvollziehbarkeit und fehlender Beeinflussbarkeit kein Vertrauen in die Künstliche Intelligenz haben. Dabei handelt es sich bei den aufgezählten Vorbehalten nicht um Schwächen der Künstlichen Intelligenz, sondern um Schwächen bei der Kontrolle der Anwendung. Es fehlt vielfach an implementierbaren Kontrollinstanzen, die vorhandene und neue ML-Systeme nachvollziehbarer und sicherer machen.

Das Ziel des Projekts ‚Erklärbare künstliche Intelligenz für sichere und vertrauenswürdige industrielle Anwendungen (ExplAIn)‘ ist es deshalb, vorhandene und neue Verfahren für Maschinelles Lernen nachvollziehbarer und sicherer zu machen. Dafür wird ein System auf Basis von Explainable Artificial Intelligence (XAI, erklärbare Künstliche Intelligenz) entwickelt. XAI setzt sich aus Prozessen und Methoden zusammen, die es Anwender:innen ermöglichen, die durch Maschinelles Lernen erzeugten Ergebnisse zu verstehen und ihnen zu vertrauen. Das XAI-System soll somit sichere und nachvollziehbare KI-Anwendungen in der Praxis etablieren.

Mehr Infos finden Sie auf unserer Innovationsplattform

Fakten

Projekt: Explainable Artificial Intelligence for safe and trusted Industrial Applications (ExplAIn)
Projektlaufzeit: 01.08.2022 bis 31.07.2025
Projektvolumen: 1,13 Mio. Euro


Wir benötigen Ihre Zustimmung, um YouTube zu laden!

Um das Video anzuzeigen, wird der Cookie „YouTube“ benötigt.


Blogbeiträge

18.07.2023 | "Für Unternehmen wird die Nutzung sicherer KI immer realistischer" ​​​​​​​