Wie Künstliche Intelligenz nachvollziehbar wird

KI im Fokus von Regulierung und Verantwortung

Abonnieren Sie den kostenlosen Bank Blog Newsletter

Regulatorische Vorgaben machen erklärbare KI-Systeme unverzichtbar. Explainable AI schafft Transparenz, ermöglicht die Überprüfung von Entscheidungen, reduziert Haftungsrisiken und stärkt das Vertrauen in datenbasierte Prozesse.

Transparente KI-Entscheidungen in Unternehmen

Explainable AI liefert nachvollziehbare Einblicke in komplexe KI-Entscheidungen und ist ein Schlüssel zur rechtskonformen und vertrauenswürdigen KI.

Partner des Bank Blogs

YouGov ist Partner des Bank Blogs

Mit der fortschreitenden Verbreitung und Integration von Künstlicher Intelligenz (KI) in Entscheidungsprozesse stehen Unternehmen und Führungskräfte zunehmend vor der Herausforderung, rechtliche und ethische Standards zu wahren. Der Einsatz von KI rückt immer stärker in den Fokus regulatorischer Anforderungen – besonders in der Europäischen Union.

Die EU hat mit einer Reihe von Vorschriften, allen voran dem AI Act, klare Leitplanken gesetzt: KI-Systeme müssen nicht nur innovativ, sondern auch transparent, nachvollziehbar und rechtlich robust sein. Unternehmen sind verpflichtet, Systeme zu entwickeln, deren Funktionsweise überprüfbar ist und die es Entscheidungsträgern ermöglichen, ihre Sorgfaltspflichten einzuhalten.

Transparenz als Schlüssel zu Vertrauen und Compliance

Explainable AI (XAI) bietet die methodische Grundlage, um diese regulatorischen Anforderungen zu erfüllen. XAI umfasst ein breites Spektrum an Ansätzen, die Entscheidungen von KI-Systemen transparent, interpretierbar und nachvollziehbar machen. Ziel ist es, Vertrauen aufzubauen, Fairness zu gewährleisten und gleichzeitig Haftungsrisiken zu minimieren.

Das Whitepaper der KI-Beratungsfirma statworx und der Rechtswissenschaftlerin Prof. Dr. Elena Dubovitskaya von der Justus-Liebig-Universität Gießen zeigt, wie XAI zur Schlüsseltechnologie für vertrauenswürdige, sichere und gesetzeskonforme KI wird.

Rechtliche Vorgaben treffen Unternehmenspraxis

Anforderungen an die Erklärbarkeit von KI finden sich nicht nur in der Datenschutzgrundverordnung und im Produkthaftungsrecht, sondern auch im Gesellschaftsrecht. Wer als Entscheidungsträger auf KI-Prognosen vertraut, muss deren Zustandekommen nachvollziehen können – andernfalls droht ein Verstoß gegen die Sorgfaltspflicht.

Das Whitepaper untersucht die Rolle von XAI in verschiedenen rechtlichen Kontexten und zeigt wie Unternehmen XAI nutzen können, um regulatorische Anforderungen zu erfüllen und das Vertrauen von Nutzern, Kunden und Dritten zu stärken.

Drei Beispiele für Explainable AI

Drei Beispiele aus den Bereichen Finance, HR und Medizintechnik und verdeutlichen, wie XAI in der Praxis eingesetzt werden kann – etwa um Diskriminierung zu vermeiden, Entscheidungsprozesse auditierbar zu machen oder Haftungsrisiken zu reduzieren.

1. Plausibilitätsprüfung in der Finanzberatung

Ein Finanzberatungsunternehmen nutzt eine KI, um Kunden Anlageempfehlungen zu geben. Der Geschäftsführer ist verpflichtet, diese Empfehlungen auf ihre Plausibilität zu prüfen, bevor er sie weitergibt. Mit XAI-Methoden wie SHAP und Counterfactual Explanations werden die maßgeblichen Faktoren der Entscheidung transparent gemacht. So kann er erkennen, ob die Empfehlungen mit den Zielen der Kunden übereinstimmen oder ob das Modell angepasst werden muss. Das Vorgehen reduziert Haftungsrisiken und stärkt langfristig das Vertrauen der Kunden in die Beratung.

2. Erklärbares Recruiting als Wettbewerbsvorteil

Auch im Recruiting wird XAI zunehmend relevant. Ein internationaler Konzern setzt eine KI zur Vorauswahl von Bewerbern ein. Laut DS-GVO und AI Act haben abgelehnte Kandidaten ein Recht auf eine verständliche Erklärung der Entscheidung. Mithilfe von XAI werden die relevanten Einflussfaktoren aggregiert dargestellt und durch Gegenbeispiele verdeutlicht, was zu einer positiven Entscheidung geführt hätte.

Durch diese transparente Kommunikation werden Geschäftsgeheimnisse gewahrt, ohne den Rechtsanspruch der Bewerber zu verletzen. Das stärkt die Akzeptanz des Auswahlprozesses, schützt das Unternehmen vor rechtlichen Auseinandersetzungen und verbessert die Candidate Experience.

3. Produkthaftung in der Medizintechnik

Besonders kritisch wird XAI im Kontext der Produkthaftung. Ein Medizintechnikunternehmen setzt ein KI-gestütztes Diagnosesystem ein, das in Einzelfällen falsche Ergebnisse liefert. Patienten und Krankenhäuser machen das Unternehmen haftbar.

Mithilfe von XAI werden die Ursachen der Fehldiagnosen nachvollziehbar offengelegt, inklusive der entscheidenden Bildmerkmale und der Konfidenzwerte. Dies ermöglicht eine fundierte Verteidigung im Haftungsfall, hilft bei der gezielten Optimierung des Modells und stärkt das Vertrauen von Ärzten und Patienten. Gleichzeitig werden zukünftige Risiken minimiert, da systematische Fehler frühzeitig erkannt und behoben werden können.

Fazit: XAI als strategischer Erfolgsfaktor

Explainable AI ist weit mehr als ein technisches Werkzeug – sie ist ein strategischer Hebel für rechtssichere und vertrauenswürdige KI. Unternehmen, die heute in XAI investieren, sichern sich nicht nur Compliance mit regulatorischen Vorgaben wie AI Act und DS-GVO, sondern schaffen auch Transparenz in kritischen Entscheidungsprozessen.

Dies stärkt das Vertrauen von Kunden, Partnern und Aufsichtsbehörden, reduziert Haftungsrisiken und erhöht die Akzeptanz von KI-Systemen im Unternehmen. Langfristig kann XAI so zu einem Wettbewerbsvorteil werden, weil sie nicht nur Risiken minimiert, sondern auch die Qualität und Nachvollziehbarkeit von Entscheidungen verbessert.

Premium Abonnenten des Bank Blogs haben direkten kostenfreien Zugriff auf die Bezugsinformationen zu Studien und Whitepapern.

Noch kein Premium-Leser?
Premium Abonnenten des Bank Blogs haben direkten Zugriff auf alle kostenpflichtigen Inhalte des Bank Blogs (Studienquellen, E-Books etc.) und viele weitere Vorteile.

>>> Hier anmelden <<<

Neu: Tagespass Studien
Sie wollen direkten Zugriff auf einzelne Studien, aber nicht gleich ein Premium-Abonnement abschließen? Dann ist der neue Tagespass Studien genau das richtige für Sie. Mit ihm erhalten Sie für 24 Stunden direkten Zugriff auf sämtliche Studienquellen.

>>> Tagespass Studien kaufen <<<


Ein Service des Bank Blogs
Der Bank Blog prüft für Sie regelmäßig eine Vielzahl von Studien/Whitepapern und stellt die relevanten hier vor. Als besonderer Service wird Ihnen die Suche nach Bezugs- und Downloadmöglichkeiten abgenommen und Sie werden direkt zur Anbieterseite weitergeleitet. Als Premium Abonnent unterstützen Sie diesen Service und die Berichterstattung im Bank Blog.

Über den Autor

Dr. Hansjörg Leichsenring

Dr. Hansjörg Leichsenring ist Herausgeber des Bank Blogs und der Finanzbranche seit über 30 Jahren beruflich verbunden. Nach Banklehre und Studium arbeitete er in verschiedenen Positionen, u.a. als Direktor bei der Deutschen Bank, als Vorstand einer Sparkasse und als Geschäftsführer eines Online Brokers. Als Experte für Strategien in den Bereichen Digitalisierung, Innovation und Vertrieb ist er gefragter Referent und Moderator bei internen und externen Veranstaltungen im In- und Ausland.

Vielen Dank fürs Teilen und Weiterempfehlen


Mit dem kostenlosen Bank Blog Newsletter immer informiert bleiben:

Anzeige

Get Abstract: Zusammenfassungen interessanter Businessbücher

Kommentare sind geschlossen

Bank Blog Newsletter abonnieren

Bank Blog Newsletter abonnieren