7 Herausforderungen für Banken beim Einsatz von KI

Künstliche Intelligenz, Verantwortung und Regulatorik

Abonnieren Sie den kostenlosen Bank Blog Newsletter

Banken müssen in der digitalisierten Welt verstärkt auf Künstliche Intelligenz setzen, um effizient, innovativ und wettbewerbsfähig zu bleiben. Doch welche Herausforderungen bringt eine breitere KI-Nutzung in Kreditinstituten mit sich?

Herausforderungen beim Einsatz von Künstlicher Intelligenz in Banken

Der Einsatz von Künstlicher Intelligenz in Banken bringt zahlreiche rechtliche und regulatorische Herausforderungen mit sich.

Partner des Bank Blogs

Berg Lund & Company ist Partner des Bank Blogs

Künstliche Intelligenz (KI) hat das Potenzial, die Bankenbranche grundlegend zu verändern: von der Optimierung interner Prozesse über verbesserte Kundenerlebnisse durch personalisierte Services bis hin zu datenbasierten Entscheidungen in Echtzeit, die menschliche Fähigkeiten übertreffen.

Laut einer PwC-Studie nutzen bereits zwei Drittel der Finanzdienstleister in Deutschland KI, insbesondere um Innovationen zu beschleunigen und die Produktivität zu steigern. Doch bei allen Vorteilen müssen auch die Risiken fehlerhafter Entscheidungen und die eingeschränkte Nachvollziehbarkeit durch immer komplexere KI-Modelle beherrscht werden.

Neue regulatorische Herausforderungen gilt es zu überwinden, was auch Anpassungen an den heutigen Risikomanagementprozessen erfordert. Insbesondere die hochregulierte Bankenbranche ist hiervon betroffen.

Die Herausforderungen für Banken beim Einsatz von KI

Der Einsatz von Künstlicher Intelligenz in Banken bringt erhebliche rechtliche und regulatorische Herausforderungen mit sich, insbesondere wenn die Technologie tief in zentrale Geschäftsprozesse integriert wird und wesentliche Entscheidungen automatisieren soll. Folgende Aspekte sind dabei zu berücksichtigen:

  1. Datenschutz und Datensicherheit,
  2. Nichtdiskriminierung und Fairness,
  3. Erklärbarkeit und Transparenz,
  4. Haftungsfragen,
  5. Regulatorische Compliance,
  6. Technische Standards und Auditierbarkeit,
  7. Ethische Implikationen.

1. Datenschutz und Datensicherheit

KI-Systeme benötigen große Datenmengen, um ihre Vorteile auszuspielen. Wollen Banken KI für Kundenlösungen einsetzen, müssen sie sicherstellen, dass die Verarbeitung personenbezogener Daten den Datenschutzvorschriften, insbesondere der EU-Datenschutz-Grundverordnung (DSGVO), entspricht.

Herausforderungen bestehen vor allem darin, die zweckgebundene Einwilligung der Betroffenen einzuholen und die Daten wirksam zu anonymisieren. Auch der Schutz von nicht-personenbezogenen Kundendaten und die Gewährleistung der Datensicherheit, vor dem Hintergrund steigender Cybergefahren, sind zentrale Themen.

2. Nichtdiskriminierung und Fairness

Prognosen oder Entscheidungen von KI-Systemen können, genauso wie bei menschlichen Prozessen, zu ungewünschten oder unzulässigen Diskriminierungen führen. Ursachen sind unvollständige Daten oder Verzerrungen, ein sogenannter „Bias“, in historischen Datenmustern, die datenbasierte Vorurteile fortschreiben und damit bestimmte Personenkreise benachteiligen können.

Zudem können auch KI-Algorithmen voreingenommen agieren, wenn sie selbstständig unerwünschte oder problematische Merkmale aus den Daten heranziehen oder übergewichten.

Ein einfaches Negativbeispiel wäre die Postleitzahl als Indikator für die Kreditwürdigkeit auf Basis der lokal aufgetretenen Kreditausfälle. Selbst wenn ein solches Merkmal in der Praxis eine hohe Prognosegüte haben sollte, würde es für sich genommen Kunden unangemessen stigmatisieren, mit Vor- oder Nachteilen für den Einzelnen beim Kreditzugang.

Die europäische KI-Verordnung stellt für Hochrisiko-Anwendungen hohe Anforderungen an Datenqualität und die Daten-Governance, um die Verletzung von Grundrechten und verbotene Diskriminierung auszuschließen. Um Nichtdiskriminierung und Fairness sicherzustellen, ist ein ganzheitlicher Ansatz in den einzelnen Unternehmen erforderlich, der sowohl technologische Lösungen als auch ethische Überlegungen und rechtliche Rahmenbedingungen einbezieht.

3. Erklärbarkeit und Transparenz

Ein großes Hindernis für den Einsatz von KI in Banken ist die zunehmende Komplexität und eingeschränkte Transparenz fortgeschrittener KI-Modelle, häufig auch als „Black Box“-Problematik bezeichnet. Dies hat zur Folge, dass Entscheidungen von KI-Systemen durch den Menschen nur schwer überprüft und nachvollzogen werden können.

Regulatoren legen allerdings hohen Wert auf Erklärbarkeit und Transparenz von KI-Modellen, insbesondere wenn diese in sensiblen Bereichen wie der Kreditvergabe oder im Risikomanagement verwendet werden. Banken müssen auch den Kunden künftig nachweisen können, wie Entscheidungen zustande gekommen sind und welche Rolle KI gespielt hat, wenn ihre Grundrechte beeinträchtigt sein können, z.B. im Falle einer KI-basierten Kreditablehnung bei Verbrauchern.

4. Haftungsfragen

Eine zentrale rechtliche Frage ist, wer haftet, wenn KI-Systeme Fehlentscheidungen treffen. Mit der zunehmenden Integration von KI in Produkten und Dienstleistungen im Front- und im Backoffice wird diese Frage auch für Banken relevanter. Wenn eine KI-Anwendung in einer Bank eine falsche Empfehlung abgibt oder andere Fehlentscheidungen trifft, ist oft unklar, ob die Bank als Betreiber, der Anbieter oder gar der Entwickler der KI hierfür verantwortlich ist und für etwaige Schäden haftbar gemacht werden kann.

Diese Unsicherheit erfordert klare vertragliche Regelungen und zum Teil eine neue rechtliche Betrachtung von Haftungsfragen. Ein aktueller EU-Regulierungsvorschlag zur KI-Haftung soll es Geschädigten künftig ermöglichen, Schadensansprüche leichter geltend zu machen und Zugang zu Dokumentationen als Beweismittel zu erhalten, was entsprechende Vereinbarungen mit dem KI-Entwickler im Innenverhältnis erforderlich macht.

5. Regulatorische Compliance

Banken unterliegen strengen regulatorischen Anforderungen und den Vorgaben von Aufsichtsbehörden wie der Europäischen Zentralbank, der Bundesanstalt für Finanzdienstleistungsaufsicht oder dem Financial Stability Board. Der Einsatz von KI darf nicht gegen diese komplexen Regularien verstoßen. Banken müssen also sicherstellen, dass ihre KI-Systeme mit den Vorschriften konform sind, etwa im Bereich der Risikomodellierung oder der Bekämpfung von Geldwäsche und Terrorismusfinanzierung.

6. Technische Standards und Auditierbarkeit

Um regulatorische Komplexität zu reduzieren, Risiken einzuhegen und gesetzliche Anforderungen an die Technologie zu verankern, setzen Regulierer auch auf das Potenzial technischer Standards. So sieht die KI-Verordnung die Möglichkeit vor, die Konformität von Hochrisiko-KI-Systemen über die Anwendung technischer Normen zu erfüllen.

Aktuell wird in den europäischen Standardisierungsorganisationen intensiv an der Entwicklung technischer Standards und Vorgaben gearbeitet, nach denen KI-Systeme geprüft, getestet und auditiert werden können. Banken sollten sich frühzeitig mit den aktuell entstehenden Normen auseinandersetzen, um sicherzustellen, dass ihre KI-Systeme auch weiterhin als regelkonform und sicher eingestuft werden und externen Prüfungen standhalten.

7. Ethische Implikationen.

Neben den rechtlichen und regulatorischen Anforderungen sollten Banken generell die ethischen Implikationen der Nutzung von KI mit bedenken. Dabei geht es nicht nur um die Sicherstellung von Nichtdiskriminierung, Fairness und Transparenz, sondern auch um den verantwortungsvollen Einsatz von KI-Technologien, die das Vertrauen der Kunden nicht untergraben.

Im Wettbewerb um den Kunden könnte es für Banken ratsam sein, den Einsatz von KI durch eigene ethische Leitlinien zu flankieren, die über das rechtlich Erforderliche hinausgehen. Damit können sie zusätzlich Vertrauen aufbauen und steigenden Erwartungen der Gesellschaft an KI gerecht werden.

Einsatz von KI in Banken ist komplex

Die rechtlichen und regulatorischen Herausforderungen beim Einsatz von KI in Banken sind komplex und vielschichtig. Datenschutz, Fairness, Transparenz, Haftungsfragen und regulatorische Compliance sind zentrale Themen, die es zu bewältigen gilt. Zu vielen Fragen gibt es noch keine fertigen Antworten, die lediglich umgesetzt werden müssten.

Daher ist eine enge Zusammenarbeit zwischen Regulierungsbehörden, Banken und weiteren Stakeholdern notwendig, um sicherzustellen, dass KI-Systeme verantwortungsvoll und im Einklang mit den gesetzlichen Vorgaben eingesetzt werden, ohne dass der notwendige Raum für Innovation und Differenzierung im Wettbewerb beschnitten wird.


Stephan Mietke - Director Digital Finance, Bankenverband

Stephan Mietke

Stephan Mietke ist Koautor des Beitrags. Er ist Experte für die Themenbereiche Digital Finance und Retail Banking & Verbraucherschutz im Bankenverband und dort unter anderem zuständig für die Themen Künstliche Intelligenz, Big Data und digitale Ansätze des Bankings.

 

Über den Autor

Tobias Tenner

Tobias Tenner ist Head of Digital Finance beim Bundesverband deutscher Banken und beschäftigt sich mit Innovationen im, aber auch außerhalb des Bankensektors. Zuvor war der Diplomkaufmann Manager bei PwC und als Consultant für NTT Data und M.M. Warburg tätig.

Vielen Dank fürs Teilen und Weiterempfehlen


Mit dem kostenlosen Bank Blog Newsletter immer informiert bleiben:

Anzeige

Get Abstract: Zusammenfassungen interessanter Businessbücher

Kommentare sind geschlossen

Bank Blog Newsletter abonnieren

Bank Blog Newsletter abonnieren