KI für Financial Services – Heute und morgen

Wo stehen wir heute und was wird in 5 Jahren möglich sein?

Abonnieren Sie den kostenlosen Bank Blog Newsletter

Künstliche Intelligenz ist für Finanzdienstleister hochinteressant und der Bedarf an Anwendungen für effizientere Prozesse wächst stetig. Gleichzeitig gilt es, alle Regulierungsvorgaben zu erfüllen. Verfahren der „erklärbaren KI“ sind hierfür ein Schlüssel.

Künstliche Intelligenz für Finanzdienstleister

Perspektiven der Künstlichen Intelligenz für Finanzdienstleister

Partner des Bank Blogs

BehavioSec ist Partner des Bank Blogs

Den Themen Künstliche Intelligenz (KI) und Maschinellem Lernen (ML) widerfährt aktuell intensive Geschäftigkeit. Dabei sind es keine ganz neuen Technologien, die hierfür genutzt werden. Erste Anfänge reichen bis in die 1950er-Jahre zurück, als der Turing-Test entwickelt wurde oder der Informatiker und Elektroingenieur Arthur Samuels einem Computer erstmals das Spiel Dame beibrachte.

Doch erst seit einigen Jahren sind die technischen Voraussetzungen vorhanden, um die Technologien tatsächlich in eine Vielzahl von Anwendungen zu bringen. Zu diesen Voraussetzungen gehören zuvorderst die Digitalisierung, ferner innovative und frei verfügbare Algorithmen sowie günstige und leistungsstarke Rechenpower, sodass die große Menge erzeugter Daten auch verarbeitet und sinnvoll ausgewertet werden kann.

Wirtschaftswachstum durch KI

KI und ML wird für die deutsche Wirtschaft bedeutendes Potenzial zugeschrieben. So geht das „McKinsey Global Institute“ davon aus, dass das Bruttoinlandsprodukt in Deutschland dank KI-Technologien bis 2030 jährlich um 1,3 Prozentpunkte steigen dürfte. Zum Vergleich: Andere revolutionäre Technologien sorgten für deutlich geringere Wachstumsschübe, die Dampfmaschine bspw. für 0,3 Prozentpunkte oder die Industrierobotik für 0,4 Prozentpunkte.

Insofern ist es logisch, dass KI auch politisch stark gewollt ist. Ein Beispiel ist die 2018 beschlossene und 2020 fortgeschriebene Strategie der Bundesregierung zur Künstlichen Intelligenz. In deren Rahmen sollen bis 2025 rund drei Milliarden Euro in die KI-Forschung investiert und der Slogan „KI made in Germany“ zu einem internationalen Markenzeichen werden. Auf Länderebene tut sich ebenfalls viel. So gibt es u.a. in Baden-Württemberg umfangreiche Fördermaßnahmen, um KI in die Anwendung zu bringen. Das KI-Fortschrittszentrum »Lernende Systeme und Kognitive Robotik« der Fraunhofer-Gesellschaft ist nur ein Beispiel, das mit niedrigschwelligen Angeboten rund um KI für Produktion und Dienstleistungswirtschaft insbesondere den Mittelstand erreichen und technisch unterstützen möchte.

KI als Risikotreiber in der Finanzbranche?

Auch die Branche der Financial Services, also Banken, Versicherungen und Finanzdienstleister, setzen auf KI-basierte Anwendungen (aktuell noch eher auf sehr einfache Methoden) oder würden dies zumindest gerne vermehrt tun. Allerdings gibt es gerade in diesem stark regulierten Umfeld einige Hürden, die den Einsatz von komplexerer KI nicht gerade erleichtern. Zugespitzt könnte man sagen: Verglichen mit anderen Branchen sind die Financial Services in Sachen KI ziemlich konservativ unterwegs – eben weil sie es aufgrund gesetzlicher Vorgaben sein müssen.

Das gilt aktuell und das wird mutmaßlich für den Ausblick ins Jahr 2027 noch verstärkt gelten. Einer der Gründe dafür dürfte der vielfach diskutierte Vorschlag der EU-Kommission zur Regulierung von KI-Anwendungen sein, der letztes Jahr präsentiert wurde und nun bis mindestens 2023 im Europäischen Parlament und in den Mitgliedstaaten erörtert wird, bevor er in Kraft tritt. Der Entwurf ist umfangreich und sieht drei Risikoklassen für KI-Anwendungen vor: kein oder nur minimales Risiko, hohes Risiko und inakzeptables Risiko. Während sich für die erste Gruppe kaum Änderungen zum Status quo ergeben, sollen Hochrisikoanwendungen stark reguliert und Anwendungen mit inakzeptablem Risiko gänzlich verboten werden.

Einige KI-Anwendungen von Financial Services dürften künftig zur Hochrisikogruppe gehören, weshalb in naher Zukunft mit mehr Regulierung gerechnet werden muss – eine durchaus umstrittene Tendenz. Stand heute empfiehlt es sich, das Beste aus dieser Entwicklung zu machen und dafür zu sorgen, KI-Anwendungen zu schaffen, die mit den Regulierungen konform sind. Dies hat jedoch technische Implikationen und stellt gleichzeitig explizite Anforderungen an die KI-Forschung, auf die der Artikel weiter unten noch genauer eingehen wird.

Potenziale von KI in Financial Services

Aber welche Potenziale bietet KI überhaupt für Financial Services? In unserer Arbeit erleben wir, dass es viele Anwendungsmöglichkeiten für KI in diesem Kontext gibt, bereits kleinere Projekte umgesetzt wurden und die Branche generell gerne noch mehr machen würde. Ein Haupttreiber und -argument für KI ist die viel höhere Genauigkeit in den erzielten Ergebnissen vielfältiger Prozesse. Es gäbe weniger falsch-positive und falsch-negative Ergebnisse, was wiederum das Risiko für Unternehmen minimieren würde. Denn während Menschen sich bei ihren Entscheidungen in der Regel auf höchstens sieben Eigenschaften – bekannt aus der Psychologie als Miller’s Law – fokussieren können, kann eine KI auch in weit größeren Datensätzen Muster erkennen.

Ein Beispiel für einen KI-Einsatz ist die Ermittlung des Kredit-Scorings der Schufa, mit dem die Organisation Ausfallrisiken auf Kundenseite einschätzt. Dies erfolgt aktuell automatisiert mithilfe von Scoring-Boards, statistischer Verfahren und auch Regeln, die von Menschen geprüft bzw. umgesetzt werden, also einem Mix aus sehr simplen KI-Verfahren und manueller Kontrolle. Auch das Erkennen von betrügerischen Aktivitäten zum Beispiel bei Bezahlverfahren und Abbuchungen – sogenannte Fraud-Detection – erfolgt bereits anhand KI-basierter Verfahren, die auf anormales Zahlungsverhalten hindeuten könnten. Und – um ein drittes Beispiel zu nennen – auch das Versicherungswesen könnte viele Prozesse automatisierter durchführen. Beispielsweise die Schadenserkennung und -regulierung bei Autos ist für Autovermietungen, Flottenbetreiber oder Gebrauchtwagenhändler vor Ort wie auch online ein mühsamer Vorgang. Ein automatisierter Check, wie er aktuell im KI-Fortschrittszentrum im Projekt „DigiDET” entsteht, würde hier einfachere und sicherere Prozesse ermöglichen.

Stellschraube Erklärbarkeit

Das vermutlich größte rechtliche Hindernis, um in Financial Services mehr auf KI zu setzen, ist die mangelnde Erklärbarkeit der Verfahren. Denn diese wird nicht erst mit den Vorgaben der EU relevant, sie ist es mindestens bereits seit 2018 und der neuen Datenschutzgrundverordnung. Laut dieser haben Verbraucher das Recht darauf zu erfahren, wie ein automatisiert erstelltes Ergebnis zustande gekommen ist. Doch insbesondere das häufig genutzte KI-Verfahren des „Deep Learnings“, also tiefe neuronale Netze als ein Anwendungsfeld des maschinellen Lernens, sind bisher oft selbst für Experten nicht ausreichend durchschaubar. Wie genau ein neuronales Netz zu einem Ergebnis gekommen ist, lässt sich oft schwer oder gar nicht nachvollziehen. Man spricht deshalb auch vom Black-Box-Charakter dieser Technologie.

Erklärbare KI

Doch dies lässt sich ändern. Es ist bezeichnend, dass die Forschung rund um erklärbare KI – im Englischen explainable AI oder xAI – in den letzten Jahren sehr stark zugenommen hat. Sie reagiert damit auf die Bedarfe der KI-Anwender wie beispielsweise die Finanzbranche. Die Erklärbarkeit hängt zunächst einmal von der eingesetzten KI-Methode ab. Neuronale Netze sind aufgrund ihrer Komplexität besonders herausfordernd. Aber auch einfacher zu trainierende Methoden wie die sogenannten „Random Forest“ oder „Boosting Trees“ sind nicht ausreichend transparent. Man kann nun entweder eine andere Methode wählen, die von Natur aus besser verständlich und erklärbar ist, also ein sogenanntes White-Box-Modell. Hierzu zählen lineare Modelle, Entscheidungsbäume oder Regelsysteme. Oft sind diese Methoden allerdings auch weniger genau oder leistungsstark.

Erklärbarkeit mit Hilfsmitteln

Oder man schafft Erklärbarkeit mit Hilfsmitteln. Eine Möglichkeit ist, ein sogenanntes Surrogatmodell zu verwenden. Dieses simuliert das Black-Box-Modell und trifft weitgehend gleiche Vorhersagen. Es schafft globale Erklärbarkeit, also für das Modell als Ganzes. Das zweite Hilfsmittel sind kontrafaktische Erklärungen. Diese schlüsseln auf, welches Detail der Eingabedaten konkret ein Ergebnis herbeiführte, bieten also lokale Erklärbarkeit. So könnte ein Algorithmus, der über Kreditvergaben entscheidet, als Erklärung ausspielen: „Ihr Kreditgesuch wurde abgelehnt, weil Ihr Einkommen zu niedrig ist, um die Zinsen bedienen zu können.“

Dieses Hilfsmittel macht nicht nur ML-Anwendungen verständlicher, sondern eröffnet auch zumindest begrenzte Handlungsoptionen. Erklärungsrepräsentationen sind schließlich eine dritte Möglichkeit, um eine Erklärung herbeizuführen und diese sehr anwenderspezifisch zu gestalten. Hierbei können Modelle visualisiert oder mithilfe von Narrativen, virtueller Realität, Animationen oder Sprachausgaben erklärt werden – je nachdem auch, was der Adressat braucht und versteht. Ein Entwickler braucht eben eher die technische Erklärung, um das Modell zu verbessern, wohingegen der Kunde eine deutlich einfachere und für ihn verständliche Darstellung benötigt. Aktuell gibt es hier Forschungstätigkeiten im Kontext des „Natural Language Processing“ (NLP), um automatisiert Sprachausgaben zu ermöglichen.

Stellschraube Fairness

Im Zusammenhang mit Erklärbarkeit wird oft auch das Thema Fairness genannt. Es hat sich herausgestellt, dass Modelle, die mit historischen Daten trainiert werden, leider häufig Vorurteile aus den Daten übernehmen. In der Forschung gewinnt das Thema faire KI deshalb zunehmend an Interesse. Zuerst stellt sich hierbei die Frage, was fair eigentlich bedeutet. Hierzu sind in der Forschung zahlreiche Definitionen entwickelt und technisch umgesetzt worden. Grundsätzlich kann man z.B. zwischen Fehlerraten-basierter Fairness und Quoten unterscheiden. Bei Fehlerraten geht es darum, dass ein Modell ähnliche Fehlerquoten zwischen verschiedenen demographischen Gruppen aufweist. Bei Quoten will man häufig eine Gruppe besserstellen, indem man sie temporär bevorzugt.

Welche Definition von Fairness angebracht ist, hängt allerdings vom Kontext ab und lässt Spielraum für den Menschen. Hat man sich für eine Definition entschieden, gibt es drei Anknüpfungspunkte, um an das Thema heranzugehen. Erst einmal kann man ein entwickeltes KI-Modell bzgl. des ausgewählten Kriteriums auditieren, um sich ein Bild zu verschaffen. Stellt man dabei fest, dass es Verbesserungsbedarf gibt, kann beispielsweise der Datensatz optimiert werden (pre processing), das Modell kann bzgl. des gewählten Kriteriums optimiert werden (in-processing) oder ein bereits trainiertes Modell kann nachträglich angepasst werden (post-processing).

Um ein automatisiertes Fehlverhalten auszuschließen, ist es wichtig, zum Beispiel den Quellcode genau zu analysieren oder auch Experten-Interviews mit den Software-Entwicklern zu führen. Von der ersten Idee einer Anwendung bis zu deren Implementierung ist somit ein regelkonformes Vorgehen entscheidend, um am Ende keine nachteilige, sprich Vorgaben missachtende Anwendung einzusetzen. Dabei geht es darum offenzulegen, wie ein KI-System entwickelt wurde.

Eine Analyse der verwendeten menschenbezogenen Daten ist ein wichtiger Punkt, um eine Diskriminierung bestimmter Nutzer auszuschließen. Denn ist der Datensatz nicht stimmig genug, kann er schnell unabsichtlich aber systematisch unfaire Ergebnisse ausgeben.

Unserer Erfahrung nach hat sich hierbei gezeigt, dass das Interesse seitens der Financial Services an dem Thema steigt. Allerdings fehlen den Unternehmen häufig die Berührungspunkte oder die Erfahrung, wo und wie Fairness in den Entwicklungsprozess eingebracht werden kann. Insbesondere in dem hoch regulierten und öffentlich kritisch wahrgenommenen Bereich Finanzen hat das Thema aber ein großes Potenzial.

Viele Perspektiven für KI in der Finanzbranche

Es gilt also, die regulatorischen Vorgaben rund um die Erklärbarkeit von Beginn an im Blick zu haben – einerseits, um gesetzeskonform zu agieren. Und andererseits natürlich auch, um das Vertrauen und die Akzeptanz in die Technologie auf Anwenderseite zu stärken. So dürfte sich rund um KI für das Finanzwesen in den kommenden Jahren recht viel tun.

Neben der Erklärbarkeit wird es auch darum gehen, welche Verfahren sich als die leistungsstärksten für Anwendungen dieser Branche herausstellen. Die populären neuronalen Netze sind gesetzt, wenn es um Bild- oder Sprachverarbeitung geht oder auch um das Analysieren von Zeitreihen.

Große Mengen tabellarischer Daten jedoch, wie sie im Finanzwesen häufig vorkommen, sind aktuell noch eine Nische, die kaum von neuronalen Netzen profitiert. Die Tabelleneinträge sind oft keine numerischen Daten oder es gibt Lücken in den Einträgen, was Probleme bereitet. Hierzu gibt es aktuell verstärkt Forschungsaktivitäten.

KI im Finanzwesen hat also mit Sicherheit viele Perspektiven und spannende Jahre vor sich. Melden Sie sich gerne bei mir, wenn Sie diesbezüglich Unterstützung suchen.

Über den Autor

Prof. Dr. Marco Huber

Prof. Dr. Marco Huber ist Professor für Kognitive Produktionssysteme an der Universität Stuttgart und zugleich Leiter der Abteilung Bild- und Signalverarbeitung und des Zentrums für Cyber Cognitive Intelligence (CCI) am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA. Seine Forschungsarbeiten konzentrieren sich auf die Themen maschinelles Lernen, erklärbare Künstliche Intelligenz (xAI), Sensordatenanalyse, Bildverarbeitung und Robotik.

Vielen Dank fürs Teilen und Weiterempfehlen


Mit dem kostenlosen Bank Blog Newsletter immer informiert bleiben:

Anzeige

Get Abstract: Zusammenfassungen interessanter Businessbücher

Kommentare sind geschlossen

Bank Blog Newsletter abonnieren

Bank Blog Newsletter abonnieren