Sichere KI im Finanzsektor: Das Praxisbeispiel grenke AG

Von der Auswahl bis zur Anwendung

Abonnieren Sie den kostenlosen Bank Blog Newsletter

Finanzinstitute unterliegen strengen Vorgaben zu Datenschutz und IT-Sicherheit – auch bei KI-Systemen. Eine Fallstudie zeigt, wie bei einer Spezialbank zwei sichere KI-Lösungen eingeführt wurden, die Mitarbeiter künftig effektiv bei ihren Aufgaben unterstützen.

Fallstudie zur Implementierung von KI in Banken

Künstliche Intelligenz, Cloud sowie IT-Sicherheit und Datenarchitektur sind wichtige Themen für Banken und Sparkassen.

Partner des Bank Blogs

Berg Lund & Company ist Partner des Bank Blogs

Die grenke AG ist – als weltweites Finanzinstitut – Partner für kleine und mittelständische Unternehmen in den Bereichen Leasing, Factoring & Banking. Zu Beginn des Jahres 2023 machte das Institut die strategische Entscheidung öffentlich, umfangreich in die Digitalisierung zu investieren. Im Rahmen des Programms Digital Excellence sollten wesentliche Grundlagen für eine moderne Cloud-Infrastruktur gelegt sowie IT-Sicherheit und Datenarchitektur auf die zukünftigen Herausforderungen ausgerichtet werden.

Ziel ist einerseits, Unternehmensprozesse durch die Einbindung von KI in die eigenen Softwaresysteme effizienter zu gestalten, und andererseits, die Mitarbeiter mit modernsten Werkzeugen auszustatten, um sie bei der erfolgreichen Ausführung ihrer Tätigkeiten zu unterstützen.

Unternehmensweite Kampagne zu KI Use Cases

Zunächst wurde in einer unternehmensweiten Kampagne der Bedarf an KI Use Cases im Unternehmen erfasst, bewertet, klassifiziert und priorisiert. Das letzte Wort hatten jedoch die Mitarbeiter, die in einer internen Abstimmung ihre Top 3 Use Cases als Startpunkte für die Implementierung auswählten. Dadurch konnte das Thema KI mit einem starken Buy-In der Belegschaft starten.

Unter den Top Use Cases befand sich ein genereller KI-Chatbot-Assistent, der bei der täglichen Arbeit unterstützen sollte. Außerdem der Aufbau einer KI-Wissensdatenbank, die das schnelle und einfache Auffinden der richtigen Unternehmensinformation zum richtigen Zeitpunkt ermöglichen sollte.

Als Projektpartner wurde ONTEC AI ausgewählt, ein KI-Systementwickler spezialisiert auf sichere KI-Systeme für Unternehmen mit besonders komplexen und sensiblen Daten.

KI-Wissensmanagement: Eine interne Frage-Antwort-Lösung

Die Bank verfügt über einen großen internen Datenschatz, aus dem sich Mitarbeiter fortlaufend für ihre tägliche Arbeit bedienen. Ein großer Teil dieser Dokumente sind wichtige interne Vorgaben zu Prozessen und gesetzlichen Rahmenbedingungen für das hoch regulierte Unternehmen.

In der Vergangenheit implizierte dies regelmäßiges, manuelles Durchsuchen und Screenen von Dokumenten über Sprach- und Landesversionen hinweg – ein großer Zeitaufwand und oft energiezehrend.

Der neue KI-Assistent verkürzt diesen Prozess signifikant: Er bietet eine semantische Suche, mit der Dokumente und Informationen in einfacher Sprache abgefragt werden können.

Mitarbeiter erhalten klare Antworten in Form einer Zusammenfassung, basierend auf den Informationen der grenke-Wissensdatenbank – inklusive zitierter Passagen und direkten Verweisen auf die Originaldokumente.

Der KI-Assistent greift dafür über verschiedene Schnittstellen auf interne Dokumentenablagen zu. Das Tool basiert auf RAG-Technologie und stellt sicher, dass die Antworten absolut richtig und zuverlässig sind.

Der Chatbot-Assistent

Der grenke-Chatbot bietet sicheren Zugang zu verschiedene LLMs sowie LLM-Services und bietet eine Vielzahl von Funktionen wie beispielsweise:

  • Textgenerierung,
  • Übersetzung,
  • Zusammenfassung von Texten,
  • Korrekturlesen
  • und viele mehr.

Der LLM-Chat wird ergänzt durch ein „Chat-with-Documents“-Feature, eine Frage-Antwort-Funktion für einzelne Dokumente.

Die Umgebung wird vom Institut selbst definiert, und das Unternehmen behält die volle Kontrolle – in Zeiten von DSGVO und DORA unerlässlich. Der LLM-Chat wurde in der Infrastruktur implementiert. Um die sichere Umgebung für sensible Daten zu gewährleisten, war es notwendig, On-Premise-LLMs in der Infrastruktur von grenke bereitzustellen. In einem hybriden Setup können nun je nach Anwendungsfall Daten an On-Premise-Modelle oder an einen üblichen LLM-Provider übermittelt werden.

KI-Agent

Geltungsbereiche (beispielsweise für welches Land oder für welche Abteilung eine Vorgabe gilt) können Abhängigkeiten haben. Es ist nötig, Anfragen in den passenden Kontext zu setzen.

Aus diesem Grund wurde unterstützend für die Suche ein KI-Agent mit unterschiedlichen Fähigkeiten implementiert:

  • Formularfelder vorausfüllen
  • Rückfragen stellen und Suchparameter verfeinern
  • Mehrsprachigkeit, also automatische Übersetzungen und sprachübergreifend passende Suchergebnisse

Der KI-Agent folgt dem Prinzip des „Human-in-the-loop“: Während er viel manuelle, vorbereitende Arbeit übernimmt, steht am Ende immer ein Mensch, der die finale Eingabe mittels eines „Bestätigungs-Buttons“ tätigt.

Besondere Kompetenzen

Die genannten Tools werden ergänzt durch besondere Features und Funktionen:

  • Authentifizierung: Absolut sichere SSO-basierte 2-Faktor-Authentifizierung für alle Mitarbeiter, auch außerhalb der virtuellen Desktops.
  • Token-Usage-Dashboards: Einfache Kontrolle der Auslastung und Cost-Benefit-Analysen für Use Cases.
  • Architektur-Kompatibilität: Die Implementierung erfolgten innerhalb der bestehenden Infrastruktur von grenke. Die gut strukturierte Architektur erlaubt die nahtlose Integration der gefundenen Lösungen.

Rollout und Ergebnis

Die Implementierung des LLM-Chatbots und des KI-Wissensmanagements ging fließend von einer mehrstufigen Test-Phase in den produktiven Betrieb über – mit aktuell täglich bis zu 400 uniquen Usern.

Flankiert durch ein regulatorisches KI-Framework und ein begleitendes Change-Management-Projekt, wird die KI-Plattform mehr und mehr im Unternehmen verankert, und die KI-Lösungen werden zu ständigen Begleitern für die Mitarbeiter.

Diese neuen KI-Lösungen führen fortan zu einem besseren Arbeitserlebnis für die Mitarbeiter und die noch auszuschöpfenden Potenziale können nicht hoch genug bewertet werden.

Zusammenfassung und Fazit

In diesem Projekt wurden von grenke AG und ONTEC AI zwei KI-Lösungen entwickelt, die Mitarbeiter der Bank in ihrem streng regulierten Arbeitsalltag entlasten: eine KI-Assistenz für das Wissensmanagement sowie ein LLM-Chatbot, der auch den besonders hohen regulatorischen Anforderungen des Finanzwesens gerecht wird.

Erste Audit-Ergebnisse zeigen, dass die KI-Lösungen den strengen regulatorischen Vorgaben im Finanzwesen standhalten und zeugen davon, das KI auch dort absolut sicher und Compliance-konform umgesetzt werden kann.

Über den Autor

Dr. Tobias Eljasik-Swoboda

Dr.- Ing. Tobias Eljasik-Swoboda ist AI-Architekt bei ONTEC AI und berät Organisationen zur technischen Implementierung von erklärbarer KI und vertrauenswürdigen KI-Lösungen. Zuvor war er u.a. Innovation Manager bei Raiffeisen Informatik. Er ist zudem als Autor und Vortragsredner tätig.

Vielen Dank fürs Teilen und Weiterempfehlen


Mit dem kostenlosen Bank Blog Newsletter immer informiert bleiben:

Anzeige

Get Abstract: Zusammenfassungen interessanter Businessbücher

Kommentare sind geschlossen

Bank Blog Newsletter abonnieren

Bank Blog Newsletter abonnieren