Navigation überspringen

DevOps: der heiße Draht ins System mit KI

IT-Betrieb und Software-Entwicklung arbeiten traditionell getrennt – und hängen dennoch voneinander ab. Die einen programmieren Software, mit der die Hardware betrieben wird, die anderen stellen die Hardware zur Verfügung und sichern ihren störungsfreien Betrieb. Der DevOps-Ansatz („Development“ und „Operations“) bringt sie zusammen. Der Effekt: schnellere und qualitativ hochwertige Entwicklung von Software und ihr Übergang in eine stabile Produktion. Ein elementarer Punkt auf der Betriebsseite ist dabei die Prozessautomatisierung. Genau darauf setzte eines der größten deutschen Kreditinstitute mit ITGAIN.

Das Problem: sehr viele Daten auf sehr viel Papier 

Durch die genannte Gesetzesänderung wird ein bestimmter Zinssatz 2021 unwirksam. Viele Finanzierungsverträge der Bank mussten daher angepasst werden. Dafür sollten aus dem Bestand von 2.000 Verträgen zuerst diejenigen herausgefiltert werden, die tatsächlich betroffen waren. Ein Vorgang, der aufgrund der schieren Menge und Größe der Dokumente – einige mehrere tausend Seiten lang – automatisiert erfolgen sollte. Davor allerdings stand eine weitere Hürde: Die Schriftsätze waren so alt, dass sie nur auf Papier vorlagen. 

Gebraucht wurde also eine Softwarelösung, welche aus den gescannten Verträgen im PDF-Format zuerst den Text extrahierte, um ihn dann auf verschiedene Fragen hin zu analysieren: Auf welches Konto genau bezieht er sich? Ist der Vertrag tatsächlich von der Gesetzesänderung betroffen?

Der Entwicklungsturbo: automatisiertes Deployment 

Ein Data Scientist des Kunden entwickelte die Lösung. Dank agiler Methoden und Open-Source-Frameworks war am Beispiel weniger Verträge schnell der passende Python Code geschrieben. Die so entstandene „KI-Pipeline“ extrahiert nun mittels der freien Texterkennungssoftware „Tesseract“ den Text aus den gescannten Dokumenten und strukturiert sie in sogenannten Pandas DataFrames. Diese Informationen wiederum werden durch KI-Modelle aus dem Natural Language Processing (NLP) auf die relevanten Fragen hin analysiert. 

Damit jedoch war die Arbeit noch nicht getan. Tests in der realen Umgebung und mit deutlich mehr Verträgen waren nötig, um tatsächlich alle Parameter im Quellcode abzusichern. Das jedoch fordert den IT-Betrieb, sprich den Administrator, erheblich. Denn stellt sich heraus, dass der Code noch falsche Parameter enthält und nicht exakte Ergebnisse liefert, muss er überarbeitet werden – und erneut installiert, und erneut getestet. 

Ein klarer Fall für Philipp Böcker, Lead Consultant und als DevOps-Engineer auf ITGAIN Seite verantwortlich in diesem Projekt: Das Deployment des Codes in die Cloud musste automatisiert werden. Alles andere würde bei der Anzahl an Wiederholungen dieses Vorgangs zu aufwendig. „Wenn ich als Administrator des Rechenzentrums die Installation der ‚KI-Pipeline‘ händisch durchführe, kostet mich das jedes Mal eine halbe Stunde. Den Vorgang zu automatisieren dauert etwa zwei Stunden. Danach läuft ein Deployment der Pipeline in unter einer Minute“, erklärt Philipp Böcker. „Der Entwickler des Kunden hatte also das Auto gebaut und wir die Straße, auf der es fahren konnte.“

Wenn ich die Installation der ‚KI-Pipeline‘ händisch durchführe, kostet mich das jedes Mal eine halbe Stunde. Den Vorgang zu automatisieren dauert etwa zwei Stunden. Danach läuft ein Deployment der Pipeline in unter einer Minute.“

PHILIPP BÖCKER, LEAD CONSULTANT ITGAIN

Automatisierung erfüllt Sicherheitsanforderungen  

Die Straße – wohl eher eine Autobahn – zu bauen, war allerdings nicht trivial. Denn das Bankenumfeld unterliegt besonderen Sicherheitsanforderungen. Jeder, der etwas auf das System aufspielt, muss dabei unter seinem persönlichen User arbeiten. Mit anderen Worten: Es muss stets nachvollziehbar sein, welche Person am Werk war. 

Die Lösung war das Open-Source-Automatisierungswerkzeug „Ansible“. Böcker ermöglichte es dem Entwickler damit, auf Knopfdruck selbst seine KI-Pipeline in die Cloud einzuspielen – in diesem Fall einen Hadoop Cluster, einen Verbund mehrerer Server also, der besonders große Datenmengen verarbeiten kann. „Das bringt drei große Vorteile“, erklärt Böcker. „Der Admin spart Zeit, die er für andere Aufgaben verwenden kann, und der Entwickler kommt schneller voran, weil er nicht auf den Admin warten muss. Außerdem macht es den Vorgang transparent, was gerade im Bankenumfeld wichtig ist.“ 

Ein vierter Vorteil fällt ganz nebenbei auch noch ab. Denn die neue Softwarelösung ist auch für andere Vertragsanalysen einsetzbar. Dafür müssen lediglich einige Parameter geändert werden. Und dass dies reibungslos umsetzbar ist, hat Philipp Böcker bewiesen. 


Datenbank Architektur

Wir sind Datenbankarchitekten und Performancespezialisten. Wir beraten, betreiben aber auch hunderte von Datenbanken innerhalb unseres Managed Database Service, stellen eigene Datenbank-Performance-Lösungen her und vertreiben sie weltweit. Deswegen wissen wir genau, welcher Typ Datenbank für Sie optimal ist. NoSQL oder Big-Data-Architekturen beispielsweise bieten in bestimmten Szenarien deutliche Vorteile gegenüber relationalen Datenbanken. Open-Source wie PostgreSQL ist eine echte Alternative, wenn es um stabile und performante Verfügbarkeit von Unternehmensdaten geht. Nutzen Sie unsere Erfahrung aus unzähligen heterogenen Projekten und entwickeln Sie mit uns die passende Lösung! 

Big Data Platforms

Als Big Data verstehen wir nicht nur das Handling mit sehr großen Datenmengen, sondern auch die Sammlung und Verarbeitung von verschiedenartigen Daten. Dazu gehört auch die  schnelle Verarbeitung. Um die Daten richtig lesen und auswerten zu können, bedarf es einer optimalen Dateninfrastruktur.
Mit unseren Erfahrungen unterstützen wir Sie hinsichtlich Planung, Entwicklung bis hin zum Betrieb von Big-Data-Systemen im Data Center.

Artificial Intelligence

Der Bereich Künstliche Intelligenz (A.I.) ist kein isolierter Bereich, sondern eine Disziplin, die sich aus verschiedenen Teilen zusammensetzt und in immer mehr Feldern zum Einsatz kommt. Die Einsatzgebiete für A.I sind ebenfalls sehr vielfältig: Z.B. Steigerung der Produktivität durch Automatisierung, oder die (semi-)automatische Entscheidungsfindung bei betrieblichen Vorgängen.
Eine legitime Frage ist dabei, wie andere Methoden, z.B. (Advanced) Analytics, sich abgrenzen lassen. Ein generelles Problem dabei ist, dass es oft keine einheitlichen Definitionen gibt und selbst dann die Begriffe nicht immer gleich verwendet werden. Aus diesem Grund verzichten wir auf den Versuch und sagen einfach, dass die verschiedenen Analytics-Disziplinen ein zentraler Bestandteil von A.I. sind. In dem Sinne verstehen wir A.I. als die Menge aller notwendigen Methoden zur Umsetzung einer automatisierten Entscheidungsfindung oder Vorbereitung, was z.B. Data Governance, Analytics, Software-Engineering einschließt.
Da wir nicht glauben, dass A.I. nur ein „Hype“ ist, aber oft konsequentes Umdenken erfordert, um das Potenzial auszuschöpfen, helfen Unternehmen möglichst früh bei der Konzeption einer Strategie. Das schließt eine Beratung ein, wie A.I zum Einsatz kommen kann, bis zur Findung möglicher Use-Cases und deren konkrete Umsetzung.