Autoren: Detlef Wallenhorst, Markus Pfaff, Daniel Eckstein
Das Thema der Künstlichen Intelligenz (KI) ist spätestens seit dem Auftreten der Generativen KI in aller Munde. Es gibt zahlreiche Veröffentlichungen hierzu und eigentlich sollte hierzu das meiste gesagt sein. Warum also dieser Blog? Nun, das Hauptinteresse liegt typischerweise auf den KI-Modellen beziehungsweise deren Fähigkeit, bestimmte Problemstellungen zu lösen, und den hochperformanten Prozessoren, die man benötigt, um diese KI-Modelle zu trainieren. Für die Fragen, die in diesem Kontext aufgeworfen werden, gilt es natürlich, gute Antworten zu finden. Allerdings ergeben sich an vielen weiteren Stellen Abhängigkeiten und Auswirkungen, die zunächst nichts mit den eigentlichen KI-Modellen und Algorithmen zu tun haben. Hier werden weitere wichtige Fragen aufgeworfen, die ebenfalls einer Antwort bedürfen: beispielsweise zur Wirtschaftlichkeit und Skalierbarkeit, zum Datenschutz und zur Cyber-Sicherheit, zu Compliance und Ethik oder zur Zusammenarbeit mit externen Organisationen – im Grunde genommen geht es hierbei um die Governance einer Künstlichen Intelligenz! Bei einer ganzheitlichen Betrachtung einer KI wird man in der Tat feststellen, dass die Antworten für viele dieser Fragen eben nicht in den Algorithmen, sondern in den IT-Architekturen liegen, auf denen eine KI entwickelt, trainiert und betrieben wird. Und genau hierum soll es in diesem Blog gehen – nämlich die Fragestellung, wie eine IT-Architektur zu gestalten ist, um eine gute KI-Governance ermöglichen zu können.
Was muss ein solches Framework umfassen?
Letztendlich handelt es sich bei KI nicht um monolithische, abgrenzbare, zeitinvariante Systeme, deren Eigenschaften im Wesentlichen durch die Mathematik der zugrundeliegenden Algorithmen charakterisiert werden, sondern es handelt sich um komplexe Systemlandschaften, deren Anforderungen an ihre Umgebung sich im Lauf der Zeit verändern, die also ein dynamisches Verhalten aufweisen und Pfadabhängigkeiten entwickeln können. Der Versuch, die Abhängigkeiten und Auswirkungen von KI zu „verstehen“, indem man sich darauf beschränkt, die Algorithmen der KI-Modelle, ihren möglichen Durchsatz, sowie die analytischen und qualitativen Leistungsfähigkeiten „anzuschauen“, wäre gewissermaßen so, als würde man versuchen, Mobilität zu verstehen, indem man sich ein Automobil und die PS-Zahl des Motors anschaute, und das Straßennetz, Verkehrsschildern, Ampeln, Polizeikontrollen, die Strassenverkehrsordnung, das Verhalten von Fahrenden im Stau und dergleichen außer Acht ließe. Was sind nun aber die verschiedenen Elemente einer KI-Systemlandschaft? Zum einen gehören hierzu natürlich die KI-Modelle. Darüber hinaus gehören hierzu aber vor allem auch Daten – und diese stammen typischerweise aus den unterschiedlichsten Quellen, die zudem verschiedenen Organisationen gehören können. Ein Ökosystem verschiedener Organisationen und Unternehmen steuert in der Regel aber nicht nur Daten bei, sondern auch Expertenwissen, weitere Kompetenzen und Services sowie nicht zuletzt die Menschen, die auf Basis unterschiedlichster Kenntnisse und kultureller Prägungen von der Erstellung bis zur Nutzung einer KI beteiligt sind. Die Elemente einer solchen Systemlandschaft aus Algorithmen, Daten, Organisationen und Individuen sind dabei nicht statisch, sondern sie entwickeln und verändern sich im Verlaufe des Lebenszyklus einer KI. Und dieser umfasst nicht lediglich Entwicklung, Trainieren und Nutzen eines Algorithmus, sondern er umfasst bereits die Idee, die durch alle relevanten Stakeholder akzeptiert werden muss, er umfasst die Entscheidung, ob eine KI tatsächlich eingeführt wird, und er umfasst den wirtschaftlich, rechtlich und ethisch korrekten und sicheren Betrieb, wobei an jeder Stelle im Lebenszyklus über Rückkopplungsschleifen eine Veränderung oder Verbesserung initiiert werden kann und wobei verschiedene Phasen gewissermaßen überlappend sein können, wenn nämlich beispielsweise im Zuge der Nutzung einer KI ein gleichzeitiges Trainieren geschieht.
Welche Rolle hat hierbei die IT?
Um aus einem solchen, komplexen Gebilde verschiedener technischer und nicht technischer Elemente schließlich eine funktionierende KI zu gestalten, müssen diese Elemente – sprich: die Rechner, auf denen die Algorithmen entwickelt, trainiert und betrieben werden, die Datenquellen, aus denen die Algorithmen ihren Input bekommen, und die verschiedenen Menschen und Organisationen, die hieran beteiligt sind – zunächst vernetzt werden. Dies ist natürlich eine genuine Aufgabe für eine adäquate IT-Architektur! Dann gilt es, für Interoperabilität zwischen den verschiedensten Elementen zu sorgen, also gewissermaßen einen „roten Faden“ zu finden – und auch hierbei helfen geeignete IT-Architekturen, indem sie Standards bezüglich Schnittstellen, Betriebsmodell, Datenmodell und dergleichen definieren! Aber dass eine KI lediglich funktioniert, ist nicht genug: der Betreiber muss auch wissen, was, warum, in und zwischen welchen Elementen geschieht, der Bedarfsträger muss überprüfbar sicherstellen, dass die eigenen Ziele und Wertvorstellungen, die sich im Verlaufe des Lebenszyklus einer KI durchaus verändern können, realisiert werden, und der Datenschutzbeauftragte und der CISO müssen dafür sorgen, dass nicht durch Einflüsse von außen das System korrumpiert wird oder dass wertvolle Elemente, wie beispielsweise Daten oder intelligente Algorithmen gestohlen werden – man benötigt also Transparenz, Kontrolle und Sicherheit, wobei es sich wiederum um genuine Aufgaben für adäquate IT-Architekturen handelt! Die Frage, wie eine geeignete IT-Architektur, mit der all diese Aufgaben erfüllt werden können, aussieht, darf man sich dabei nicht erst dann stellen, wenn man eine KI implementieren möchte, sondern diese Frage muss jeder Beteiligte sich so früh wie möglich im Lebenszyklus einer KI stellen, denn nur so lässt sich Akzeptanz schaffen, lassen sich Pfadabhängigkeiten in die gewünschte Richtung lenken und lassen sich Korrekturen vermeiden, die typischerweise umso aufwendiger und teurer werden, je später sie erfolgen.
Auf den ersten Blick sind IT-Architekturen also gut geeignet, KIs auf unterschiedliche Art und Weise zu „verbessern“, indem sie für Vernetzung, Interoperabilität, Transparenz, Kontrolle und Sicherheit sorgen. Die interessierte Leserin und der interessierte Leser dürfen natürlich zu Recht einen zweiten, tieferen Blick darauf erwarten, welche Kernmerkmale IT-Architekturen aufweisen müssen, um eine solche „Verbesserung“ tatsächlich gewährleisten zu können. Vielen Dank bei dieser Gelegenheit an Susanne Fleissner, die als Direktorin für den Bereich der Bundesbehörden eben diese Erwartungshaltung teilt und es ermöglicht, diesen tieferen Blick im Verlaufe der kommenden Zeit im Rahmen weiterer Blogs geben zu können, wobei sich der Fokus auf Themen wie „Governance“, „Agilität“, „Performance“, „Management von Komplexität“ und „Zusammenarbeit von Mensch und KI“ richten wird. Bereits an dieser Stelle wollen wir aber einen wichtigen Aspekt nicht außer Acht lassen, der typischerweise unter der Überschrift „Responsible AI“ betrachtet wird und der zum einen damit im Zusammenhang steht, dass normative Aspekte, wie Ethik und Werte, gerade bei selbstlernender KI mehr als bei allen anderen Applikationen von Bedeutung sind, und der zum anderen damit zusammenhängt, dass Elemente der KI-Systemlandschaft wie Menschen, Organisationen und Unternehmen immer im kulturellen Kontext zu betrachten sind.
Wie lässt sich ein verantwortungsbewusster Umgang mit KI erreichen?
Natürlich lassen sich auch Werte und ethische Vorgaben in Form von Regelwerken über die Kontrollmechanismen von IT-Architekturen umsetzen, aber gerade in diesem Zusammenhang gilt es, eine ganzheitliche Perspektive einzunehmen, um auch die Strukturen und Prozesse einer Organisation oder eines Unternehmens ins Auge fassen und den kulturellen und volkswirtschaftlichen Kontext berücksichtigen zu können. Nur so lassen sich Werte wie Datenschutz, Privatheit oder Menschenzentriertheit verwirklichen. Gerade der letztgenannte Aspekt gewinnt mit der Verbreitung sogenannter Generative AI und der Wandlung von „KI als Werkzeug“ hin zu einer „Agentic AI“ beziehungsweise einem „Digital Worker“ immer mehr an Bedeutung, da sich natürlich die Frage stellt, welche Arbeit für die „Human Worker“ noch verbleibt und ob es sich hierbei um „Gute Arbeit“ handelt. „Gute Arbeit“ hat im Kontext einer sozialen Marktwirtschaft nicht zuletzt infolge des Mitbestimmungsgesetzes natürlich eine normative Dimension, sie hat aber auch eine strategische Dimension, da das Anstreben „Guter Arbeit“ zum einen zu Akzeptanz für die Einführung von KI per se führt und da zum anderen der stärkenbasierte Einsatz von Mitarbeitenden die Grundlage für die Bildung von High-Performance-Teams ist. Ein guter Startpunkt, die Verwirklichung von Werten zu begünstigen ist es, geeignete Prinzipien zu formulieren. Bei Cisco geschieht dies im Rahmen der „Cisco Principles for Responsible Artificial Intelligence“. Zur Bestimmung der Aspekte einer geeigneten Organisationsarchitektur und Führungskultur, die die Zusammenarbeit von Human und Digital Workers im Fokus hat, braucht es freilich noch weiterer konstruktiver Diskurse zwischen VertreterInnen von Wirtschaft, Wissenschaft, Technologie und Politik – hierauf werden wir in einem der folgenden Blogs noch tiefer eingehen.