Autoren: Detlef Wallenhorst, Markus Pfaff, Daniel Eckstein
Die richtigen Prioritäten
Wenn man die Idee fasst, eine bestimmte Problemstellung durch den Einsatz Künstlicher Intelligenz (KI) lösen zu wollen, dann sind nachvollziehbarerweise zunächst die in Frage kommenden Algorithmen und KI-Modelle im Zentrum des Interesses. Es ist auch nicht von der Hand zu weisen, dass eine gewisse Faszination davon ausgeht, dass selbst komplexere Probleme inzwischen von Maschinen gelöst werden können. Diese Faszination darf aber nicht darüber hinwegtäuschen, dass neben den funktionalen Kriterien, durch die eine Problemstellung beziehungsweise die dazugehörige Lösung charakterisiert werden kann, auch etliche nicht-funktionale Kriterien beachtet werden müssen – und zwar so früh wie möglich, denn alles, was bereits im Konzept berücksichtigt ist, muss nicht später mit hohem Aufwand behoben oder nachgebessert werden! Diese nicht-funktionalen Kriterien betreffen dabei unterschiedliche Dimensionen eines KI-Projektes: Zum einen betreffen sie betriebliche und betriebswirtschaftliche Themen, wobei die Fragen nach Effizienz und Effektivität, nach Flexibilität, Skalierbarkeit und Investitionsschutz sowie nach IT-Sicherheit und Datenschutz wohl diejenigen Fragen sind, die es als erstes vor dem Hintergrund des zu erwartenden Gesamtergebnisses zu beantworten gilt. Zum anderen betreffen sie aber auch rechtliche, regulatorische und ethische Themen, wobei es neben der Umsetzung von Regeln und Normen, die sich typischerweise auch noch dynamisch ändern können, insbesondere um den Schutz von Persönlichkeitsrechten, den Erhalt guter Arbeit, die Vermeidung von Manipulation und ähnliche, werteorientierte Aspekte geht, die gerade beim geplanten Einsatz selbstlernender KI-Modelle aus gutem Grunde im Fokus der Betrachtung stehen. Ohne vollständige Berücksichtigung solcher Aspekte besteht die Gefahr, dass eine technisch einwandfreie, effiziente und effektive Lösung gegen geltendes Recht verstößt, was extrem kostspielige Konsequenzen nach sich ziehen kann. Letztendlich gilt es, die durchaus unterschiedlichen Zielvorstellungen aller relevanten Stakeholder zu berücksichtigen und agil umsetzen zu können. Dies zu können, ist nicht „nur“ eine Frage der Compliance, sondern ein echter Erfolgsfaktor, denn ohne die Akzeptanz der relevanten Stakeholder besteht das Risiko, dass ein KI-Projekt mangels Adaption nach erfolgreichem PoC, oder MvP „im Sande verläuft“ oder aber gar nicht erst produktiv umgesetzt werden kann, weil einige der Stakeholder ihre Genehmigung hierzu per se von Anfang an verweigern.
Bausteine für KI-Governance
Es stellt sich die Frage, wie ein solches pluralistisches, sich häufig dynamisch änderndes Ziel- und Wertesystem im Rahmen eines KI-Projektes berücksichtigt werden kann. Neben geeigneten Strukturen und Prozessen gilt es hierfür im digitalen Zeitalter natürlich eine geeignete IT-Architektur zu schaffen! Die unterschiedlichen Ziele und Werte der verschiedenen Stakeholder können dabei in sogenannte Policies (Regelwerke) heruntergebrochen werden, die von der IT „verstanden“, automatisiert umgesetzt und im Bedarfsfall agil modifiziert werden können. Damit eine IT-Architektur dies kann, muss sie bestimmte Fähigkeiten aufweisen, die in Form folgender Building Blocks der IT-Architektur geschaffen werden.
Governance-Portal
Zunächst bedarf es eines Portals, mittels dessen der IT und damit der KI die Policies „mitgeteilt“ werden können. Prinzipiell bestehen hierzu drei Möglichkeiten:
- Zum einen existieren intrinsische Mechanismen, Policies für eine IT-Architektur zu definieren. Bei Cisco zählen hierzu unter anderem die Identity Services Engine oder der Cisco Defense Orchestrator. Hierbei handelt es sich um Sicherheitslösungen aus Zero-Trust Architekturen, die die Identität der Person oder des Prozesses abfragen, die verbundenen Berechtigungen im Netzwerk durchsetzen und gleichzeitig in verschiedenen Cloud-Infrastrukturen eine Macro-Segmentierung der Workloads betreiben, damit Datenströme für North-South und East-West Richtungen gemäß der Policies überwacht und Datenverlust verhindert werden kann. Beide Funktionen sind sowohl im eigenen Cloud-Rechenzentrum, als auch in Cloud-Diensten wie IaaS und PaaS der Hyperscaler einsetzbar, um die operativen Aufwände für die IT- und Sicherheitsbetreiber minimal zu halten.
- Desweiteren gibt es Applikationen, mittels derer für dedizierte Anwendungsfälle Policies definiert werden können. Gerade im Bereich der Generativen KI, die in letzter Zeit zunehmend in den Fokus der Betrachtung gerückt ist, besteht hierfür in der Tat Bedarf, da sich mittels Generativer KI nämlich einerseits ein dringliches gesellschaftliches Problem adressieren lässt: der Fachkräftemangel, da sich andererseits aber auch einige Unsicherheiten ergeben: Ist die Generative KI mit vertrauenswürdigen, faktisch richtigen und korrekt erworbenen Daten trainiert worden? Kann ich dem Betreiber der Generativen KI meine Unternehmensdaten anvertrauen? Kann ich sicherstellen, dass nicht illegale oder ethisch fragwürdige Inhalte generiert werden? Welche Kontrolle habe ich über Fehlinterpretationen der Daten durch die KI? Wie stelle ich sicher, dass nicht mehr aktuelle, veraltete Daten im Bestand aktualisiert werden? Um genau solche Unsicherheiten zu mitigieren, bedarf es zum einen geeigneter Policies und zum anderen der Möglichkeit, zu überprüfen, ob die Policies auch tatsächlich eingehalten werden, oder ob nicht unter Umständen eine „Schatten-KI-Welt“ im Entstehen begriffen ist … wir erinnern uns alle an des ähnlich gelagerte Problem, als die ersten Cloud-Services in Erscheinung getreten sind.
- Und schließlich existieren Schnittstellen beziehungsweise APIs, mittels derer der IT Policies aus am Markt verfügbaren AI-Governance-Lösungen „mitgeteilt“ werden können.
Policy Enforcement
Nachdem die Policies der IT „mitgeteilt“ wurden, bedarf es eines Mechanismus, diese möglichst automatisiert und reibungslos umzusetzen, wobei – wie bereits angedeutet – beständig überprüft werden muss, ob die Umsetzung wie geplant funktioniert hat. Letztendlich handelt es sich um einen Regelkreis, bei dem die Policies als Sollwert vorgegeben werden, und bei dem über Sensorik und Rückkopplungsschleifen festgestellt wird, ob der Istwert dem Sollwert entspricht, um im Falle einer Abweichung automatisiert nachregeln zu können. Wir kennen dieses Prinzip alle von unserer Heizung: Man stellt die gewünschte Soll-Temperatur ein und muss sich dann um nichts mehr kümmern – und wenn man im Winter ein Fenster öffnet, dann wird der Brenner in Abhängigkeit davon, ob man Umweltschutz oder Behaglichkeit als Rahmenparameter vorgegeben hat, entweder ausgeschaltet oder hochgefahren. In der IT wird dieses Prinzip nicht zuletzt durch ein Intent Based Networking realisiert. Neben Effekten, die sich durch die Automatisierung ergeben – Entlastung, Risikominimierung etc. – lassen sich auf dieser Basis insbesondere dynamische Änderungen von Zielvorgaben beziehungsweise Policies agil und reibungslos umsetzen.
Viele, verteilte Punkte zur Durchsetzung von Policies bietet in diesem Zusammenhang eine Software-Definierte (SD) Netzwerk Infrastruktur: Über API können hier die Regelwerke dynamisch verändert werden und im WAN können verteilte Sicherheitsfunktionen (Firewalls, IDS und Verschlüsselungen) sowie eine gezielte Wegeauswahl per API netzwerkweit über SD-WAN eingestellt werden. Im SD-LAN werden die angeschlossenen Endpunkte im Netzwerk dynamisch auf das vorgesehene Segment mit den notwendigen Berechtigungen (SGT) gemäß der kontinuierlichen verifizierten Identität geschaltet und im Rechenzentrum werden die unterschiedlichen Prozesse im SD-DC dynamisch gemäß der vorgesehenen Verträge (EPG) miteinander verbunden. Die gleichen Policies werden dabei über unterschiedliche Controller auf die Cloud Dienstleister Plattformen und deren API übertragen und durchgesetzt. Die Dynamik des Regelsystems im SD-Netzwerk ermöglicht es mithin, die geschäftsrelevanten Kriterien für die KI dynamisch durchzusetzen.
Ende-zu-Ende Architekturen
Das eigentliche Ausführen der Policies erfolgt Ende-zu-Ende – sprich: von der Edge, über das Netzwerk bis hin zum Rechenzentrum beziehungsweise in die Cloud! Hier geht es primär darum, unter Einhaltung der Vorgaben in den Policies Daten sicher und skalierbar bereitzustellen. Die Entscheidung, welchem Konsumenten Daten in einem bestimmten standardisierten und auf Qualität geprüften Format in einer vorgegebenen Frequenz und gegebenenfalls zeitlich beschränkt bereitgestellt werden, kann dabei durch den Eigentümer der Daten flexibel und änderlich festgelegt werden. Der Konsument der Daten muss sich natürlich kontinuierlich identifizieren und authentisieren, damit er gemäß seinem Profil auf diese Ressource zugreifen darf (Authentifizierung) oder eben abgelehnt wird. Die angewendeten Mechanismen werden in den Zero-Trust Prinzipien und den Umsetzungsvorschlägen der NIST beschrieben. Für eine möglichst granulare Umsetzung der Zero-Trust Prinzipien bedarf es der Segmentierung von Netzen, Workloads und Datenressourcen, wobei moderne Routing Protokolle wie Segment-Routing SRv6 und Kernel Erweiterung wie eBPF ein Zusammenspiel zwischen Netzwerk und Workload ermöglichen. Durch diese Fähigkeiten können Anwendungen und Sensoren die aktuellen möglichen Verbindungen im Netzwerk steuern. Die Programierbarkeit sowohl der Netze wie auch der Sensorik ermöglicht mithin eine automatisierte Umsetzung der Policies in modernen IT-Architekturen.
Multi-sided Platform
In der Regel werden die Entwicklung und der Betrieb einer KI nicht durch ein Unternehmen oder eine Organisation allein erbracht werden können, sondern es bedarf eines Ökosystems von Partnern, die mit Daten sowie mit unterschiedlichen Kompetenzen, Dienstleistungen und (Public) Cloud-Services zu einem KI-Projekt beitragen können, und die es über geeignete Plattformen wie zum Beispiel Cisco DevNet anzubinden gilt. Auch die Nutzung einer KI kann sich unter Umständen über mehrere Unternehmen oder Organisationen erstrecken – beispielsweise im Rahmen des EfA-Prinzips im Bereich der öffentlichen Hand. Bei den Nutzern kann es sich dabei sowohl um Menschen, die dann über eine Collaborations-Plattform wie Webex angebunden werden können, sowie um Maschinen handeln, die über eine IoT-Infrastruktur integriert werden müssen. Mit den neu entstehenden Architekturen im Feld der GenerativeAI und der bisher etablierten Verfahren des Verwertens von Daten in der IoT verschwimmt die Möglichkeit, die Nutzer der Dienste klar zuzuordnen. Waren es früher vorrangig Menschen, die GenerativeAI nutzen, bzw. Maschinen, die im Kontext von “Digital Twins” eine Rolle spielten, erlauben die aktuellsten Verfahren die beiderseitige Nutzung. Im Grunde genommen bildet die IT-Architektur damit das Fundament für eine sogenannte Multisided Platform, über die sich der komplette Lebenszyklus einer KI von der Entwicklung bis zum Betrieb und zur Nutzung in einem heterogenen Ökosystem abbilden lässt. Es gilt mithin sicherzustellen, dass die Policies im kompletten Ökosystem umgesetzt werden können. Hierfür müssen geeignete Mechanismen implementiert werden, die entweder an den Organisationsgrenzen oder besser noch in externe Umgebungen, wie beispielsweise eine Public Cloud, hineinwirken! Durch die Nutzung von Diensten aus der privaten und kommerziellen Cloud entstehen dabei Multicloud Umgebungen, die unterschiedliche Infrastrukturen und Fähigkeiten zur Verfügung stellen und trotzdem durch einheitliche Prozesse automatisiert betrieben werden sollten. Gleichzeitig sollten die Mindestanforderung an sicheres Cloud Computing das BSI (C5 Kriterienkatalog) sowohl beim Dienstleister als auch beim Nutzer umgesetzt werden. Sinnvollerweise werden die gleichen Werkzeuge (Zero-Trust, SRv6 und eBPF) über alle Infrastrukturen verwendet, wie wir weiter oben schon dargestellt haben. Auch und vor allem kommerziell verfügbare Software wie SD-WAN, Multi Cloud Defense, Secure Workload, Splunk für Observability erweitern in diesem Zusammenhang das Spektrum an Möglichkeiten für die Nutzer, sie vereinheitlichen den Betrieb und sie erhöhen die Souveränität gegenüber Cloud Dienstleistern durch einheitliche Fähigkeiten zur Umsetzung von Policies – mit anderen Worten: sie machen eine KI governable.