Logo der activeMind AG

Technologische Voraussetzungen für die Einführung von KI

Inhalt

Der Nutzen von künstlicher Intelligenz (KI) für Unternehmen ist unbestritten. Doch um KI effektiv einsetzen zu können, müssen sich Unternehmen gut vorbereiten. Am wichtigsten ist es, die richtigen technologischen Voraussetzungen zu schaffen. Wir zeigen Ihnen, worauf es dabei ankommt, und liefern Ihnen die passenden Beispiele.

Herausforderungen bei der KI-Einführung

Die technologische Landschaft ist von hoher Diversität geprägt. Während einige Unternehmen gerade E-Mail als Ersatz für das Fax einführen, implementieren andere das x-te Content-Management-System (CMS) zur besseren Webseiten-Organisation.

Ob und wie sie künstliche Intelligenz am besten einsetzen können, fragen sich derzeit aber fast alle Unternehmen – unabhängig vom sonstigen Tech-Stack.

Um das enorme Potenzial von KI voll ausschöpfen zu können, müssen Unternehmen jedoch bestimmte Grundlagen schaffen. Ein ganzheitlicher Ansatz ist erforderlich, der nicht nur die technologische und datenbezogene Infrastruktur, sondern auch kulturelle, rechtliche und wirtschaftliche Faktoren berücksichtigt. Nur so kann KI ihr volles Potenzial entfalten und Unternehmen dabei unterstützen, wettbewerbsfähig zu bleiben und innovative Lösungen zu entwickeln.

Der erste Schritt auf dem Weg zur erfolgreichen KI-Einführung ist das Aufarbeiten der technologischen Altlasten. Dies betrifft sowohl Daten als auch Infrastruktur und Software.

Daten als Grundlage von KI

Daten sind der Treibstoff der KI, denn anhand der Daten wird das jeweilige Sprachmodell trainiert. Aber nicht alles was glänzt ist Gold und nicht jede Sammlung von Informationen zum Trainieren eines Models geeignet. Vorhandene Datenbanken müssen auf ihre Qualität hin überprüft und gegebenenfalls bereinigt werden. Die Datenqualität ist von entscheidender Bedeutung, da fehlerhafte oder ungenaue KI-Ergebnisse durch schlechte Daten verursacht werden können.

Hier gilt der geflügelte Satz „Shit in – Shit out“.

Der Aufwand lohnt sich jedoch, wie das Beispiel Uber zeigt:

Der Mobilitätsanbieter hatte das Problem, dass inkonsistente und ungenaue Daten zu schlechten Vorhersagen und unzuverlässigen Services führten. Zunächst versuchte Uber, die Datenqualität durch manuelle Überprüfungen und Ad-hoc-Lösungen zu verbessern, was jedoch nicht den gewünschten Erfolg brachte.

Deshalb führte der Mobilitätsanbieter eine umfassende Data-Governance-Strategie ein, die regelmäßige Datenprüfungen und -bereinigungen umfasst. Die eingeleiteten Maßnahmen führten zu einer deutlichen Verbesserung der Datenqualität und -konsistenz. Uber-Services konnten mit einer signifikanten Steigerung der Zuverlässigkeit und Genauigkeit punkten. Dies führte zu einer deutlichen Verbesserung der Vorhersagen der KI und damit der allgemeinen Servicequalität.

Ein weiteres wichtiges Qualitätskriterium ist die Vergabe von Tags für Daten. Durch eine geeignete Verschlagwortung der Daten kann die KI relevante Informationen schneller finden und verarbeiten. Dies führt zu einer wesentlichen Steigerung der Effizienz und Genauigkeit der KI-Anwendungen.

Auch dieser Effekt lässt sich anhand eines großen Datenverarbeiters – dem Businessnetzwerk LinkedIn – verdeutlichen:

Bei LinkedIn sorgten Schwierigkeiten bei der schnellen Auffindung und Nutzung relevanter Daten für Effizienzverluste. Die Datenverwaltung war nicht ausreichend, um der wachsenden Datenmenge gerecht zu werden. Das bremste die maschine learning Algorithmen aus.

Zur Lösung dieses Problems implementierte LinkedIn fortschrittliche Metadaten-Management-Tools mit automatischer Tagging- und Kategorisierungsfunktion. Diese Umstellung führte zu einer schnelleren und präziseren Datenverarbeitung, was die Effizienz der KI-Anwendungen und die Benutzererfahrung deutlich verbesserte. Die Implementierung dieser fortschrittlichen Tools führte außerdem zu einer signifikanten Steigerung der Arbeitsleistung und Servicequalität.

Nicht nur Menge und Sortierung, auch die Konsistenz der Daten ist wichtig. Um verlässliche Analysen und Vorhersagen von KI-Modellen zu ermöglichen, müssen Daten einheitlich und widerspruchsfrei sein. Eine regelmäßige Überprüfung der Datenquellen auf Aktualität und Genauigkeit ist daher unerlässlich.

Salesforce sah sich mit der Herausforderung konfrontiert, Daten aus verschiedenen Quellen zu integrieren und konsistent zu halten. Die Variabilität des Inputs führte häufig zu Inkonsistenzen. Manuelle Prozesse und individuelle Anpassungen zur Datenintegration waren jedoch ineffizient.

Zur Lösung dieses Problems führte das Unternehmen eine Datenintegrationsplattform ein, die eine automatische Konsistenzprüfung und -korrektur ermöglicht. Die Lösung verbesserte die Datenkonsistenz erheblich und ermöglichte zuverlässigere Analysen und Prognosen durch die KI. Der Einsatz dieser Plattform in Verbindung mit regelmäßigen Audits ermöglichte es Salesforce, die Datenqualität dauerhaft sicherzustellen und dadurch die Entscheidungsfindung im Unternehmen zu optimieren. Zudem konnten die Prozesse effizienter gestaltet werden.

Digitalisierung als technologisches Rückgrat von KI

Eine durchgängige Digitalisierung ist essenziell, um den Boden für KI-Anwendungen zu bereiten. KI kann zwar auch genutzt werden, um Roboter zu bewegen. In den meisten Fällen ist es jedoch effizienter, wenn ein Chatbot Fragen aus PDFs beantwortet, statt den Roboter die passenden Ordner aus dem Schrank holen zu lassen. Möchte man die neue Technologie effizient einsetzen, müssen die Voraussetzungen stimmen und alles muss digital sein.

An vielen Stellen kämpfen Unternehmen noch mit veralteten Systemen und sogenannter Tech-Debt. Der Begriff bezeichnet die Belastung, die durch den Einsatz veralteter Technologien entsteht. Diese sind oft aufwendig zu warten und hemmen den Fortschritt. Um Platz für neue, flexible Systeme zu schaffen, müssen diese technischen Schulden abgebaut werden.

Das Problem betrifft aber nicht nur traditionelle Unternehmen. Auch die Giganten des Internets müssen immer wieder ihren technologischen Stand hinterfragen und die Schulden bezahlen.

Der Streaming-Riese Netflix sah sich mit dem Problem konfrontiert, dass seine monolithische Softwarearchitektur nicht mit der Geschwindigkeit seiner Expansion und den Anforderungen der Nutzer Schritt halten konnte. Der Monolith führte zu langen Entwicklungszyklen und Schwierigkeiten bei der Skalierung. Das betraf unter anderem die KI getriebenen Empfehlungsalgorithmen für die Netflix bekannt ist. Während einzelne Aspekte schnell wachsen und skalieren mussten, waren andere nicht bereit dafür. Die vorgenommenen Optimierungen und Erweiterungen führten jedoch nicht zum gewünschten Erfolg, da die Komplexität des Systems weiter zunahm und eine Übersicht sowie eine effiziente Wartung erschwerte.

Die einzige Lösung dafür war eine vollständige IT-Modernisierung mit dem Ziel, von der monolithischen auf eine mikroservicebasierte Architektur umzustellen. Netflix entschied sich für den Umstieg auf eine mikroservicebasierte Architektur, bei der jede Funktion als eigener Service läuft und unabhängig aktualisiert werden kann. Die Umstellung ermöglichte dem Streaming-Unternehmen eine höhere Flexibilität, schnellere Entwicklungszyklen und eine verbesserte Skalierbarkeit. Dies führte zu einer besseren Nutzererfahrung und höherer Innovationsgeschwindigkeit.

Um die Tech-Debt in einem Unternehmen festzustellen, sollten Verantwortliche eine Reihe von gezielten Fragen stellen, die verschiedene Aspekte der bestehenden IT-Infrastruktur, Prozesse und Technologien abdecken. Es gibt keine allgemeingültigen Lehrbuchlösungen, wie jeder Aspekt beseitigt werden kann. Dafür sind Unternehmen zu verschieden. Dennoch lohnt sich ein Blick auf die Lösungen, welche andere Unternehmen gewählt haben:

Die technologische Infrastruktur vieler Unternehmen wird von veralteten Hauptsystemen und Softwarelösungen dominiert. Häufig kann nur eine umfassende Migration zu einem neuen Technologiestack Abhilfe schaffen. Besonders Banken sind von diesem Problem betroffen, da sie oft Systeme in Programmiersprachen wie COBOL betreiben, die heutzutage kaum noch beherrscht werden.

Auch die Royal Bank of Scotland (RBS) stand vor dieser Herausforderung: Ihre alten IT-Systeme waren anfällig für Ausfälle und verursachten hohe Wartungskosten. Patches und Notfallmaßnahmen boten keine langfristige Lösung und führten zu weiteren Kostensteigerungen.

Deshalb entschied sich die RBS, ihre IT-Infrastruktur zu modernisieren, auf Cloud-Technologien umzustellen und eine DevOps-Kultur einzuführen. Diese Veränderungen führten (nach Angaben der Bank) zu einer stabileren IT-Infrastruktur, reduzierten Ausfallzeiten und Wartungskosten sowie zu einer schnelleren und effizienteren Entwicklung neuer Anwendungen.

Solche Strukturen sind auch das Rückgrat von einer KI Implementierung und Nutzung. Diese in alte Umgebungen, für welche sie nie gedacht waren, zu integrieren und am Laufen zu halten wäre mit hohem Arbeitsaufwand verbunden, welcher nicht absehbar ist.

Auch einzelne Software und Anwendungen können problematisch sein, wenn sie auf veralteten Technologien basieren und nicht ausreichend unterstützt werden.

Aufgrund des Booms im Musikstreaming sah sich Spotify gezwungen, schnell auf Marktveränderungen zu reagieren und neue Funktionen einzuführen. Dazu gehörten auch die KI-Algorithmen, welche Usern Musik vorschlagen, Playlists erstellen und Podcasts finden. Die alten Technologien waren dafür nicht geeignet. Vor der Umstellung nutzte Spotify traditionelle Entwicklungszyklen und Programmiersprachen, die nicht für schnelle Änderungen ausgelegt waren, was zu wiederholten Verzögerungen führte.

Der Wechsel zu modernen Programmiersprachen wie Python und Go sowie die Einführung einer CI/CD-Pipeline ermöglichte es Spotify, neue Features schneller und effizienter zu entwickeln und bereitzustellen. Dies steigerte die Wettbewerbsfähigkeit des Unternehmens erheblich.

Dies hilft auch bei der weiteren Einführung moderner KI-Systeme. Die meisten KI-Modelle und Frameworks verfügen bereits über Python-APIs und können darüber schnell genutzt werden. Will man nicht selbst Server bereitstellen und warten, sind bereits bestehende Infrastrukturen hilfreich.  Viele Anbieter wie AWS oder Azure haben bereits spezielle Angebote für die Nutzung von KI.

Ein weiteres häufiges Problem ist die Integration und Kompatibilität unterschiedlicher Systeme, die oft zu Dateninkonsistenzen führen.

PayPal stand vor der Herausforderung, verschiedene interne und externe Systeme zu integrieren, was ineffiziente Prozesse zur Folge hatte. Für einen Finanzdienstleister im Internet ist Schnelligkeit jedoch ein unverzichtbarer Faktor. Vor der Umstellung versuchte PayPal, die Integration durch individuelle Anpassungen und Brückenlösungen zu optimieren. Diese Ansätze waren jedoch mit hohem Aufwand verbunden und führten häufig zu Fehlern.

Durch die Implementierung einer API-First-Strategie und den Einsatz von Mikroservices konnte PayPal die Integration vereinfachen, die Flexibilität erhöhen und Dateninkonsistenzen reduzieren.

Eine solche Strategie sollte vor der Einführung von KI in Betracht gezogen werden. Unabhängig davon, welche Form des maschinellen Lernens eingesetzt werden soll, hilft eine API-First-Integration dabei, die Integration zu beschleunigen.

Auch die Wartung und der Support sind Bereiche, in denen es häufig zu hohen Kosten und Ausfällen kommt.

Vor der Automatisierung seiner Wartungsprozesse hatte Google Schwierigkeiten, seine riesige Infrastruktur effizient zu verwalten. Das führte zu Ineffizienz und häufigen Ausfällen.

Durch die Implementierung umfassender Monitoring-Tools und Automatisierungslösungen konnte Google die Systemverfügbarkeit deutlich erhöhen und die Wartungskosten senken.

Eine solche Überwachung der Infrastruktur kann jedoch nicht alle Probleme lösen. Insbesondere weiterhin bestehende doppelte Lösungen führen zu einem erhöhten Wartungsaufwand. Ein Beispiel für Redundanzen in der Infrastruktur bei Google ist YouTubes doppelte Ausführung aller Systeme zur Interaktion mit Kommentaren, die sowohl für das User- als auch für das Creator-Interface vorhanden sind.

Sie ist jedoch unerlässlich, wenn man bei der Einführung so komplexer und leistungsintensiver Systeme, wie es KI oft sind, nicht hohe Ausfall- und Wartungszeiten riskieren will.

Bei veralteten Sicherheitssystemen und unklaren Compliance-Vorgaben sind Risiken besonders hoch.

Ein Datenleck bei Equifax zeigte 2017, dass deren bisherigen Sicherheitsprotokolle nicht ausreichend waren.

Nach dem Vorfall führte das Unternehmen moderne Sicherheitsmaßnahmen wie erweiterte Verschlüsselungstechniken, Zwei-Faktor-Authentifizierung und regelmäßige Sicherheitsaudits ein. Die implementierten Maßnahmen führten zu einer deutlichen Verbesserung der Sicherheitslage und trugen maßgeblich zur Wiederherstellung des Kundenvertrauens bei. Seitdem hat sich das Problem nicht wiederholt.

Der Einsatz von Chatbots kann schnell zu vergleichbaren Datenlecks führen. Ein Forscherteam der Northwestern University hat bereits eindrucksvoll bewiesen, dass Chatbots nur allzu gerne die ihnen zur Verfügung stehenden (geheimen) Informationen weitergeben, wenn sie die richtigen Prompts erhalten. Regelmäßige Audits und ein durchdachtes Informationsmanagement sind daher Pflicht, wenn Unternehmensgeheimnisse geschützt bleiben sollen.

Fazit: KI-Einführung braucht ein starkes Fundament

Um KI erfolgreich in einem Unternehmen zu implementieren, müssen zunächst die Grundlagen geschaffen werden. Eine umfassende Digitalisierung, der Abbau technischer Schulden, die Harmonisierung der IT-Infrastruktur und der Aufbau eines soliden, modernen Tech Stack sind dabei ebenso wichtig wie die Sicherstellung von Datenqualität, -tagging und -konsistenz.

Die Erfüllung dieser Voraussetzungen sowie die Anwendung eines ganzheitlichen Ansatzes (insbesondere auch Change-Management und Schulungen der Mitarbeitenden) sind Voraussetzung dafür, dass KI ihr volles Potenzial entfalten kann. Dadurch können Unternehmen ihre Wettbewerbsfähigkeit erhalten und innovative KI-Lösungen entwickeln.

Weiterlesen

Sichern Sie sich das Wissen unserer Experten!​

Abonnieren Sie unseren Newsletter:

Mit Klick auf „Jetzt anmelden“ erklären Sie sich mit dem Bezug unseres Newsletters einverstanden. Wir verwenden Ihre Daten ausschließlich gemäß unserer Datenschutzerklärung.

Newsletter

Sichern Sie sich das Wissen unserer Experten.

Zweimal im Monat alles Wichtige zu Datenschutz, Informationssicherheit und künstlicher Intelligenz.