robot pointing on a wall
Photo by Tara Winstead on Pexels.com

KI im Unternehmen: Kosten, Umwelt & Einführung

KI im Unternehmen: Ein umfassender Blick auf Kosten, Umweltauswirkungen und erfolgreiche Einführung

Künstliche Intelligenz (KI) prägt zunehmend unseren Alltag und verspricht Unternehmen enorme Effizienzgewinne sowie Erleichterungen bei Routineaufgaben. Doch der Einsatz von KI-Modellen, insbesondere generativer KI, bringt nicht nur neue Möglichkeiten, sondern auch erhebliche Herausforderungen mit sich – von einem hohen Energieverbrauch über schwer kalkulierbare Kosten bis hin zu komplexen Implementierungsanforderungen. Dieser Blogbeitrag beleuchtet die wichtigsten Aspekte, die Unternehmen bei der Nutzung von KI berücksichtigen sollten.


Der energetische Fußabdruck der KI: Mehr als nur Rechenleistung

KI verbraucht sehr viel Energie, sowohl beim iterativen Training von KI-Modellen mit riesigen Datenmengen und Millionen von Parametern als auch im laufenden Betrieb. Jede einzelne Abfrage an ein KI-Modell aktiviert Millionen von Parametern, was im Gegensatz zu einer einfachen Datenbankabfrage eine komplexe und nicht-lineare Operation darstellt, die schwer durch Caching zu optimieren ist.

Rechenzentren als Energieverbraucher: Die Fähigkeiten großer Sprach- und multimodaler KI-Modelle erfordern eine enorme Rechenleistung. Große Technologieunternehmen investieren massiv in die Infrastruktur von Rechenzentren, was den weltweiten Energiebedarf dieses Sektors stark ansteigen lässt. Schon heute entfallen ein bis zwei Prozent des weltweiten Energieverbrauchs auf diesen Bereich, vergleichbar mit dem Verbrauch der gesamten Luftfahrtindustrie. Prognosen zufolge könnte die verstärkte Nutzung von KI den Energiebedarf von Rechenzentren bis 2026 verdoppeln. Neben Strom benötigen Rechenzentren auch große Mengen Wasser zur Kühlung und Mineralien für die Hardwareherstellung, was die Ressourcen zusätzlich belastet.

Herausforderungen bei der CO₂-Messung: Für Anwender ist es oft schwierig nachzuvollziehen, wie viel CO₂ ihre KI-Nutzung verursacht. Während Open-Source-Modelle lokale Messungen ermöglichen, schweigen sich die Anbieter proprietärer Modelle meist über Details zum Energiebedarf und zu Emissionsdaten aus. Emissionsberichte von Cloud-Anbietern sind zudem oft begrenzt, nicht detailliert genug für generative KI und können optimistisch ausfallen, da CO₂-Zertifikate oder andere Carbon-Offsetting-Methoden zum Einsatz kommen.

Werkzeuge zur Abschätzung und Messung: Um den CO₂-Fußabdruck besser einschätzen zu können, gibt es verschiedene Tools:

  • Green Algorithms von der Universität Cambridge schätzt den ökologischen Fußabdruck von Softwareprojekten, indem es Rechenzeit, Energieverbrauch und den lokalen Strommix berücksichtigt.
  • CarbonTracker der Universität Kopenhagen misst den Stromverbrauch rechenintensiver Prozesse wie dem KI-Training und schätzt die Emissionen.
  • CodeCarbon der Universität Montreal verfolgt einen ähnlichen Ansatz, misst den Energieverbrauch und schätzt Emissionen unter Berücksichtigung des lokalen Energiemixes.
  • Für offene Modelle existieren Benchmarks wie der AI Energy Score von Salesforce und das LLM-Perf Leaderboard von Hugging Face.
  • Für proprietäre Modelle schätzen Tools wie EcoLogits der gemeinnützigen Organisation GenAI Impact den ökologischen Fußabdruck, indem sie nicht nur Betriebsemissionen, sondern auch Hardware-Herstellung und abiotischen Ressourcenverbrauch anteilig berücksichtigen.
  • Das Carbon Footprint Modeling Tool bietet ein flexibles Datenmodell zur transparenten Gegenüberstellung verschiedener Berechnungsmethoden und Anpassung von Faktoren wie dem Energiemix.

Frugal AI: Das Konzept der „Frugal AI“ zielt darauf ab, KI-Lösungen nur dann einzusetzen, wenn keine weniger energieintensive Technologie das gleiche Ziel erreichen könnte, und die Umweltauswirkungen des Projekts von Anfang an zu minimieren. Dennoch liegt der entscheidende Hebel zur Reduzierung des Energieverbrauchs von KI bei den Anbietern durch Modellarchitektur, Rechenzentrumseffizienz und Energiemix.


Was der Einsatz großer Sprachmodelle im Unternehmen kostet

Die Implementierung von großen Sprachmodellen (LLMs) im Unternehmen erfordert eine sorgfältige Planung und birgt erhebliche Kosten, die sich schwer abschätzen lassen. Insbesondere bei cloudbasierten Diensten erfolgt die Abrechnung oft pro verarbeitetem und generiertem „Token“.

Phasen eines LLM-Projekts: Jedes LLM-Projekt durchläuft typischerweise fünf Phasen:

  1. Definition des Use Cases und der Anforderungen: Hoher Personalaufwand, oft mit externen Beratern.
  2. Datenvorbereitung: Kann aufwendig sein, insbesondere wenn Daten in ein für Sprachmodelle verständliches Format (Embeddings) überführt werden müssen.
  3. Modellauswahl: Auswahl des passenden Modells basierend auf dem Anwendungsfall, Daten und Leaderboards. Die Modellgröße beeinflusst Hardwarebedarf und Kosten pro Token.
  4. Feintuning und Embedding-Berechnung: Rechenintensive, aber einmalige Aufgabe, um Modelle an unternehmensspezifisches Vokabular anzupassen oder Dokumente durchsuchbar zu machen.
  5. Laufender Modellbetrieb (Operations): Kontinuierlicher Aufwand und Kosten, abhängig von Abrechnungsmodell (Stunden für Server oder Token pro Anfrage).

Kosten in spezifischen Anwendungsfällen:

  • Retrieval Augmented Generation (RAG):
    • Datenextraktion und Chunking: Erheblicher Rechenaufwand, da oft auch große Sprachmodelle dafür eingesetzt werden. Ein 100-seitiges PDF kann beispielsweise 40.000 Token umfassen.
    • Embedding-Berechnung: Der Prozess zur Erstellung der Embeddings aus den „gechunkten“ Textdaten kann je nach Anzahl der Dokumente und Chunks aufwendig sein.
    • Laufender Betrieb: Jede Suche erfordert die Berechnung eines einzelnen Embedding-Vektors. Kleinere generative Modelle sind hier oft ausreichend und dienen primär als Formulierungshilfe. Die Kosten pro Anfrage können wenige Cent betragen.
  • Agentensysteme:
    • Hierbei erledigen mehrere Sprachmodelle komplexe Aufgaben im Dialog miteinander.
    • Das Tokenvolumen, das die Interaktion der Agenten erzeugt, ist schwer abschätzbar. Schon eine einfache Anfrage kann eine Kommunikationskaskade auslösen, die entweder GPUs stark belastet oder hohe Kosten durch Token-Abrechnung verursacht.
    • Gleiche Anfragen können aufgrund der statistischen Natur der Textgenerierung zu unterschiedlichen und unterschiedlich langen Ergebnissen führen, was die internen Verarbeitungskosten unkontrollierbar macht.
  • Deep Research mit Reasoning-Modellen:
    • Diese Modelle können Zahlen interpretieren, Strategien vorschlagen und neue Ideen entwickeln.
    • Die Inferenz eines Reasoning-Modells benötigt immer eine GPU. Die Dauer des Prozesses und damit die GPU-Rechenzeit oder die Anzahl der erzeugten Token ist im Vorfeld oft nicht genau festlegbar.
    • Manchmal können sich die Modelle in langen Schleifen verfangen, was zu sehr hohen Kosten führt, selbst wenn die generierte Antwort kurz ist.

Fazit zu den Kosten: Die Kosten, insbesondere die variablen Betriebskosten, können sehr schwer im Vorfeld zu beziffern sein. Unternehmen müssen messbare Ziele festlegen und diese kontinuierlich überprüfen, um sicherzustellen, dass die Effizienzgewinne den oft hohen Investitionen in KI-Projekte gerecht werden.


Die sichere Einführung von Microsoft 365 Copilot im Unternehmen

Die Einführung von Microsoft 365 Copilot ist mehr als nur die Aktivierung eines semantischen Indexes. Da der Copilot auf sämtliche Inhalte einer Organisation zugreifen kann, ist es entscheidend, einen sicheren Betrieb zu gewährleisten, der sicherstellt, dass Nutzer nur autorisierte Inhalte erhalten.

Zentrale Anforderungen und Maßnahmen:

  • Autorisierter Inhalt: Der Copilot darf nur Antworten auf Prompts geben, für die der Anfragende auch berechtigt ist. Dies erfordert eine Konsolidierung der vorhandenen Inhalte und die Vergabe von Rechten auf Dateiebene, unabhängig vom Ablageort.
  • Verhinderung von Oversharing: Übermäßiges Teilen von Inhalten mit externen Adressaten muss verhindert werden, beispielsweise durch Verknüpfung mit Klassifizierern und Vertraulichkeitsbezeichnungen.
  • Aktualität der Inhalte: Daten, deren Aufbewahrungsfrist überschritten ist, müssen tatsächlich gelöscht werden, um die Aktualität der Inhalte zu gewährleisten.

Notwendige Dienste und Lizenzen: Für den sicheren Betrieb von Microsoft 365 Copilot werden zusätzliche Dienste und Lizenzen empfohlen oder sind notwendig:

  • Microsoft 365 E3- oder E5-Plan (E3 benötigt zusätzlich E5-Compliance-Add-on).
  • Apps for Enterprise (mit OneDrive for Business 1 TB Speicher).
    • Ältere Microsoft Office-Versionen müssen durch Apps for Enterprise ersetzt werden.
    • Die Umstellung des Update-Kanals auf einen monatlichen Rhythmus kann zu Störungen bei Drittanbieter- oder internen Office-Anwendungen führen.
  • Microsoft Teams Premium: Ermöglicht intelligente Besprechungszusammenfassungen (Meeting Recap) und automatische Aufgabenableitung (Action Item Detection).
    • Hierbei müssen Administratoren Aufzeichnung, Transkription und Copilot in den Besprechungsrichtlinien aktivieren, was eine Mitbestimmung des Betriebsrats erfordern kann.
  • SharePoint Online Advanced Management (SAM): Ergänzt Microsoft Purview und hilft, inaktive Site Collections zu identifizieren und zu archivieren, was die Zugriffsgenauigkeit und Relevanz der Informationen für Copilot verbessert.
  • Microsoft Purview: Unabhängig von M365 Copilot sinnvoll, aber für dessen Betrieb unerlässlich, um grundlegende Sicherheits- und Compliancestandards zu etablieren. Es umfasst Module wie:
    • Purview Information Protection: Automatische Klassifizierung von Dateien und E-Mails.
    • Purview Data Loss Prevention (DLP): Einschränkung von übermäßigem Teilen nach Klassifizierung.
    • Purview Data Lifecycle Management: Einhaltung gesetzlicher Lösch- und Aufbewahrungsfristen.
    • Purview Insider Risk Management (IRM): Identifiziert potenzielle Risiken durch Nutzende, indem es verdächtige Muster erkennt.
    • Purview Audit: Verfolgt die Nutzung von Microsoft 365 Copilot, um die Einhaltung von Sicherheits- und Datenschutzrichtlinien zu gewährleisten.
    • Purview Compliance Manager: Bietet ein Dashboard zur Bewertung von Compliance-Anforderungen und gibt Empfehlungen zur Risikominimierung.
    • Purview Communication Compliance: Analysiert Benutzerkommunikation auf Verstöße gegen Unternehmensrichtlinien.
    • Purview Data Security Posture Management (DSPM): Betrachtet das Sicherheits- und Complianceniveau der gesamten Datenlandschaft.
    • Purview eDiscovery: Hilft, Datenflüsse und Inhalte, auf die Copilot zugreift oder die er generiert, rechtskonform aufzufinden und bereitzustellen.

Organisatorische Herausforderungen: Die Einführung von Purview und anderen Diensten ist aufwendig und sollte nicht nur auf technische Aspekte beschränkt werden. Es ist sinnvoll, ein Data-Governance-Team aufzubauen, das sich täglich um fachliche Aufgaben wie die Prüfung und Anpassung von Klassifizierungsergebnissen oder die Analyse auffälliger Prompts kümmert.


Fazit: Verantwortungsvoller und geplanter KI-Einsatz ist entscheidend

Der Einsatz generativer KI in Unternehmen bietet großes Potenzial zur Effizienzsteigerung, erfordert jedoch eine gründliche Planung und Abwägung. Die Kosten, sowohl monetär als auch ökologisch, dürfen nicht unterschätzt werden. Es ist entscheidend, von Anfang an messbare Ziele festzulegen und diese kontinuierlich zu verifizieren, um sicherzustellen, dass der Nutzen die Kosten übersteigt. Eine stärkere Transparenz der KI-Anbieter in Bezug auf Emissionsdaten würde die strategische Planung erheblich erleichtern. Nur durch einen verantwortungsvollen und gut geplanten Einsatz kann das volle Potenzial der KI genutzt und gleichzeitig ihre Umweltauswirkungen sowie unvorhergesehene Kosten minimiert werden.