Kategorie: GenAI

  • DSGVO-Konformität KI-Dienste für KMUs

    DSGVO-Konformität KI-Dienste für KMUs

    Stephan Löttgen

    DSGVO-Konformität KI-Dienste für KMUsBewertung der DSGVO-Konformität ausgewählter KI-Dienste für Kleine und Mittlere Unternehmen in Deutschland

    I. Einleitung: KI-Werkzeuge und DSGVO-Konformität für deutsche KMU

    A. Die wachsende Bedeutung von Künstlicher Intelligenz für Kleine und Mittlere Unternehmen (KMU)

    Künstliche Intelligenz (KI) entwickelt sich rasant zu einer Schlüsseltechnologie, die auch für Kleine und Mittlere Unternehmen (KMU) in Deutschland erhebliche Potenziale zur Effizienzsteigerung, zur Förderung von Innovationen und zur Stärkung der Wettbewerbsfähigkeit birgt. Der Einsatz von KI-gestützten Werkzeugen kann KMU dabei unterstützen, Prozesse zu optimieren, neue Geschäftsfelder zu erschließen und datengestützte Entscheidungen zu treffen. Trotz dieser Chancen stehen KMU bei der Einführung neuer Technologien oft vor spezifischen Herausforderungen. Dazu zählen insbesondere begrenzte finanzielle und personelle Ressourcen sowie ein potenzieller Mangel an spezialisierter Expertise im Umgang mit komplexen Systemen wie KI und den damit verbundenen rechtlichen Anforderungen.1

    B. Kernherausforderungen der DSGVO beim Einsatz von KI-Diensten

    Der Einsatz von KI-Diensten, insbesondere wenn sie personenbezogene Daten verarbeiten, unterliegt strengen Vorgaben der Datenschutz-Grundverordnung (DSGVO). Die Grundprinzipien des Art. 5 DSGVO – Rechtmäßigkeit, Verarbeitung nach Treu und Glauben, Transparenz, Zweckbindung, Datenminimierung, Richtigkeit, Speicherbegrenzung sowie Integrität und Vertraulichkeit – müssen bei jeder KI-Anwendung gewährleistet sein.5

    Eine zentrale Anforderung ist das Vorhandensein einer gültigen Rechtsgrundlage gemäß Art. 6 oder Art. 9 DSGVO für jede Datenverarbeitung.5 In der Praxis kommen hier oft die Einwilligung der betroffenen Person (Art. 6 Abs. 1 lit. a DSGVO) oder das berechtigte Interesse des Verantwortlichen (Art. 6 Abs. 1 lit. f DSGVO) in Betracht. Beide Rechtsgrundlagen bergen im KI-Kontext spezifische Herausforderungen. Einwilligungen müssen informiert, freiwillig und spezifisch sein und können jederzeit widerrufen werden, was bei in neuronalen Netzen verarbeiteten Daten technisch schwer umsetzbar sein kann.5 Das berechtigte Interesse erfordert eine sorgfältige Abwägung mit den Rechten und Freiheiten der Betroffenen und stößt bei der Verarbeitung sensibler Daten oder Daten Minderjähriger an Grenzen.5

    Darüber hinaus ergeben sich beim KI-Einsatz besondere Risiken:

    • Mangelnde Transparenz (“Black Box”): Die Funktionsweise komplexer KI-Algorithmen ist oft schwer nachvollziehbar, was die Erfüllung der Transparenzpflichten erschwert.8
    • Bias in KI-Modellen: KI-Systeme können auf Basis ihrer Trainingsdaten unbeabsichtigt diskriminierende Muster erlernen und fortführen.11
    • Automatisierte Einzelentscheidungen: Entscheidungen, die ausschließlich auf einer automatisierten Verarbeitung beruhen und rechtliche Wirkung entfalten oder Betroffene erheblich beeinträchtigen, unterliegen den strengen Voraussetzungen des Art. 22 DSGVO.8
    • Datensicherheit: Die Verarbeitung großer Datenmengen, die oft für das Training und den Betrieb von KI erforderlich ist, stellt hohe Anforderungen an die Datensicherheit.1

    Aufgrund dieser Risiken ist beim Einsatz von KI zur Verarbeitung personenbezogener Daten, zur Steuerung der Interaktion mit Betroffenen oder zur Bewertung persönlicher Aspekte häufig die Durchführung einer Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO zwingend erforderlich.6

    C. Vorstellung der zu analysierenden KI-Werkzeuge und ihre Relevanz für KMU

    Dieser Bericht analysiert die DSGVO-Konformität von vier ausgewählten KI-Werkzeugen, die für KMU mit einer Größe von etwa 50-70 Mitarbeitern relevant sein können:

    1. Google Gemini Advanced (Bezahl-Account): Ein fortschrittliches KI-Modell von Google, oft integriert in Google Workspace, das für Texterstellung, Datenanalyse, Ideenfindung und mehr genutzt werden kann.12
    2. Microsoft Copilot 365 (Unternehmensversion): Ein KI-Assistent von Microsoft, der tief in die Microsoft 365-Anwendungen integriert ist und bei Aufgaben wie dem Verfassen von E-Mails, dem Erstellen von Präsentationen und der Datenanalyse unterstützt.15
    3. ChatGPT (Business/Enterprise-Version): Ein leistungsstarkes Sprachmodell von OpenAI, das in einer für Unternehmen geeigneten Version (z.B. Team oder Enterprise) für Content-Erstellung, Programmierung und komplexe Problemlösungen eingesetzt werden kann.17
    4. WhatsApp mit Meta AI: Die Integration von Metas KI-Assistent in WhatsApp, die für schnelle Informationsbeschaffung, Zusammenfassungen und als interaktiver Assistent in der täglichen Kommunikation dienen kann.18

    Typische Anwendungsfälle dieser Werkzeuge in KMU umfassen die Automatisierung von Routineaufgaben, die Unterstützung bei der Erstellung von Marketingmaterialien, die Analyse von Geschäftsdaten zur Identifizierung von Trends, die Verbesserung der internen Zusammenarbeit und die Optimierung der externen Kundenkommunikation.

    D. Ausblick: Der EU AI Act und seine zukünftige Bedeutung für KMU

    Neben der DSGVO wird der kürzlich verabschiedete EU AI Act (KI-Verordnung) den rechtlichen Rahmen für die Entwicklung und den Einsatz von KI-Systemen in der Europäischen Union maßgeblich prägen. Der AI Act verfolgt einen risikobasierten Ansatz und klassifiziert KI-Systeme in verschiedene Risikokategorien: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko.10
    Für KMU bedeutet dies, dass sie zukünftig nicht nur die DSGVO, sondern auch die spezifischen Anforderungen des AI Acts berücksichtigen müssen:

    • Verbotene KI-Systeme: Anwendungen mit inakzeptablem Risiko (z.B. Social Scoring durch Behörden) werden verboten.10
    • Hochrisiko-KI-Systeme: Für diese Systeme gelten strenge Anforderungen an Technik, Organisation, Risikomanagement, Datenqualität, Transparenz, menschliche Aufsicht und Cybersicherheit.10 Anbieter müssen eine Konformitätsbewertung durchführen.
    • KI-Systeme mit begrenztem Risiko: Hier stehen Transparenzpflichten im Vordergrund, z.B. die Kennzeichnung von KI-generierten Inhalten oder Chatbots.10
    • Generative KI-Modelle (GPAI): Für Basismodelle wie GPT gelten spezifische Transparenz- und Dokumentationspflichten.10

    Der AI Act sieht zwar keine generellen Ausnahmen für KMU vor, berücksichtigt jedoch deren spezifische Bedürfnisse durch verschiedene Erleichterungen. Dazu gehören die Bereitstellung vereinfachter Formulare für die technische Dokumentation bei Hochrisiko-KI, die Förderung der Teilnahme von KMU an Normungsprozessen und der erleichterte Zugang zu KI-Reallaboren (Regulatory Sandboxes).19
    Der Zeitplan für die Anwendbarkeit des AI Acts ist gestaffelt: Verbote für KI-Systeme mit inakzeptablem Risiko gelten bereits sechs Monate nach Inkrafttreten (voraussichtlich Anfang 2025). Die Regeln für Hochrisiko-KI-Systeme und GPAI-Modelle folgen später, mit vollständiger Anwendbarkeit eines Großteils der Verordnung nach 24 bzw. 36 Monaten.10 Bußgelder für Verstöße können empfindlich sein und kumulativ zu DSGVO-Sanktionen verhängt werden.20
    Die Komplexität der DSGVO-Anforderungen, kombiniert mit den sich schnell entwickelnden KI-Technologien und dem bevorstehenden, umfassenden Regelwerk des AI Acts, stellt KMU vor eine erhebliche Herausforderung. Unternehmen dieser Größenordnung verfügen oft über begrenzte juristische und technische Ressourcen, um diese vielschichtigen Anforderungen zu bewältigen.1 Die DSGVO an sich ist bereits ein komplexes Regelwerk.5 KI-Systeme fügen durch Aspekte wie die “Black-Box”-Natur vieler Algorithmen, die Notwendigkeit der rechtskonformen Beschaffung und Nutzung von Trainingsdaten sowie die Regelungen zu automatisierten Einzelentscheidungen (Art. 22 DSGVO) weitere Komplexitätsebenen hinzu.8 Der AI Act wird zusätzliche, teilweise sehr strenge, Verpflichtungen mit sich bringen.10 Diese Kumulation von Anforderungen kann für KMU überwältigend sein und erfordert proaktive, aber gleichzeitig pragmatische Ansätze. Es gilt nicht nur, die aktuelle Rechtslage einzuhalten, sondern auch zukünftige regulatorische Entwicklungen zu antizipieren, um Fehlinvestitionen zu vermeiden und eine nachhaltige, rechtskonforme KI-Nutzung sicherzustellen.

    E. Methodik der Untersuchung

    Die Bewertung der DSGVO-Konformität der ausgewählten KI-Dienste erfolgt anhand einer Reihe von Kriterien, die im nachfolgenden Kapitel II.A detailliert erläutert werden. Diese Kriterien umfassen unter anderem die Klärung der Verantwortlichkeiten, das Vorhandensein und die Qualität von Auftragsverarbeitungsverträgen, die Rechtsgrundlagen der Datenverarbeitung, die implementierten technischen und organisatorischen Maßnahmen, Regelungen zur Datenübermittlung in Drittstaaten, die Datenspeicherung und -verarbeitung (Datenresidenz), den Umgang mit Trainingsdaten, Transparenzpflichten sowie die Wahrung der Betroffenenrechte. Die Analyse stützt sich maßgeblich auf die bereitgestellten Informationsquellen und öffentlich zugängliche Dokumentationen der Anbieter.

    II. Analyse der DSGVO-Konformität der ausgewählten KI-Dienste

    A. Allgemeine Kriterien für die Bewertung der DSGVO-Konformität von KI-Diensten

    Für eine fundierte Bewertung der DSGVO-Konformität von KI-Diensten sind verschiedene Aspekte zu berücksichtigen:

    • Verantwortlichkeit (Art. 4 Nr. 7, Art. 24, Art. 5 Abs. 2 DSGVO): Es muss klar definiert sein, wer für die Datenverarbeitung die Rolle des Verantwortlichen und wer die des Auftragsverarbeiters übernimmt. Der Verantwortliche legt die Zwecke und Mittel der Verarbeitung fest und ist für die Einhaltung der DSGVO rechenschaftspflichtig.9
    • Auftragsverarbeitungsvertrag (AVV) (Art. 28 DSGVO): Beim Einsatz externer KI-Dienstleister, die personenbezogene Daten im Auftrag verarbeiten, ist der Abschluss eines DSGVO-konformen AVV zwingend erforderlich. Dieser Vertrag regelt die Rechte und Pflichten beider Parteien, insbesondere die Weisungsgebundenheit des Auftragsverarbeiters und die von ihm zu treffenden Sicherheitsmaßnahmen.21
    • Rechtsgrundlagen für die Datenverarbeitung (Art. 6, Art. 9 DSGVO): Jede Verarbeitung personenbezogener Daten durch die KI, sei es die Eingabe von Prompts oder die Analyse von Unternehmensdaten, bedarf einer gültigen Rechtsgrundlage. Dies kann die Einwilligung der Betroffenen, die Erforderlichkeit zur Vertragserfüllung oder ein berechtigtes Interesse des Unternehmens sein.5 Bei besonderen Kategorien personenbezogener Daten (Art. 9 DSGVO) gelten strengere Anforderungen.
    • Technische und Organisatorische Maßnahmen (TOMs) (Art. 32 DSGVO): Sowohl der Anbieter des KI-Dienstes als auch das einsetzende KMU müssen angemessene TOMs implementieren, um ein dem Risiko angemessenes Schutzniveau für personenbezogene Daten zu gewährleisten. Dazu gehören Maßnahmen wie Verschlüsselung, Zugriffskontrollen, Pseudonymisierung, Sicherstellung der Systemverfügbarkeit und regelmäßige Überprüfung der Wirksamkeit.1
    • Datenübermittlung in Drittstaaten (Kapitel V DSGVO): Werden personenbezogene Daten an Anbieter oder deren Subunternehmer in Ländern außerhalb der EU/des EWR (Drittstaaten) übermittelt, insbesondere in die USA, müssen die besonderen Anforderungen von Kapitel V DSGVO erfüllt sein. Dies kann durch einen Angemessenheitsbeschluss der EU-Kommission (z.B. das EU-U.S. Data Privacy Framework – DPF), durch Standardvertragsklauseln (SCCs) in Verbindung mit einer Transfer-Impact-Assessment (TIA) und gegebenenfalls ergänzenden Maßnahmen (gemäß Schrems II-Urteil) oder durch Ausnahmetatbestände geschehen.28
    • Datenspeicherung und -verarbeitung (Datenresidenz): Die Möglichkeit, den Speicherort und den Ort der Verarbeitung personenbezogener Daten auf die EU/den EWR zu beschränken, ist ein wichtiges Kriterium, um Risiken im Zusammenhang mit Drittlandtransfers zu minimieren.
    • Umgang mit Trainingsdaten: Es muss transparent sein, ob und wie eingegebene (personenbezogene) Daten zum Training oder zur Verbesserung der KI-Modelle verwendet werden. Unternehmen müssen prüfen, ob hierfür eine Rechtsgrundlage besteht und welche Opt-Out-Möglichkeiten den Nutzern zur Verfügung stehen.5
    • Transparenz und Informationspflichten (Art. 13, 14 DSGVO): Betroffene Personen (z.B. Mitarbeiter, Kunden) müssen in verständlicher Form über den Einsatz von KI-Systemen zur Verarbeitung ihrer Daten informiert werden, einschließlich der involvierten Logik und der Tragweite der Verarbeitung.8
    • Wahrung der Betroffenenrechte (Art. 15-22 DSGVO): Die KI-Systeme und die damit verbundenen Prozesse müssen die Ausübung der Betroffenenrechte (Auskunft, Berichtigung, Löschung, Einschränkung der Verarbeitung, Datenübertragbarkeit, Widerspruch) ermöglichen.6
    • Datenschutz durch Technikgestaltung und datenschutzfreundliche Voreinstellungen (Art. 25 DSGVO – Privacy by Design/Default): Datenschutzaspekte sollten von Beginn an in die Entwicklung und Konfiguration von KI-Systemen integriert werden.8

    B. Google Gemini Advanced (Bezahl-Account / Google Workspace Integration)

    • Datenverarbeitung und Verantwortlichkeiten: Beim Einsatz von Gemini Advanced im Kontext von Google Workspace agiert Google als Auftragsverarbeiter für die vom Kunden (dem KMU) eingegebenen und verarbeiteten Daten (“Customer Data”). Das KMU ist der Verantwortliche für diese Daten.22
    • Auftragsverarbeitungsvertrag (AVV / DPA): Google stellt für Google Workspace und die Google Cloud Platform ein “Cloud Data Processing Addendum” (CDPA) zur Verfügung. Dieses Dokument legt Googles Verpflichtungen als Auftragsverarbeiter gemäß DSGVO fest und muss vom KMU aktiv akzeptiert werden, um Gültigkeit zu erlangen.22
    • Technische und Organisatorische Maßnahmen (TOMs): Google beschreibt in seiner Dokumentation umfassende Sicherheitsmaßnahmen für seine Cloud-Dienste, darunter standardmäßige Verschlüsselung der Daten sowohl während der Übertragung (“in transit” via TLS) als auch im Ruhezustand (“at rest” via AES-256).37 Weitere Details zu den TOMs sind in der spezifischen Sicherheitsdokumentation und den SOC-Berichten (System and Organization Controls) von Google zu finden, die Kunden zur Verfügung gestellt werden können.22 Das KMU bleibt jedoch verpflichtet, eigene TOMs für den sicheren Zugriff auf und die Nutzung von Gemini Advanced und Google Workspace zu implementieren, wie z.B. Zugriffsrichtlinien, Passwortmanagement und Mitarbeitersensibilisierung.1
    • Datenübermittlung in Drittstaaten: Da Google ein US-amerikanisches Unternehmen ist, spielt die Absicherung von Datentransfers in die USA eine zentrale Rolle. Google LLC (und seine hundertprozentigen US-Tochtergesellschaften) ist unter dem EU-U.S. Data Privacy Framework (DPF) zertifiziert, was eine Rechtsgrundlage für Datenübermittlungen darstellt.32 Das CDPA von Google beinhaltet zudem Standardvertragsklauseln (SCCs) als weiteren Mechanismus zur Absicherung von Drittlandtransfers.32 KMU müssen im Rahmen ihrer Rechenschaftspflicht die Angemessenheit dieser Mechanismen für ihre spezifischen Datenverarbeitungen und -transfers bewerten und dokumentieren (Transfer Impact Assessment).
    • Datenspeicherung und -verarbeitung (Datenresidenz): Google Workspace bietet für bestimmte Editionen (insbesondere Enterprise Plus) die Möglichkeit, Datenregionen festzulegen, sodass Kundendaten primär in Rechenzentren innerhalb der Europäischen Union gespeichert und verarbeitet werden können.40 Administratoren können dies in der Google Admin-Konsole konfigurieren.42 Die Partnerschaft mit der Schwarz Gruppe und deren STACKIT-Cloud (siehe Abschnitt III.A) zielt darauf ab, eine erweiterte souveräne Lösung mit client-seitiger Verschlüsselung für Google Workspace anzubieten, die primär auf größere Unternehmen und regulierte Branchen ausgerichtet ist.
    • Nutzung von Daten für Trainingszwecke: Google gibt an, dass Kundendaten aus Google Workspace, einschließlich der Daten, die mit Gemini in Workspace-Diensten (wie Docs, Gmail etc.) verarbeitet werden, nicht zur Erstellung von Anzeigenprofilen oder zur Verbesserung von Google Ads-Produkten verwendet werden. Ebenso sollen diese Daten nicht zum Training der allgemeinen KI-Modelle von Google herangezogen werden.12 Die Interaktionen mit Gemini Advanced im Rahmen eines Google Workspace for Business Accounts unterliegen diesen Schutzverpflichtungen; Google betont, dass die Eingaben nicht zum Training von Modellen verwendet und nicht von menschlichen Prüfern eingesehen werden, wenn Gemini Advanced im Enterprise-Kontext genutzt wird.12 Es ist jedoch wichtig zu differenzieren: Bei der Nutzung der eigenständigen Gemini-Webanwendung (gemini.google.com) mit einem privaten Google-Konto (z.B. über Google One AI Premium) können andere Datenschutzbestimmungen gelten, und Konversationen können zur Modellverbesserung herangezogen werden, sofern der Nutzer nicht widerspricht oder Funktionen wie “Gemini Apps Activity” deaktiviert.46
    • Spezifische Funktionen für Datenschutz: Google Workspace bietet verschiedene Funktionen zur Erhöhung des Datenschutzes, wie z.B. Client-Side Encryption (CSE), die es Kunden ermöglicht, ihre Daten mit eigenen Schlüsseln zu verschlüsseln, bevor sie in die Google Cloud hochgeladen werden.37 Data Loss Prevention (DLP) Tools helfen, den Abfluss sensibler Daten zu verhindern.12 Umfangreiche Zugriffskontrollen und Audit-Logs sind ebenfalls verfügbar.

    C. Microsoft Copilot 365 (Unternehmensversion)

    • Datenverarbeitung und Verantwortlichkeiten: Beim Einsatz von Microsoft Copilot 365 agiert Microsoft als Auftragsverarbeiter für die Kundendaten, die innerhalb der Microsoft 365-Umgebung verarbeitet werden. Das KMU ist der Verantwortliche für diese Daten.23
    • Auftragsverarbeitungsvertrag (AVV / DPA): Microsoft stellt ein “Data Protection Addendum” (DPA) zur Verfügung, das integraler Bestandteil der “Product Terms” ist und die datenschutzrechtlichen Verpflichtungen von Microsoft als Auftragsverarbeiter regelt.23 Dieses DPA ist für die Nutzung von Copilot 365 maßgeblich.
    • Technische und Organisatorische Maßnahmen (TOMs): Microsoft Copilot 365 erbt die bestehenden Sicherheits-, Compliance- und Datenschutzeinstellungen des jeweiligen Microsoft 365-Tenants des Kunden.15 Microsoft beschreibt seine umfassenden Sicherheitsmaßnahmen in seiner Dokumentation und im DPA. Eine von der britischen Datenschutzbehörde ICO (Information Commissioner’s Office) durchgeführte bzw. veröffentlichte Datenschutz-Folgenabschätzung (DPIA) zum Einsatz von Copilot 365 gibt Einblicke in die Funktionsweise, die Datenverarbeitung und die von Microsoft getroffenen TOMs sowie deren Bewertung aus Sicht einer Aufsichtsbehörde.52
    • Datenübermittlung in Drittstaaten: Microsoft ist unter dem EU-U.S. Data Privacy Framework (DPF) zertifiziert.54 Das DPA von Microsoft enthält Standardvertragsklauseln (SCCs) als zusätzlichen Mechanismus für internationale Datentransfers. Ein zentrales Element zur Minimierung von Drittlandtransfers ist die “EU Data Boundary” von Microsoft.56
    • Datenspeicherung und -verarbeitung (Datenresidenz): Microsoft hat die Fertigstellung seiner EU Data Boundary für die Microsoft Cloud bekannt gegeben. Diese Initiative zielt darauf ab, Speicher- und Verarbeitungszusagen für Kundendaten der Kerndienste (einschließlich Microsoft 365 und der Interaktionsdaten von Copilot) innerhalb der EU bzw. der EFTA-Staaten zu gewährleisten.56 Die Speicherung der “content of interactions” mit Copilot (Prompts, Antworten, Zitate) richtet sich nach der Preferred Data Location (PDL) des Nutzers oder, falls nicht gesetzt, nach der primären Region des Tenants.52
    • Nutzung von Daten für Trainingszwecke: Microsoft sichert zu, dass die Prompts und Antworten, die bei der Nutzung von Microsoft 365 Copilot entstehen, nicht zum Training der zugrundeliegenden Basis-KI-Modelle (Foundation Models) verwendet werden.15 Die ICO DPIA bestätigt diese Aussage für die von der ICO geplante Nutzung.53
    • Spezifische Funktionen für Datenschutz: Microsoft Purview bietet Werkzeuge für Data Governance, Datenklassifizierung und die Definition von Aufbewahrungsrichtlinien, die auch für Copilot-generierte Daten relevant sind.52 Die Zugriffskontrolle auf Daten durch Copilot basiert auf den bestehenden Berechtigungen der Nutzer innerhalb von Microsoft 365; Copilot kann nur auf Daten zugreifen, für die der jeweilige Nutzer bereits eine Zugriffsberechtigung besitzt.51
    • Besondere Hinweise: Die Entscheidung des Europäischen Datenschutzbeauftragten (EDSB) bezüglich der Nutzung von Microsoft 365 durch die Europäische Kommission 62 ist für KMU insofern relevant, als sie die Bedeutung einer sorgfältigen Prüfung der Vertragswerke und der tatsächlichen Datenflüsse, insbesondere bei Transfers in Drittländer und der genauen Spezifizierung von Datenkategorien und Verarbeitungszwecken, unterstreicht. KMU sollten sicherstellen, dass ihre Verträge mit Microsoft diesen Aspekten ausreichend Rechnung tragen.

    D. ChatGPT (Enterprise/Team Version)

    • Datenverarbeitung und Verantwortlichkeiten: Bei der Nutzung von ChatGPT über die API oder in den Business-Versionen (Enterprise/Team) agiert OpenAI als Auftragsverarbeiter für die vom KMU (Verantwortlicher) eingegebenen Daten.24
    • Auftragsverarbeitungsvertrag (AVV / DPA): OpenAI bietet ein Data Processing Addendum (DPA) für seine API- und Business-Dienste an.24 Es ist entscheidend, dass KMU dieses DPA abschließen. Für die kostenlosen Versionen von ChatGPT stellt OpenAI keinen AVV zur Verfügung, was deren Einsatz für die Verarbeitung personenbezogener Geschäftsdaten aus DSGVO-Sicht ausschließt.66 Der offizielle Link zum DPA ist unter anderem hier zu finden: https://openai.com/policies/data-processing-addendum.64
    • Technische und Organisatorische Maßnahmen (TOMs): OpenAI beschreibt allgemeine Sicherheitsmaßnahmen wie die Verschlüsselung von Daten im Ruhezustand (AES-256) und während der Übertragung (TLS 1.2+).69 Eine SOC 2 Typ 2-Konformität wird ebenfalls erwähnt.17 Für europäische Unternehmen wird eine unabhängige Prüfung der von OpenAI dargelegten TOMs empfohlen, um deren Angemessenheit für die eigenen Verarbeitungszwecke zu bewerten.66 Allgemeine Beispiele für TOMs, die relevant sein können, finden sich in.27
    • Datenübermittlung in Drittstaaten: OpenAI ist ein US-amerikanisches Unternehmen. Gemäß einer Quelle vom April 2024 66 war OpenAI zu diesem Zeitpunkt nicht unter dem EU-U.S. Data Privacy Framework (DPF) zertifiziert. Eine aktuelle Überprüfung der offiziellen DPF-Teilnehmerliste konnte OpenAI ebenfalls nicht als aktiven Teilnehmer verifizieren.72 Folglich stützt sich die Datenübermittlung in die USA primär auf Standardvertragsklauseln (SCCs).66 Dies stellt ein signifikantes Risiko dar und erfordert von KMU eine sorgfältige Durchführung eines Transfer Impact Assessments (TIA) sowie die Prüfung und Implementierung etwaiger notwendiger zusätzlicher technischer und organisatorischer Maßnahmen, um ein der EU gleichwertiges Datenschutzniveau sicherzustellen.
    • Datenspeicherung und -verarbeitung (Datenresidenz): Seit Mai 2025 bietet OpenAI Datenresidenzoptionen für Europa an. Für API-Kunden bedeutet dies die Möglichkeit, Daten für bestimmte Endpunkte in Europa verarbeiten zu lassen, wobei OpenAI hier von “Zero Data Retention” spricht (d.h., Anfragen und Antworten werden nicht dauerhaft auf OpenAI-Servern gespeichert).69 Für neue ChatGPT Enterprise- und Edu-Workspaces kann bei der Einrichtung gewählt werden, dass Kundendaten (Konversationen, Prompts, hochgeladene Dateien) “at rest” (im Ruhezustand) in Europa gespeichert werden.17 Diese Option muss bei der Erstellung eines neuen Projekts (API) bzw. Workspaces (Enterprise/Edu) aktiv konfiguriert werden.69
    • Nutzung von Daten für Trainingszwecke: Für die ChatGPT Enterprise- und Team-Versionen sowie die API gilt standardmäßig, dass die eingegebenen Daten und generierten Antworten nicht zum Training der OpenAI-Modelle verwendet werden, es sei denn, der Kunde stimmt dem explizit zu (Opt-in).17
    • Sub-Prozessoren: OpenAI veröffentlicht eine Liste seiner Sub-Prozessoren und deren Verarbeitungsstandorte. Zu den genannten Sub-Prozessoren gehören Microsoft Azure (mit Rechenzentren u.a. in Frankreich, Deutschland, Irland, Polen, Schweden, Schweiz, UK), Cloudflare (globale Verarbeitung je nach Standort des Endnutzers), Snowflake (USA), TaskUs (Philippinen für Kundensupport und Moderation), Salesforce (mit Rechenzentren u.a. in EU-Ländern für Kundensupport) und weitere US-basierte Dienste.77 Auch wenn die Primärdatenverarbeitung in der EU erfolgt, erfordert der Einsatz von Sub-Prozessoren in den USA oder anderen Drittländern eine genaue Prüfung der Datentransfermechanismen und potenzieller Risiken.
    • Rolle von OpenAI Ireland Ltd.: Für Kunden im Europäischen Wirtschaftsraum (EWR) und der Schweiz ist OpenAI Ireland Ltd. der Vertragspartner.65 Diese vertragliche Ansiedlung in der EU ändert jedoch nichts an der Notwendigkeit, Datentransfers an die US-Muttergesellschaft oder an Sub-Prozessoren in Drittländern gemäß Kapitel V DSGVO abzusichern.

    E. WhatsApp mit Meta AI (für geschäftliche Nutzung)

    • Besonderheiten der Plattform: Standardmäßig sind persönliche Nachrichten und Anrufe in WhatsApp Ende-zu-Ende-verschlüsselt, was bedeutet, dass nur die Kommunikationsteilnehmer die Inhalte lesen können, nicht einmal WhatsApp oder Meta selbst.79 Interaktionen mit Meta AI unterliegen jedoch nicht dieser durchgehenden Ende-zu-Ende-Verschlüsselung in gleicher Weise, da die Anfragen und Inhalte zur Verarbeitung an Meta-Server gesendet werden.18
    • Metas “Private Processing” Architektur: Als Reaktion auf Datenschutzbedenken hat Meta eine optionale Architektur namens “Private Processing” vorgestellt. Diese soll es ermöglichen, KI-Anfragen (z.B. Nachrichtenzusammenfassungen, Formulierungsvorschläge) in einer geschützten Umgebung auf Basis von Confidential Virtual Machines (CVMs) innerhalb von Trusted Execution Environments (TEEs) zu verarbeiten.79 Dabei soll die IP-Adresse des Nutzers durch den Einsatz von Relais-Servern verschleiert werden.83 Die Verarbeitung in den CVMs soll zustandslos erfolgen, und Nachrichten sollen nach der Verarbeitung gelöscht werden.79 Die “Private Processing”-Architektur stellt einen technisch anspruchsvollen Versuch dar, den Datenschutzbedenken bei der Nutzung serverseitiger KI-Funktionen in einem eigentlich Ende-zu-Ende-verschlüsselten Messenger zu begegnen. Die Wirksamkeit dieser Architektur und die tatsächliche Verhinderung eines Zugriffs durch Meta hängen jedoch von zahlreichen Faktoren ab, darunter die korrekte technische Implementierung, die Sicherheit der TEEs selbst und die Transparenz der Prozesse. Für KMU ist die Überprüfbarkeit dieser komplexen technischen Zusicherungen in der Praxis äußerst schwierig. Meta steht unter erheblichem Druck von Datenschutzbehörden 88, und “Private Processing” 79 ist eine Reaktion darauf. Obwohl die eingesetzte Technologie (TEE, CVM, OHTTP) fortschrittlich ist 84, verbleibt die Verarbeitung auf einer von Meta kontrollierten Infrastruktur.86 Behauptungen zur Zustandslosigkeit und sofortigen Löschung von Daten 84 sind für externe Parteien, insbesondere KMU, kaum verifizierbar. Die Tatsache, dass Nutzer auf “Advanced Chat Privacy”-Funktionen zurückgreifen müssen, um bestimmte Nachrichten explizit von der KI-Verarbeitung auszuschließen 83, deutet darauf hin, dass die Standardintegration von Meta AI Risiken birgt. Die hohe Komplexität der Architektur 86 macht es für KMU nahezu unmöglich, eine eigene fundierte Risikobewertung der technischen Implementierung vorzunehmen.
    • Datenverarbeitung und Verantwortlichkeiten: Meta ist der Anbieter der KI-Technologie. Bei der geschäftlichen Nutzung von WhatsApp, beispielsweise über die WhatsApp Business Platform API, ist das KMU der Verantwortliche für die übermittelten Kundendaten. Die genaue Rollenverteilung (Verantwortlicher/Auftragsverarbeiter) bezüglich der durch Meta AI verarbeiteten Inhalte und der daraus resultierenden Daten muss klar definiert sein. Die allgemeinen WhatsApp Business Terms 91 und die WhatsApp Business Data Processing Terms 93 scheinen Meta AI-Funktionen nicht explizit und umfassend abzudecken.94 Für eine spezielle “Business AI”-Funktion auf WhatsApp wird beschrieben, dass Meta Nachrichten zur Verbesserung der KI verwendet, solange diese Funktion aktiviert ist.95
    • Auftragsverarbeitungsvertrag (AVV / DPA): Die Standard WhatsApp Business Data Processing Terms 94 enthalten nach derzeitigem Kenntnisstand keine spezifischen Regelungen für die Verarbeitung von Daten durch Meta AI. Es ist unklar, ob für die Nutzung von Meta AI-Funktionen im geschäftlichen Kontext ein separater, DSGVO-konformer AVV mit Meta (als Auftragsverarbeiter für die KI-gestützte Verarbeitung) existiert oder wie dieser ausgestaltet ist. Das Fehlen eines klaren AVV oder unklare Datenverarbeitungsbedingungen stellen ein erhebliches rechtliches Risiko dar.82
    • Datenübermittlung und Speicherung: Meta ist ein US-amerikanisches Unternehmen und unter dem EU-U.S. DPF zertifiziert (obwohl nicht explizit in den Meta-spezifischen Snippets für diesen Bericht enthalten, ist dies eine bekannte Tatsache, analog zu Google 32). Datenübermittlungen in die USA erfordern eine gültige Rechtsgrundlage. Die CVMs für “Private Processing” sind Cloud-basiert 79; ihre genauen geografischen Standorte, insbesondere für EU-Nutzer, sind aus den vorliegenden Informationen nicht eindeutig ersichtlich.79 Meta AI wurde in Europa eingeführt, nachdem Meta Zusicherungen bezüglich der Nichtverwendung von EU-Nutzerdaten für das Training der initialen Modelle gemacht hatte.81
    • Nutzung von Daten für Trainingszwecke: Meta gibt an, dass private Nachrichten von Nutzern nicht zum Training von KI-Modellen verwendet werden.98 Allerdings können Interaktionen mit Meta AI (eingegebene Prompts, Feedback) zur Verbesserung der KI-Qualität herangezogen werden.80 Für öffentliche Daten von Facebook und Instagram gibt es einen Opt-Out-Mechanismus bezüglich der Nutzung für KI-Training.98 Für die spezielle “Business AI”-Funktion in WhatsApp (die sich von der allgemeinen Meta AI-Integration unterscheiden kann) werden Nachrichten zur Verbesserung von Meta AI verwendet, solange die Funktion verbunden ist.95 Es ist nicht eindeutig geklärt, ob es einen spezifischen Opt-Out-Mechanismus für geschäftliche WhatsApp-Interaktionsdaten mit der allgemeinen Meta AI-Integration gibt. Die Quellen deuten darauf hin, dass Nutzer die Meta AI-Funktion nicht generell deaktivieren können, sondern lediglich die direkte Interaktion vermeiden oder einzelne Chatverläufe mit der KI löschen können, was die Daten jedoch nicht zwingend von Metas Servern entfernt.80
    • Risiken und Herausforderungen für KMU: Die Nutzung von Meta AI in WhatsApp birgt für KMU erhebliche Rechtsunsicherheiten aufgrund mangelnder Transparenz über die genauen Datenverarbeitungswege, einer unklaren AVV-Situation für die spezifischen KI-Funktionen und der Gefahr der unbeabsichtigten Weitergabe von Geschäftsgeheimnissen oder Kundendaten bei unsachgemäßer Nutzung durch Mitarbeiter.82 Die Tatsache, dass Meta AI nicht vollständig deaktiviert werden kann, sondern als feste Integration in der App präsent ist, erhöht das Risiko einer versehentlichen oder unbedachten Nutzung.82

    Die Integration von Meta AI in WhatsApp Business stellt KMU vor ein erhebliches Dilemma. Einerseits besteht das Potenzial, durch eine KI-Assistenz in einem etablierten und weit verbreiteten Kommunikationskanal Effizienzgewinne zu erzielen.18 Andererseits ist Metas Kerngeschäftsmodell datengetrieben, was grundsätzliche Bedenken hinsichtlich des Datenschutzes hervorruft. Die Ende-zu-Ende-Verschlüsselung, ein Kernmerkmal von WhatsApp, wird durch die Interaktion mit den Meta AI-Servern für die KI-Funktionen aufgeweicht oder umgangen.82 Die “Private Processing”-Architektur 79 ist eine technisch komplexe Antwort auf diese Bedenken, doch ihre tatsächliche Effektivität und Undurchdringlichkeit für Meta selbst ist für KMU kaum nachprüfbar. Die datenschutzrechtliche Vertragslage, insbesondere das Vorhandensein eines spezifischen und adäquaten Auftragsverarbeitungsvertrags für die Meta AI-Funktionen, ist unklar.82 Die mögliche Nutzung von Interaktionsdaten zur Verbesserung der KI-Modelle 80 und die fehlende Möglichkeit, die KI-Integration vollständig zu deaktivieren 88, schaffen ein Spannungsfeld zwischen potenziellem Nutzen und erheblichen datenschutzrechtlichen Risiken. Die Rechenschaftspflicht gemäß Art. 5 Abs. 2 DSGVO für die Rechtmäßigkeit der Datenverarbeitung lastet primär auf dem KMU als dem für die Kommunikation Verantwortlichen.

    F. Vergleichende Zusammenfassung der DSGVO-Konformitätsaspekte

    Die folgende Tabelle fasst die wesentlichen DSGVO-Konformitätsmerkmale der untersuchten KI-Dienste zusammen:

    Tabelle 1: Vergleichende Übersicht der DSGVO-Konformitätsmerkmale

    Merkmal Google Gemini Advanced (in Workspace) Microsoft Copilot 365 ChatGPT (Team/Enterprise) WhatsApp mit Meta AI
    AVV (DPA) vorhanden & Qualität Ja, Google Cloud DPA (CDPA).22 Umfassend für Workspace. Ja, Microsoft DPA als Teil der Product Terms.23 Umfassend. Ja, OpenAI DPA für Business-Dienste.24 Für kostenlose Versionen nein.66 Standard WhatsApp Business DPT 94 deckt Meta AI nicht spezifisch ab. AVV-Lage für KI-Funktionen unklar.82
    Verantwortlichkeit (C/P klar?) Ja, KMU ©, Google (P).22 Ja, KMU ©, Microsoft (P).23 Ja, KMU ©, OpenAI (P) für Business-Dienste.64 KMU © für Kundendaten. Rolle von Meta bei KI-Verarbeitung komplex, potenziell (Mit-)Verantwortlicher oder Auftragsverarbeiter je nach Aspekt.
    Datenresidenz EU (Speicher & Verarb.) Ja, konfigurierbar (v.a. Enterprise Plus).42 STACKIT-Option. Ja, EU Data Boundary für Speicherung & Verarbeitung.56 Ja, für neue Workspaces/API-Projekte (Speicherung at rest / Verarbeitung für API).69 Unklar für Meta AI Server. “Private Processing” CVMs sind Cloud-basiert, genaue EU-Standorte nicht explizit für alle Szenarien bestätigt.79
    Drittlandtransfer-Mechanismus DPF, SCCs (im CDPA).32 DPF, SCCs (im DPA), EU Data Boundary.54 SCCs.66 DPF-Status unklar/negativ (Stand April 2024).66 DPF (Meta). Für “Private Processing” und KI-Datenströme genaue Mechanismen und Notwendigkeit von TIAs für KMU zu prüfen.
    Nutzung Eingabedaten für Training Nein für Workspace-Daten (Default).33 Nein (Default).23 Nein für Business-Dienste (Default).35 Private Nachrichten nein.98 Interaktionen mit Meta AI können genutzt werden.80 “Business AI” nutzt Daten.95 Opt-Out komplex.
    TOMs (Dokumentation, Zertif.) Umfassend dokumentiert, SOC-Berichte, ISO-Zertifikate.22 Umfassend dokumentiert, ISO-Zertifikate, ICO DPIA-Analyse.51 Allgemeine Angaben, SOC 2.17 Unabhängige Prüfung empfohlen.66 “Private Processing” als TOM beschrieben.79 Meta hat allg. Sicherheitsmaßnahmen. Transparenz der KI-spezifischen TOMs für KMU begrenzt.
    Besonderheiten/Risiken für KMU Kosten für souveräne Optionen (Enterprise Plus/STACKIT). Komplexität. EDPS-Kritik an M365-Verträgen.62 ICO DPIA nennt Datenrichtigkeitsrisiko.52 Hohes Risiko bei Drittlandtransfer aufgrund unklarem DPF-Status. Subprozessoren in Drittländern. Hohe Rechtsunsicherheit, unklarer AVV für KI, Kontrollverlust, keine Deaktivierungsmöglichkeit der KI-Integration.82

    Die Analyse der vier KI-Dienste zeigt deutliche Unterschiede in Bezug auf ihre datenschutzrechtliche Einordnung und die für KMU damit verbundenen Risiken und Aufwände. Google und Microsoft bieten für ihre etablierten Business-Ökosysteme (Google Workspace und Microsoft 365) vergleichsweise klare und seit längerem entwickelte Datenschutzrahmen. Diese umfassen detaillierte Auftragsverarbeitungsverträge (DPAs), Zertifizierungen nach dem EU-U.S. Data Privacy Framework (DPF) und zunehmend auch Optionen zur Datenresidenz innerhalb der EU. Die Integration von KI-Funktionen wie Gemini Advanced und Copilot 365 erfolgt innerhalb dieser bestehenden Strukturen, wobei die Anbieter Zusicherungen machen, dass Geschäftsdaten standardmäßig nicht für das Training allgemeiner Modelle verwendet werden.

    Im Gegensatz dazu bewegen sich OpenAI mit ChatGPT (Enterprise/Team) und insbesondere Meta mit der WhatsApp AI-Integration in Bereichen, die für KMU höhere Unsicherheiten bergen können. Bei OpenAI ist die Situation bezüglich der DPF-Zertifizierung und der damit verbundenen Vereinfachung von Drittlandtransfers weniger eindeutig als bei Google und Microsoft (Stand der Recherche 66), auch wenn nun Optionen für EU-Datenresidenz angeboten werden.69 Dies erfordert von KMU eine genauere Prüfung der Standardvertragsklauseln und potenziell die Implementierung zusätzlicher Schutzmaßnahmen.

    Die Integration von Meta AI in WhatsApp stellt die größte Herausforderung dar. WhatsApp ist primär eine Endverbraucher-Anwendung mit Ende-zu-Ende-Verschlüsselung. Die Einführung serverseitiger KI-Funktionen durchbricht dieses Paradigma und wirft grundlegende Fragen zur Datenkontrolle, Transparenz und den vertraglichen Grundlagen auf.82 Metas “Private Processing”-Architektur 79 ist ein technisch ambitionierter Versuch, diese Bedenken zu adressieren. Für KMU ist die Komplexität dieser Lösung jedoch schwer zu durchdringen und die tatsächliche Schutzwirkung kaum unabhängig zu verifizieren. Die Unklarheiten bezüglich eines spezifischen AVV für die KI-Funktionen und die fehlende Möglichkeit, die KI-Integration vollständig zu deaktivieren, erhöhen die Risiken zusätzlich.

    III. Bewertung von Partnerschaften: Die Rolle der Schwarz Gruppe für souveräne KI-Lösungen

    A. Vorstellung der Schwarz Gruppe und ihrer Digitalstrategie (STACKIT, XM Cyber, Aleph Alpha Partnerschaft)

    Die Schwarz Gruppe, einer der größten Handelskonzerne Europas (bekannt durch Lidl und Kaufland), hat mit “Schwarz Digits” eine eigene IT- und Digitalsparte etabliert, die eine signifikante Rolle im europäischen Cloud- und KI-Markt anstrebt.48 Ein Kernstück dieser Strategie ist STACKIT, die Cloud-Plattform der Schwarz Gruppe. STACKIT positioniert sich als Anbieter souveräner Cloud-Lösungen mit einem starken Fokus auf DSGVO-Konformität und Datensicherheit. Die Rechenzentren von STACKIT befinden sich ausschließlich in Deutschland und Österreich, was die Einhaltung europäischer Datenschutzstandards gewährleisten soll.48 Ergänzend dazu gehört XM Cyber zu Schwarz Digits und bietet fortschrittliche Cybersicherheitslösungen an, die auch in die Cloud-Angebote integriert werden.48

    Um ihr Portfolio im Bereich KI und Cloud zu stärken und souveräne Alternativen zu den globalen Hyperscalern zu bieten, ist die Schwarz Gruppe strategische Partnerschaften eingegangen, insbesondere mit Google Cloud und dem deutschen KI-Unternehmen Aleph Alpha.48

    B. Partnerschaft Schwarz Gruppe & Google Cloud (STACKIT für Google Workspace)

    • Angebot und Funktionsweise: Eine zentrale Säule der Partnerschaft zwischen der Schwarz Gruppe und Google Cloud ist das Angebot einer souveränen Lösung für Google Workspace, die durch STACKIT bereitgestellt wird. STACKIT ermöglicht es Kunden, ihre Google Workspace-Daten lokal in STACKIT-Rechenzentren in Europa zu speichern und zusätzlich eine client-seitige Verschlüsselung (CSE) zu nutzen.48 Bei der client-seitigen Verschlüsselung behält der Kunde die alleinige Kontrolle über die Verschlüsselungsschlüssel. Das bedeutet, dass die Daten bereits auf der Seite des Kunden verschlüsselt werden, bevor sie an Google Workspace übertragen und dort gespeichert werden. Selbst Google als Plattformanbieter hat somit keinen Zugriff auf die unverschlüsselten Inhalte.105
    • Datenresidenz und Souveränität: Durch diese Architektur verbleiben die Kundendaten physisch innerhalb der Europäischen Union, und Backups werden ausschließlich in den europäischen Rechenzentren von STACKIT gehostet.48 Ziel dieser Lösung ist es, die strengen Souveränitäts- und Datenschutzanforderungen regulierter Branchen (wie Finanzdienstleistungen, Gesundheitswesen, öffentlicher Sektor) sowie anderer datenschutzbewusster Unternehmen zu erfüllen.48
    • Bedeutung für die DSGVO-Konformität: Diese Lösung erhöht das Schutzniveau für in Google Workspace verarbeitete personenbezogene Daten erheblich. Insbesondere im Hinblick auf potenzielle Zugriffe durch Behörden aus Drittstaaten (ein zentrales Thema seit dem Schrems II-Urteil) bietet die client-seitige Verschlüsselung unter alleiniger Kontrolle des Kunden einen starken Schutzmechanismus. Sie stärkt die Position des KMU als Verantwortlicher, da es die Hoheit über die Schlüssel und somit über den Zugriff auf seine Daten behält.
    • Verfügbarkeit und Eignung für KMU (50-70 Mitarbeiter): Die von STACKIT und Google kommunizierte souveräne Workplace-Lösung richtet sich primär an Enterprise-Kunden mit mehr als 1.000 Arbeitsplätzen sowie an Organisationen des öffentlichen Sektors.112 Für ein KMU der Zielgröße (50-70 Mitarbeiter) könnte dies eine direkte Hürde in Bezug auf Verfügbarkeit und Kosten darstellen. Google Workspace selbst bietet zwar verschiedene Pläne an, die auch für KMU geeignet sind (z.B. Business Standard, Business Plus).49 Es bleibt jedoch zu klären, ob und unter welchen Bedingungen KMU dieser Größenordnung von der spezifischen STACKIT-Lösung für Google Workspace profitieren können (z.B. über spezialisierte Partner oder angepasste KMU-Pakete, was aus den vorliegenden Informationen nicht hervorgeht). Die STACKIT/Google Workspace-Lösung ist in ihrer aktuellen Ausrichtung primär auf Großkunden und stark regulierte Branchen zugeschnitten. Für ein KMU mit 50-70 Mitarbeitern ist die direkte Inanspruchnahme dieser spezifischen souveränen Lösung aufgrund der genannten Zielgruppendefinition 112 und der typischerweise damit verbundenen höheren Implementierungs- und Betriebskosten wahrscheinlich nicht vorgesehen oder wirtschaftlich darstellbar. Der Mehrwert für das betrachtete KMU könnte eher indirekt entstehen: durch eine generelle Stärkung der Sicherheits- und Datenschutzmaßnahmen der Google Cloud Infrastruktur in Europa infolge solcher Partnerschaften oder durch zukünftige, stärker auf KMU zugeschnittene und skalierte Angebote, die aus diesen Initiativen hervorgehen könnten. Standardmäßig profitieren KMU von den allgemeinen DSGVO-Maßnahmen Googles, wie der DPF-Zertifizierung und den EU-Datenregionsoptionen in bestimmten Workspace-Plänen.42 Die STACKIT-Lösung stellt hier ein “Premium”-Angebot für maximale Souveränität dar, dessen direkte Nutzung durch das Ziel-KMU unwahrscheinlich ist, sofern keine speziellen KMU-Pakete über STACKIT oder deren Partner angeboten werden, was die vorliegenden Quellen nicht belegen.
    • Datenverarbeitung von Gemini Advanced in dieser Konstellation: Würde Gemini Advanced innerhalb einer solchen durch STACKIT abgesicherten Google Workspace-Umgebung genutzt, unterlägen die Eingaben und die von Gemini generierten Inhalte denselben erweiterten Schutzmaßnahmen. Das bedeutet, die Daten würden client-seitig verschlüsselt und in den STACKIT-Rechenzentren in der EU gespeichert. Dies würde die DSGVO-Konformität, insbesondere bei der Verarbeitung sensibler Daten mit Gemini Advanced, erheblich verbessern, da der Zugriff durch Google auf die unverschlüsselten Inhalte technisch unterbunden wäre.14

    C. Partnerschaft Schwarz Gruppe & Aleph Alpha (über STACKIT für KI-Modelle)

    • Angebot und Funktionsweise: STACKIT erweitert sein Cloud-Portfolio um KI-Dienste, indem es über “STACKIT AI Model Serving” Zugang zu verschiedenen KI-Modellen bietet. Ein wichtiger Partner in diesem Kontext ist Aleph Alpha, ein deutsches KI-Unternehmen, das sich auf die Entwicklung von souveränen und vertrauenswürdigen KI-Lösungen, insbesondere Large Language Models (LLMs), spezialisiert hat.109 Der Fokus liegt hier klar auf der Bereitstellung von KI-Technologie, die europäischen Datenschutz- und Souveränitätsanforderungen gerecht wird.
    • Datenresidenz und Souveränität: Die KI-Modelle von Aleph Alpha, die über die STACKIT-Infrastruktur angeboten werden, laufen in den Rechenzentren von STACKIT in Deutschland und Österreich.106 Dies ermöglicht eine KI-gestützte Datenverarbeitung, bei der die Daten den europäischen Rechtsraum nicht verlassen. Dies ist ein wesentlicher Aspekt für Unternehmen, die sensible Daten verarbeiten oder strenge Compliance-Vorgaben erfüllen müssen.
    • Bedeutung für die DSGVO-Konformität: Die Nutzung von Aleph Alpha-Modellen über STACKIT bietet eine datenschutzfreundliche Alternative zu KI-Modellen von Anbietern, die primär in den USA ansässig sind. Sie reduziert die Risiken, die mit Drittlandtransfers personenbezogener Daten verbunden sind, erheblich und erleichtert die Einhaltung der DSGVO.
    • Verfügbarkeit und Eignung für KMU: STACKIT adressiert mit seinen Cloud-Diensten explizit auch Kleine und Mittlere Unternehmen und verspricht relevante Lösungen für KMU mit schlanken Prozessen und verständlichen deutschen Verträgen.118 Die Preismodelle für die Basis-Cloud-Dienste von STACKIT sind als “Pay-as-you-go”-Modelle konzipiert und sollen transparent sein.119 Spezifische Preisinformationen für den Zugriff auf Aleph Alpha-Modelle über STACKIT, die auf KMU zugeschnitten sind, gehen aus den vorliegenden Quellen nicht detailliert hervor. Allgemeine API-Preise von Aleph Alpha 120 oder Preise von Drittanbietern, die Aleph Alpha-Modelle nutzen 121, sind nicht direkt auf das STACKIT-Angebot für KMU übertragbar. Für KMU muss daher im Einzelfall geprüft werden, ob die Nutzung dieser souveränen KI-Modelle für ihre spezifischen Anwendungsfälle wirtschaftlich darstellbar ist.

    D. Implikationen und Abgrenzung zu anderen Anbietern

    • Vergleichbare Angebote und Ansätze: Microsofts EU Data Boundary 56 stellt einen vergleichbaren Versuch dar, Datenresidenz innerhalb der EU zu gewährleisten. Allerdings bietet diese Lösung nicht standardmäßig die client-seitige Verschlüsselung unter der alleinigen Kontrolle des Kunden durch einen unabhängigen lokalen Partner wie STACKIT. OpenAI bietet für seine Enterprise-Kunden ebenfalls Optionen zur EU-Datenresidenz an 69, jedoch ist die Garantie der Datensouveränität hier potenziell geringer einzuschätzen als bei einer Lösung, die vollständig auf der Infrastruktur eines europäischen Anbieters wie STACKIT basiert und zusätzliche Kontrollmechanismen wie CSE bietet.
    • Vorteile einer europäischen/deutschen Cloud- und KI-Infrastruktur: Die Nutzung von Cloud- und KI-Diensten, die von europäischen Anbietern auf europäischer Infrastruktur betrieben werden, bietet eine höhere Rechtssicherheit im Hinblick auf die DSGVO. Sie minimiert die Risiken, die sich aus den Überwachungsgesetzen von Drittstaaten (z.B. FISA 702 in den USA) ergeben können, und fördert die digitale Souveränität Europas.107 Dies kann insbesondere für Unternehmen relevant sein, die dem öffentlichen Sektor nahestehen oder besonders sensible Daten verarbeiten.
    • Mögliche Nachteile: In einigen Fällen könnten die Kosten für rein europäische oder deutsche Cloud-Lösungen höher sein als die der globalen Hyperscaler, die von Skaleneffekten profitieren. Zudem ist es möglich, dass europäische Anbieter in bestimmten technologischen Nischenbereichen nicht immer über das gleiche Innovations- und Entwicklungstempo verfügen wie die global führenden US-Konzerne.

    Die Partnerschaften der Schwarz Gruppe, insbesondere die Kooperation mit Google Cloud (veredelt durch STACKIT) und die Integration von Aleph Alpha als deutschem KI-Anbieter, signalisieren einen wachsenden und wichtigen Trend hin zu “souveränen Cloud- und KI-Diensten” in Europa. Dieser Trend wird maßgeblich durch die strengen Anforderungen der DSGVO und die zunehmende Sensibilität für Fragen der digitalen Souveränität nach den Schrems II-Urteilen getrieben.30 Die strategischen Investitionen der Schwarz Gruppe in diesen Bereich 48 und die Bereitschaft eines US-Hyperscalers wie Google, eine solche “europäische Veredelung” seiner Dienste zuzulassen 48, sind bemerkenswert. Die Stärkung des Ökosystems durch deutsche KI-Anbieter wie Aleph Alpha 110 ist ein weiterer positiver Aspekt. Diese Entwicklung, die auch im Kontext breiterer europäischer Initiativen wie Gaia-X gesehen werden kann 107, könnte den Wettbewerb im Cloud- und KI-Markt beleben. Mittelfristig ist es denkbar, dass hieraus auch für KMU zugänglichere, vielfältigere und spezifischer auf DSGVO-Konformität und Souveränität ausgerichtete Optionen entstehen, die über die Standardangebote der US-Hyperscaler hinausgehen. Dies könnte die Auswahlmöglichkeiten für KMU verbessern und potenziell auch zu einer Anpassung der Preismodelle führen.

    IV. Wirtschaftliche Aspekte für KMU

    A. Kostenmodelle der untersuchten KI-Dienste für KMU (50-70 Mitarbeiter)

    Die Kosten für den Einsatz von KI-Diensten sind ein entscheidender Faktor für KMU. Die Preismodelle der untersuchten Anbieter sind oft mehrstufig und setzen sich aus Basislizenzen für die Produktivitätssoftware und zusätzlichen Kosten für die KI-Funktionen sowie ggf. für erweiterte Datenschutz- und Souveränitätsfeatures zusammen.

    • Google Gemini Advanced:
      • Gemini Advanced ist typischerweise über den Google One AI Premium Plan erhältlich, der mit ca. $20 (ca. 18-19 EUR) pro Nutzer und Monat zu Buche schlägt.124
      • Für die Integration in die Arbeitsumgebung eines KMU ist jedoch die Nutzung im Rahmen von Google Workspace relevanter. Hier sind die Kosten abhängig von der gewählten Workspace Edition. Für KMU kommen primär die Pläne Business Standard (ca. €13,60 – €16,20 pro Nutzer/Monat, je nach Zahlungsweise) oder Business Plus (ca. €21,10 – €25,30 pro Nutzer/Monat) in Frage.113
      • Die umfassendsten Datenresidenz- und Sicherheitsfunktionen bietet Google Workspace Enterprise Plus (ca. €34,63 pro Nutzer/Monat).49
      • Zusätzlich fallen Kosten für die Gemini Add-ons für Workspace an: Gemini Business kostet ca. €23,04 pro Nutzer/Monat, Gemini Enterprise ca. €34,63 pro Nutzer/Monat.113
      • Für erweiterte Souveränitätskontrollen, wie sie das Assured Controls Add-on bietet, fallen weitere Kosten an, beispielsweise ca. €34,63 pro Nutzer/Monat für “Assured Controls Plus”.113 Die spezifischen Kosten für die STACKIT-Lösung mit CSE sind nicht öffentlich detailliert und dürften Verhandlungssache sein, richten sich aber, wie erwähnt, primär an Großkunden.112
    • Microsoft Copilot 365:
      • Copilot 365 wird als Add-on Lizenz zu einer bestehenden, qualifizierenden Microsoft 365 Lizenz angeboten. Die Kosten für dieses Add-on betragen $30 (ca. €28) pro Nutzer und Monat.15
      • Qualifizierende Microsoft 365 Pläne für KMU umfassen Microsoft 365 Business Standard oder Microsoft 365 Business Premium. Die Preise für Business Premium liegen, je nach Anbieter und Rabatten, bei etwa €12,46 bis €26,30 pro Nutzer/Monat.127 Microsoft 365 E3, ein Enterprise-Plan, der ebenfalls als Basis dienen kann, kostet etwa €32,14 bis €40,81 pro Nutzer/Monat.129
    • ChatGPT (Team/Enterprise):
      • Die ChatGPT Team Version ist für KMU die wahrscheinlich relevanteste Option und kostet $25 pro Nutzer/Monat bei jährlicher Abrechnung oder $30 pro Nutzer/Monat bei monatlicher Abrechnung. Es ist eine Mindestnutzerzahl von 2 erforderlich.131
      • ChatGPT Enterprise ist preislich variabel und wird individuell verhandelt. Schätzungen deuten auf Kosten um $60 pro Nutzer/Monat hin, verbunden mit einer Mindestabnahme von 150 Lizenzen.131 Dies übersteigt in der Regel die Möglichkeiten und den Bedarf eines KMU mit 50-70 Mitarbeitern.
      • Die API-Nutzung von OpenAI-Modellen wird pro verarbeitetem Token abgerechnet. Die Kosten variieren stark je nach gewähltem Modell (z.B. GPT-4o, GPT-4 Turbo, GPT-3.5 Turbo) und der Menge der Input- und Output-Token.131 Für KMU ohne klare Nutzungsprofile und technische Expertise zur Kostenkontrolle kann dies schwer kalkulierbar sein.
    • WhatsApp mit Meta AI:
      • Die WhatsApp Business App ist in ihrer Grundfunktionalität kostenlos, bietet jedoch nur eingeschränkte Skalierbarkeit und Funktionen für professionelle Nutzung.135
      • WhatsApp Business Premium war eine kostenpflichtige Erweiterung mit geschätzten Kosten von $5-$15 pro Monat, wird aber laut einer Quelle im Februar 2025 eingestellt.135
      • Die WhatsApp Business Platform (API) ist die Lösung für größere Unternehmen und professionellere Integrationen. Die Kosten hierfür entstehen über zertifizierte Business Solution Provider (BSPs). Diese umfassen typischerweise einmalige Setup-Gebühren (bis zu $1.000 oder mehr), monatliche Grundgebühren für die API-Nutzung (im Bereich von $50-$500) und variable Kosten pro Konversation, die je nach Region und Art der Konversation (vom Unternehmen initiiert vs. vom Kunden initiiert, Marketing-, Service- oder Utility-Nachricht) unterschiedlich ausfallen.135 Die spezifischen Kosten für die Nutzung der integrierten Meta AI-Funktionen innerhalb dieser API-Struktur sind aus den vorliegenden Informationen noch nicht klar ersichtlich.

    Die folgende Tabelle gibt eine vereinfachte Übersicht über die direkten Lizenzkosten:

    Tabelle 2: Kostenübersicht relevanter KI-Dienste für KMU (ca. 50-70 MA)

    KI-Dienst Relevanter Plan für KMU (50-70 MA) Preis pro Nutzer/Monat (ca. in EUR, zzgl. USt.) Mindestnutzerzahl / Vertragslaufzeit Zusätzliche Kosten für Basislizenz (falls zutreffend) Kosten für DSGVO-relevante Add-ons (EU-Residenz, Sicherheit) Hinweise zu API-Kosten
    Google Gemini Advanced Google Workspace Business Standard/Plus + Gemini Business Add-on €13,60-€25,30 (Workspace) + €23,04 (Gemini) 1 Nutzer / Monatlich oder Jährlich Nein (im Workspace-Preis enthalten) EU-Datenregion in Business-Plänen ggf. limitiert; Enterprise Plus (€34,63) + Assured Controls (€34,63) für volle Souveränität. STACKIT-Lösung individuell. Entfällt bei Workspace-Integration.
    Microsoft Copilot 365 M365 Business Premium + Copilot Add-on ca. €20,88 (M365 BP) + ca. €28 (Copilot) 1 Nutzer / Jährliche Verpflichtung oft günstiger Nein (im M365-Preis enthalten) EU Data Boundary in Standard-M365-Plänen enthalten. Erweiterte Optionen ggf. kostenpflichtig. Entfällt bei M365-Integration.
    ChatGPT Team ChatGPT Team $25-$30 (ca. €23-€28) 2 Nutzer / Monatlich oder Jährlich Nein EU-Datenresidenz für neue Workspaces enthalten. API-Nutzung separat, Token-basiert.133
    WhatsApp mit Meta AI WhatsApp Business Platform (API) Variabel über BSP (Grundgebühr + pro Konversation) 135 Abhängig vom BSP Nein Keine spezifischen Add-ons für DSGVO bekannt; “Private Processing” ist eine Architektur, keine kostenpflichtige Option. API-Kosten über BSP.

    Hinweis: Alle Preisangaben sind Circa-Werte und können je nach Anbieter, Vertragskonditionen und Wechselkursen variieren. Die Tabelle dient einer groben Orientierung.

    B. Kosten-Nutzen-Analyse für KMU

    Neben den direkten Lizenzkosten müssen KMU den potenziellen Nutzen und weitere Implementierungs- und Compliance-Aufwände in ihre Kosten-Nutzen-Analyse einbeziehen.

    • Potenzieller Nutzen: Der Einsatz von KI-Werkzeugen verspricht erhebliche Vorteile. Dazu gehören Effizienzsteigerungen durch die Automatisierung von Routineaufgaben, Zeitersparnis bei der Recherche und Inhaltserstellung, eine verbesserte Qualität von Dokumenten und Analysen, die schnellere Identifizierung von Geschäftschancen durch Datenanalyse sowie eine optimierte Kundenkommunikation.2
    • Implementierungsaufwand: Neben den Lizenzkosten fallen Aufwände für die technische Einrichtung der KI-Tools, deren Integration in bestehende IT-Systeme und -Prozesse sowie für die Schulung der Mitarbeiter an.3
    • Compliance-Aufwand: Die Sicherstellung der DSGVO-Konformität verursacht ebenfalls Kosten. Dazu zählen die Durchführung von Datenschutz-Folgenabschätzungen, die Einholung externer Rechtsberatung, die Anpassung von Verträgen (AVVs) und internen Richtlinien, die Aktualisierung von Datenschutzerklärungen und die Durchführung spezifischer Mitarbeiterschulungen zum datenschutzkonformen Umgang mit KI.2
    • Versteckte Kosten: Langfristig können weitere Kosten durch die Notwendigkeit der kontinuierlichen Überwachung der KI-Nutzung, Anpassungen an sich ändernde Rechtslagen (wie den EU AI Act) und das Management von Datenrisiken (z.B. durch Sicherheitsvorfälle oder fehlerhafte KI-Ausgaben) entstehen.4

    C. Wirtschaftliche Risiken bei Non-Compliance

    Die Missachtung der DSGVO und zukünftig des EU AI Acts kann für KMU gravierende wirtschaftliche Folgen haben:

    • Bußgelder: Die DSGVO sieht Bußgelder von bis zu 20 Millionen Euro oder 4% des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres vor, je nachdem, welcher Betrag höher ist.7 Der EU AI Act droht mit noch höheren Strafen von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes bei schwerwiegenden Verstößen.20
    • Reputationsschaden: Datenschutzverstöße können zu einem erheblichen Vertrauensverlust bei Kunden, Geschäftspartnern und der Öffentlichkeit führen, was langfristige negative Auswirkungen auf das Geschäft haben kann.6
    • Schadenersatzansprüche: Betroffene Personen, deren Datenschutzrechte verletzt wurden, können materielle oder immaterielle Schadenersatzansprüche geltend machen.31
    • Betriebliche Einschränkungen: Aufsichtsbehörden können bei schwerwiegenden Verstößen die weitere Verarbeitung personenbezogener Daten untersagen oder andere betriebliche Einschränkungen anordnen, wie im Fall der EDPS-Entscheidung gegen die EU-Kommission bezüglich Microsoft 365 angedeutet.62

    Für KMU ist die Kosten-Nutzen-Abwägung bei der Einführung von KI-Tools besonders kritisch. Die direkten Lizenzkosten der Werkzeuge stellen oft nur einen Teil der Gesamtinvestition dar. Die indirekten Kosten, die für die Sicherstellung der DSGVO-Konformität anfallen – beispielsweise für externe Beratung, die Anpassung interner Prozesse und Verträge sowie für Mitarbeiterschulungen – können erheblich sein und müssen von Beginn an in die Wirtschaftlichkeitsbetrachtung einfließen.2 Eine reine Fokussierung auf die Tool-Kosten ohne Berücksichtigung des “Total Cost of Compliance” wäre kurzsichtig und könnte zu unliebsamen Überraschungen und im schlimmsten Fall zu empfindlichen Sanktionen führen. Eine realistische ROI-Betrachtung (Return on Investment) muss daher sowohl die direkten als auch die indirekten Kosten dem erwarteten Nutzen und den vermiedenen Risiken gegenüberstellen.

    V. Handlungsempfehlungen für deutsche KMU (50-70 Mitarbeiter)

    A. Allgemeine Empfehlungen für den DSGVO-konformen KI-Einsatz

    Unabhängig vom gewählten KI-Werkzeug sollten KMU folgende grundlegende Maßnahmen ergreifen, um einen DSGVO-konformen Einsatz sicherzustellen:

    • Datenschutz-Folgenabschätzung (DSFA) durchführen: Vor der Einführung jedes KI-Tools, das personenbezogene Daten verarbeitet, ist eine DSFA gemäß Art. 35 DSGVO unerlässlich. Dies gilt insbesondere, wenn neue Technologien eingesetzt werden oder die Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, was bei vielen KI-Anwendungen der Fall ist.6 Im Rahmen der DSFA müssen die Risiken der Verarbeitung identifiziert, bewertet und Maßnahmen zu deren Minimierung festgelegt werden.
    • Auftragsverarbeitungsverträge (AVV) prüfen und abschließen: Wenn externe Dienstleister (die KI-Anbieter) personenbezogene Daten im Auftrag des KMU verarbeiten, ist der Abschluss eines DSGVO-konformen AVV nach Art. 28 DSGVO zwingend erforderlich. Der AVV muss die Rechte und Pflichten beider Parteien klar regeln, insbesondere die Weisungsgebundenheit des Auftragsverarbeiters und die von ihm zu gewährleistenden Sicherheitsmaßnahmen.21
    • Technische und Organisatorische Maßnahmen (TOMs) implementieren und prüfen: Das KMU muss sowohl die vom KI-Anbieter getroffenen TOMs bewerten als auch eigene, angemessene TOMs im Unternehmen etablieren. Dazu gehören Zugriffskontrollen, Verschlüsselung wo möglich, Richtlinien für den Umgang mit Daten und KI-Systemen, regelmäßige Sicherheitsüberprüfungen und Notfallkonzepte.1
    • Rechtsgrundlagen sicherstellen: Für jede Verarbeitung personenbezogener Daten durch oder mithilfe von KI muss eine eindeutige Rechtsgrundlage gemäß Art. 6 bzw. Art. 9 DSGVO vorliegen. Dies kann die Einwilligung der Betroffenen, die Erfüllung eines Vertrages, die Wahrung berechtigter Interessen oder eine andere gesetzliche Erlaubnis sein.5 Die Wahl der Rechtsgrundlage muss sorgfältig dokumentiert werden.
    • Datenminimierung und Zweckbindung beachten: Es dürfen nur diejenigen personenbezogenen Daten verarbeitet werden, die für den festgelegten, eindeutigen und legitimen Zweck des KI-Einsatzes erforderlich sind (Datenminimierung, Art. 5 Abs. 1 lit. c DSGVO). Die Daten dürfen nicht für andere, mit dem ursprünglichen Zweck unvereinbare Zwecke weiterverarbeitet werden (Zweckbindung, Art. 5 Abs. 1 lit. b DSGVO).1 Die Möglichkeit der Anonymisierung oder Pseudonymisierung von Daten sollte geprüft werden, um die Risiken zu reduzieren.1
    • Transparenz gewährleisten: Mitarbeiter und gegebenenfalls auch Kunden und andere Betroffene müssen gemäß Art. 13 und 14 DSGVO klar und verständlich über den Einsatz von KI-Systemen zur Verarbeitung ihrer personenbezogenen Daten informiert werden. Dies schließt Informationen über die Verarbeitungszwecke, die Kategorien der verarbeiteten Daten, die Empfänger, die Dauer der Speicherung und die Rechte der Betroffenen ein.8 Bei automatisierten Entscheidungen ist auch über die involvierte Logik und die Tragweite zu informieren.
    • Mitarbeiter schulen und sensibilisieren: Regelmäßige Schulungen der Mitarbeiter zum Datenschutz, zur DSGVO und zum sicheren und verantwortungsvollen Umgang mit KI-Werkzeugen sind unerlässlich. Es sollte eine unternehmensinterne “Datenschutzkultur” gefördert werden, in der der Schutz personenbezogener Daten als selbstverständlicher Teil der täglichen Arbeit verstanden wird.1
    • Datenschutzbeauftragten (DSB) einbinden: Der interne oder externe Datenschutzbeauftragte des KMU sollte frühzeitig in die Planungs-, Auswahl- und Implementierungsprozesse von KI-Diensten einbezogen werden. Der DSB kann wertvolle Unterstützung bei der Bewertung der Rechtskonformität und der Durchführung der DSFA leisten.1
    • Regelmäßige Überprüfung und Anpassung: Die Datenschutz-Compliance ist kein einmaliges Projekt, sondern ein fortlaufender Prozess. Die getroffenen Maßnahmen und die Nutzung der KI-Dienste müssen regelmäßig überprüft und an neue rechtliche oder technische Entwicklungen sowie an veränderte Risikobewertungen angepasst werden.1

    B. Spezifische Empfehlungen und Konfigurationen pro Werkzeug

    • Google Gemini Advanced (im Rahmen von Google Workspace):
      • Empfehlung: Die Nutzung von Gemini Advanced ist am ehesten DSGVO-konform, wenn sie im Rahmen einer Google Workspace Enterprise Plus Lizenz (oder einer anderen Edition, die umfassende Datenresidenzoptionen bietet) erfolgt und die Datenregion “Europäische Union” für die Speicherung und Verarbeitung von Daten aktiviert wird.42 Das Cloud Data Processing Addendum (CDPA) von Google muss akzeptiert werden.39
      • Zusatzoption für erhöhte Souveränität: Für KMU, denen die Standard-EU-Datenresidenz von Google nicht ausreicht und die höchste Vertraulichkeit benötigen, wäre die Prüfung der STACKIT-Lösung für Google Workspace eine Option, sofern diese für KMU zugänglich und wirtschaftlich vertretbar ist.48 Die Nutzung von Client-Side Encryption (CSE), die Google Workspace ebenfalls anbietet (ggf. auch in Kombination mit STACKIT), gibt dem KMU die alleinige Kontrolle über die Verschlüsselungsschlüssel.37
      • Konfiguration: In der Google Admin-Konsole die Datenregion auf “Europa” einstellen. Data Loss Prevention (DLP)-Regeln definieren, um den Abfluss sensibler Daten zu kontrollieren. Falls CSE genutzt wird, muss diese entsprechend eingerichtet und die Schlüssel sicher verwaltet werden.
      • Risiken: Auch bei Nutzung der EU-Datenregion und DPF-Zertifizierung verbleibt ein Restrisiko bei Datentransfers zu US-Subprozessoren von Google. Die Kosten und die Komplexität der Enterprise Plus Edition oder der STACKIT-Lösung können für KMU eine Hürde darstellen.
    • Microsoft Copilot 365:
      • Empfehlung: Der Einsatz von Copilot 365 sollte in Verbindung mit Microsoft 365 Plänen erfolgen, die die Nutzung der Microsoft EU Data Boundary ermöglichen und unterstützen.56 Das Microsoft Data Protection Addendum (DPA) ist integraler Bestandteil der Vertragskonditionen.23
      • Konfiguration: Es muss sichergestellt werden, dass der Microsoft 365-Tenant und die Preferred Data Locations (PDLs) der Nutzer korrekt für die EU Data Boundary konfiguriert sind, sodass Interaktionsdaten von Copilot innerhalb der EU/EFTA gespeichert und verarbeitet werden.58 Werkzeuge wie Microsoft Purview sollten zur Datenklassifizierung, zur Definition von Aufbewahrungsrichtlinien und zur Überwachung der Daten-Compliance genutzt werden.52
      • Risiken: Die Kritik des EDSB an den Microsoft 365-Verträgen der EU-Kommission 62 sollte Anlass sein, die eigenen Verträge mit Microsoft sorgfältig auf klare Regelungen zu Datenflüssen und Verarbeitungszwecken zu prüfen. Trotz der EU Data Boundary können in begrenzten Fällen notwendige Datentransfers für globale Sicherheitsoperationen erfolgen, was ein Restrisiko darstellt.58 Die von der ICO im Rahmen ihrer DPIA identifizierten Risiken bezüglich der Genauigkeit von KI-generierten Daten 52 müssen durch interne Validierungsprozesse adressiert werden.
    • ChatGPT (Team Version empfohlen für KMU):
      • Empfehlung: Für geschäftliche Zwecke sollte ausschließlich die ChatGPT Team Version (oder Enterprise, falls die spezifischen Anforderungen und Kostenstrukturen für das KMU passen) in Verbindung mit einem abgeschlossenen OpenAI DPA genutzt werden.24 Von der Nutzung der kostenlosen ChatGPT-Versionen für die Verarbeitung personenbezogener oder vertraulicher Unternehmensdaten ist dringend abzuraten, da hierfür kein AVV angeboten wird und Daten zum Training verwendet werden können.66
      • Konfiguration: Bei der Einrichtung eines neuen ChatGPT Team Workspaces sollte die Option zur Datenresidenz in “Europa” gewählt werden, sofern verfügbar und für den Account-Typ angeboten.69 Es muss sichergestellt werden, dass die Standardeinstellung, wonach Geschäftsdaten nicht für das Training von OpenAI-Modellen verwendet werden, aktiv ist und nicht versehentlich geändert wird.35
      • Risiken: Ein wesentliches Risiko stellt die (laut Recherchestand April 2024 66 und Überprüfung der DPF-Liste 72) fehlende oder unklare Zertifizierung von OpenAI unter dem EU-U.S. Data Privacy Framework dar. Dies bedeutet, dass Datentransfers in die USA primär auf Standardvertragsklauseln (SCCs) gestützt werden müssen, was die Durchführung eines Transfer Impact Assessments und die Implementierung robuster zusätzlicher technischer und organisatorischer Schutzmaßnahmen durch das KMU erfordert. Der Einsatz von Subprozessoren durch OpenAI in den USA und anderen Drittländern 77 muss ebenfalls in diese Bewertung einbezogen werden, auch wenn die Primärdaten in der EU gespeichert werden.
    • WhatsApp mit Meta AI:
      • Empfehlung: Es ist äußerste Vorsicht geboten bei der Nutzung von WhatsApp mit integrierter Meta AI für die geschäftliche Kommunikation, insbesondere wenn personenbezogene oder vertrauliche Unternehmensdaten involviert sind.82 Die Rechtslage bezüglich eines spezifischen, für die Meta AI-Funktionen adäquaten Auftragsverarbeitungsvertrags ist unklar.
      • Konfiguration und Nutzungshinweise: Mitarbeiter müssen unmissverständlich angewiesen werden, keine sensiblen Unternehmens- oder Kundendaten in Interaktionen mit Meta AI einzugeben oder durch Meta AI verarbeiten zu lassen.81 Der von Meta angebotene Opt-Out für die Nutzung öffentlicher Daten von Facebook und Instagram für das KI-Training sollte von den Mitarbeitern für ihre privaten Konten genutzt werden, auch wenn dies nicht direkt die WhatsApp AI-Interaktionen im geschäftlichen Kontext betrifft.98 Die von Meta vorgestellte “Private Processing”-Architektur 79 ist, falls für den Business-Account verfügbar, eine optionale Funktion, deren Aktivierung und Nutzung bewusst erfolgen muss und deren Schutzwirkung vom KMU kritisch bewertet werden sollte.
      • Risiken: Die Nutzung von Meta AI in WhatsApp ist mit erheblichen Rechtsunsicherheiten verbunden. Es mangelt an Transparenz bezüglich der genauen Datenflüsse und Verantwortlichkeiten im Kontext der KI-Verarbeitung. Es besteht die Gefahr des unkontrollierten Abflusses von Unternehmensdaten an Meta. Ein weiteres Problem ist die fehlende Möglichkeit, die Meta AI-Integration in WhatsApp vollständig zu deaktivieren; sie ist standardmäßig präsent und kann lediglich in der direkten Interaktion gemieden werden.82

    C. Empfehlungen zur Auswahl von KI-Diensten unter Berücksichtigung von Souveränitätsaspekten

    Für KMU, die besonderen Wert auf Datensouveränität und die Minimierung von Risiken im Zusammenhang mit Drittlandtransfers legen, sind folgende Aspekte bei der Auswahl von KI-Diensten zu berücksichtigen:

    • Bevorzugung von Anbietern mit klaren EU-Datenresidenzoptionen: Dienste, die nicht nur die Speicherung, sondern auch die Verarbeitung personenbezogener Daten nachweislich und konfigurierbar innerhalb der EU/des EWR ermöglichen, sind vorzuziehen.
    • Prüfung von Lösungen mit client-seitiger Verschlüsselung (CSE): Technologien wie CSE, bei denen das KMU die alleinige Kontrolle über die Verschlüsselungsschlüssel behält (wie z.B. bei der STACKIT-Lösung für Google Workspace), bieten ein sehr hohes Maß an Schutz und Souveränität.48
    • Erwägung europäischer KI-Anbieter: Insbesondere für die Verarbeitung besonders sensibler Daten oder für kritische Anwendungsfälle kann die Wahl eines europäischen KI-Anbieters, dessen Modelle auf europäischer Infrastruktur (z.B. Aleph Alpha über STACKIT) gehostet werden, die Risiken im Zusammenhang mit außereuropäischen Rechtsordnungen signifikant reduzieren.107
    • Bewertung der Transparenz: Anbieter sollten transparent über ihre Datenverarbeitungspraktiken, den Einsatz von Subprozessoren und die genauen Datenflüsse informieren. Eine klare und verständliche Dokumentation ist hierbei unerlässlich.

    D. Checkliste für KMU zur Bewertung und Einführung von KI-Diensten (Kurzform)

    Diese Checkliste fasst die wichtigsten Prüfpunkte für KMU zusammen:

    1. Datenschutz-Folgenabschätzung (DSFA): Wurde eine DSFA für den spezifischen KI-Einsatzzweck durchgeführt und dokumentiert?
    2. Auftragsverarbeitungsvertrag (AVV): Liegt ein DSGVO-konformer AVV mit dem KI-Anbieter vor und wurde dieser sorgfältig geprüft?
    3. Rechtsgrundlage: Ist die Rechtsgrundlage für die Verarbeitung personenbezogener Daten durch die KI klar definiert und dokumentiert?
    4. Technische und Organisatorische Maßnahmen (TOMs): Sind die TOMs des Anbieters sowie die eigenen TOMs des KMU ausreichend, um die Daten zu schützen?
    5. Drittlandtransfer: Erfolgt eine Datenübermittlung in ein Drittland? Falls ja: Liegt ein Angemessenheitsbeschluss (z.B. DPF-Zertifizierung des US-Anbieters) vor? Werden SCCs verwendet und sind zusätzliche Maßnahmen erforderlich und umgesetzt?
    6. Datenresidenz EU: Bietet der Dienst die Möglichkeit der Datenspeicherung und -verarbeitung in der EU? Ist diese Option für den gewählten Plan verfügbar und korrekt konfiguriert?
    7. Umgang mit Trainingsdaten: Ist geklärt und vertraglich zugesichert, dass eingegebene Geschäfts- und Kundendaten nicht für das Training allgemeiner KI-Modelle des Anbieters verwendet werden (oder besteht eine klare Opt-Out-Möglichkeit)?
    8. Mitarbeiterschulung: Wurden die Mitarbeiter im datenschutzkonformen Umgang mit dem KI-Tool geschult und über die Risiken aufgeklärt?
    9. Datenschutzbeauftragter (DSB): Wurde der DSB in den Prozess einbezogen?
    10. Kosten-Nutzen-Analyse: Wurde eine umfassende Kosten-Nutzen-Analyse durchgeführt, die sowohl die direkten Lizenzkosten als auch die indirekten Kosten für Compliance und Risikomanagement berücksichtigt?

    Die “beste” KI-Lösung für ein KMU existiert nicht pauschal. Die Auswahl hängt stark vom spezifischen Anwendungsfall, der Sensibilität der zu verarbeitenden Daten und der individuellen Risikobereitschaft des Unternehmens ab. Es gibt keine Einheitslösung, die für alle Bedürfnisse optimal ist. Vielmehr könnte eine differenzierte Strategie sinnvoll sein, die für verschiedene Aufgaben und Datenkategorien möglicherweise unterschiedliche KI-Werkzeuge mit entsprechend angepassten Sicherheits- und Datenschutzniveaus vorsieht. Beispielsweise könnten für die Verarbeitung hochsensibler Daten (wie Personalakten oder Finanzdaten) strengere Kriterien angelegt und Lösungen mit maximaler Souveränität (z.B. Google Workspace mit STACKIT und CSE oder Aleph Alpha auf STACKIT-Infrastruktur) bevorzugt werden, auch wenn diese mit höheren Kosten oder größerer Komplexität verbunden sind. Für weniger sensible Aufgaben, wie die allgemeine Texterstellung ohne direkten Personenbezug oder die Ideenfindung, könnten andere Tools mit soliden Standard-Business-Schutzmaßnahmen ausreichend sein. Die Nutzung von WhatsApp mit integrierter Meta AI ist aufgrund der dargestellten Unsicherheiten und Risiken aktuell kaum für die Verarbeitung sensibler Geschäftskommunikation oder personenbezogener Kundendaten zu empfehlen. Eine interne Datenklassifizierung und klare Nutzungsrichtlinien, die auf einer Risiko-Matrix (Sensibilität der Daten vs. Schutzlevel des Tools) basieren, können KMU dabei helfen, fundierte und verantwortungsvolle Entscheidungen beim Einsatz von KI zu treffen.

    VI. Fazit und Ausblick

    Die Bewertung der DSGVO-Konformität von Google Gemini Advanced, Microsoft Copilot 365, ChatGPT (Team/Enterprise) und WhatsApp mit Meta AI für deutsche KMU mit 50-70 Mitarbeitern zeigt ein heterogenes Bild. Während Google und Microsoft für ihre Business-Lösungen vergleichsweise etablierte Datenschutzrahmen bieten, die durch Optionen zur EU-Datenresidenz und vertragliche Zusicherungen bezüglich der Nichtverwendung von Kundendaten für das Training von Basismodellen ergänzt werden, bestehen bei OpenAI (insbesondere hinsichtlich der Absicherung von Drittlandtransfers) und Meta (bezüglich Transparenz, Kontrollierbarkeit und vertraglicher Grundlagen der KI-Funktionen in WhatsApp) höhere Unsicherheiten und Risiken.

    Die Partnerschaften der Schwarz Gruppe, insbesondere mit Google Cloud (STACKIT für Google Workspace) und Aleph Alpha, eröffnen interessante Perspektiven für souveräne Cloud- und KI-Lösungen “Made in Europe” oder zumindest unter stärkerer europäischer Kontrolle. Diese sind jedoch aktuell primär auf Großkunden und regulierte Branchen ausgerichtet; ihre direkte Verfügbarkeit und Wirtschaftlichkeit für KMU der untersuchten Größe muss im Einzelfall kritisch geprüft werden.

    Für KMU ist es unerlässlich, vor der Einführung von KI-Werkzeugen eine sorgfältige Datenschutz-Folgenabschätzung durchzuführen, Auftragsverarbeitungsverträge genau zu prüfen und abzuschließen, klare Rechtsgrundlagen für die Datenverarbeitung zu definieren und umfassende technische und organisatorische Maßnahmen zu implementieren. Die Schulung und Sensibilisierung der Mitarbeiter für den datenschutzkonformen Umgang mit KI ist ebenso entscheidend wie die frühzeitige Einbindung des Datenschutzbeauftragten.

    Die wirtschaftliche Betrachtung muss neben den direkten Lizenzkosten auch die nicht unerheblichen Aufwände für die Sicherstellung der Compliance und das Management von Datenschutzrisiken berücksichtigen. Die potenziellen Bußgelder bei Verstößen gegen die DSGVO und den zukünftigen EU AI Act sowie Reputationsschäden können für KMU existenzbedrohend sein.

    Ausblick: Die Technologielandschaft im Bereich KI entwickelt sich rasant weiter, ebenso wie der rechtliche Rahmen. Der EU AI Act wird zusätzliche, teils strenge Anforderungen an den Einsatz von KI-Systemen stellen. KMU müssen daher einen proaktiven und risikobasierten Ansatz verfolgen, ihre Compliance-Strategien kontinuierlich anpassen und sich über neue Entwicklungen informieren. Die Nachfrage nach datenschutzkonformen und souveränen KI-Lösungen wird voraussichtlich steigen, was hoffentlich zu einem breiteren und auch für KMU zugänglicheren Angebot führen wird. Bis dahin ist eine sorgfältige, individuelle Prüfung jedes einzelnen KI-Dienstes und Anwendungsfalls unter Berücksichtigung der spezifischen Risiken und des Schutzbedarfs der verarbeiteten Daten unerlässlich.

    Referenzen

    1. Datensicherheit und KI im Mittelstand: Herausforderungen und Best Practices (3) – BVMW, Zugriff am Mai 15, 2025, https://www.bvmw.de/de/internet-und-digitalisierung/news/datensicherheit-und-ki-im-mittelstand-herausforderungen-und-best-practices-3
    2. AI for GDPR Compliance: A Game Changer for Small Businesses …, Zugriff am Mai 15, 2025, https://www.zestminds.com/blog/gdpr-compliance-ai-small-business
    3. AI Cost-Benefit Analysis – UNOY, Zugriff am Mai 15, 2025, https://unoy.io/article/ai-cost-benefit-analysis
    4. Challenges and risks of AI adoption for small businesses | Sharp, Zugriff am Mai 15, 2025, https://www.sharp.eu/news-and-events/blog/challenges-and-risks-of-ai-adoption-for-small-businesses
    5. KI & Datenschutz: DSGVO-konforme KI-Nutzung – Schürmann Rosenthal Dreyer Rechtsanwälte, Zugriff am Mai 15, 2025, https://www.srd-rechtsanwaelte.de/blog/ki-und-datenschutz-so-nutzen-sie-ki-systeme-dsgvo-konform
    6. Datenschutzkonformität: So werden Sie DSGVO-konform – Datenschutzexperte, Zugriff am Mai 15, 2025, https://www.datenschutzexperte.de/blog/datenschutzkonformitat-im-unternehmen-sicherstellen
    7. Ihre CRM und DSGVO: Datenschutz ohne Kompromisse – happyCRM, Zugriff am Mai 15, 2025, https://happycrm.de/dsgvo_konformes_crm/
    8. KI und Datenschutz in der Praxis – Zwischen Innovation und Regulierung, Zugriff am Mai 15, 2025, https://www.robin-data.io/datenschutz-akademie/wiki/ki-und-datenschutz-praxisleitfaden
    9. Rechtsgrundlagen im Datenschutz beim Einsatz von Künstlicher Intelligenz | Der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Baden-Württemberg, Zugriff am Mai 15, 2025, https://www.baden-wuerttemberg.datenschutz.de/rechtsgrundlagen-datenschutz-ki/
    10. Datenschutz & Künstliche Intelligenz – was bringt der AI Act? – IHK München, Zugriff am Mai 15, 2025, https://www.ihk-muenchen.de/de/Service/Recht-und-Steuern/Datenschutz/ki/
    11. [Blog] Google’s 7 principles of responsible AI & how to apply them | Softchoice, Zugriff am Mai 15, 2025, https://www.softchoice.com/blogs/cloud-migration-adoption-management/google-s-7-principles-of-responsible-ai-and-how-to-apply-them
    12. Gemini for Google Workspace FAQ – Business / Enterprise, Zugriff am Mai 15, 2025, https://support.google.com/a/answer/14130944?hl=en&co=DASHER._Family%3DBusiness-Enterprise
    13. AI Tools for Business – Google Workspace, Zugriff am Mai 15, 2025, https://workspace.google.com/solutions/ai/
    14. Gemini for Google Workspace – Business / Enterprise, Zugriff am Mai 15, 2025, https://support.google.com/a/answer/13623623?hl=en&co=DASHER._Family%3DBusiness-Enterprise
    15. Microsoft 365 Copilot—Business Plans, Zugriff am Mai 15, 2025, https://www.microsoft.com/en-us/microsoft-365/copilot/business
    16. Reinvent productivity with Microsoft 365 Copilot, Zugriff am Mai 15, 2025, https://www.microsoft.com/en-us/microsoft-365/copilot
    17. ChatGPT for enterprise – OpenAI, Zugriff am Mai 15, 2025, https://openai.com/chatgpt/enterprise/
    18. Meta AI WhatsApp feature launches in Germany: everything you need to know, Zugriff am Mai 15, 2025, https://ecommercegermany.com/blog/meta-ai-whatsapp-germany-launch
    19. KI-Verordnung vs. KMU und Start-ups – HÄRTING Rechtsanwälte, Zugriff am Mai 15, 2025, https://haerting.de/wissen/ki-verordnung-kmu-startups/
    20. Serie zur KI-Verordnung: Ab August 2025 kann es Bußgelder hageln – Mauß Datenschutz, Zugriff am Mai 15, 2025, https://datenschutzbeauftragter-hamburg.de/2025/04/serie-zur-ki-verordnung-ab-august-2025-kann-es-bussgelder-hageln/
    21. Übersicht der Datenschutztexte – AdSimple®, Zugriff am Mai 15, 2025, https://www.adsimple.de/uebersicht-datenschutztexte/
    22. Cloud Data Processing Addendum | Google Cloud, Zugriff am Mai 15, 2025, https://cloud.google.com/terms/data-processing-addendum
    23. Enterprise data protection in Microsoft 365 Copilot and Microsoft 365 Copilot Chat, Zugriff am Mai 15, 2025, https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection
    24. Zugriff am Januar 1, 1970, https://openai.com/policies/data-processing-addendum
    25. Microsoft Products and Services Data Protection Addendum (DPA) – Licensing Documents, Zugriff am Mai 15, 2025, https://www.microsoft.com/licensing/docs/view/Microsoft-Products-and-Services-Data-Protection-Addendum-DPA
    26. TOM nach der DSGVO | Das müssen Sie beachten! – Keyed GmbH, Zugriff am Mai 15, 2025, https://www.keyed.de/blog/tom-dsgvo/
    27. Technical organisational measures (TOMs) – Robin Data GmbH, Zugriff am Mai 15, 2025, https://www.robin-data.io/en/data-protection-and-data-security-academy/wiki/technical-organisational-measures-gdpr-compliant-implementation
    28. Drittland – Datenschutz-Grundverordnung (DSGVO), Zugriff am Mai 15, 2025, https://dsgvo-gesetz.de/themen/drittland/
    29. Übermittlungen an Drittländer: Allgemeine Grundsätze | LDI – Landesbeauftragte für Datenschutz und Informationsfreiheit Nordrhein-Westfalen, Zugriff am Mai 15, 2025, https://www.ldi.nrw.de/datenschutz/internationaler-datenverkehr/allgemeinen-grundsaetze
    30. Das Schrems II-Urteil des Europäischen Gerichtshofs und seine Bedeutung für Datentransfers in Drittländer | Der Landesbeauftragte für den Datenschutz Niedersachsen, Zugriff am Mai 15, 2025, https://www.lfd.niedersachsen.de/startseite/themen/internationaler_datenverkehr/das_schrems_ii_urteil_des_eugh_und_seine_bedeutung_fur_datentransfers_in_drittlander/das-schrems-ii-urteil-des-europaischen-gerichtshofs-und-seine-bedeutung-fur-datentransfers-in-drittlander-194085.html
    31. Wichtige Entscheidungen zur Datenübermittlung in Drittländer – ascon Datenschutz, Zugriff am Mai 15, 2025, https://ascon-datenschutz.de/wichtige-entscheidungen-zur-datenuebermittlung-in-drittlaender/
    32. Data transfer frameworks – Privacy & Terms – Google Policies, Zugriff am Mai 15, 2025, https://policies.google.com/privacy/frameworks?hl=en-US
    33. Generative AI in Google Workspace Privacy Hub, Zugriff am Mai 15, 2025, https://support.google.com/a/answer/15706919?hl=en
    34. Microsoft Copilot an your data | Separating fact and Fiction – D-Best Technologies, Zugriff am Mai 15, 2025, https://www.dbest.com/microsoft-copilot-fact-and-fiction/
    35. How your data is used to improve model performance | OpenAI Help Center, Zugriff am Mai 15, 2025, https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance
    36. Diese DSGVO Pflichten müssen Sie als KMU beachten., Zugriff am Mai 15, 2025, https://www.dsgvoschutzteam.com/ratgeber/dsgvo-pflichten-kmu/
    37. Google Cloud – Die wichtigsten Fragen zum Datenschutz – Eprofessional, Zugriff am Mai 15, 2025, https://www.eprofessional.de/brainworks/blog/article/google-cloud-die-wichtigsten-fragen-zum-datenschutz
    38. Data usage – Google Workspace, Zugriff am Mai 15, 2025, https://workspace.google.com/learn-more/security/security-whitepaper/page-6/
    39. Privacy compliance and records for Google Cloud, Zugriff am Mai 15, 2025, https://support.google.com/cloud/answer/6329727?hl=en
    40. Datenschutz-Center | Google Cloud, Zugriff am Mai 15, 2025, https://cloud.google.com/privacy?hl=de
    41. TOM im Datenschutz: Alles was Sie zur Umsetzung wissen sollten – DataGuard, Zugriff am Mai 15, 2025, https://www.dataguard.de/blog/technische-und-organisatorische-massnahmen
    42. Choose a geographic location for your data – Google Workspace Admin Help, Zugriff am Mai 15, 2025, https://support.google.com/a/answer/14310028?hl=en
    43. Data covered by data regions – Google Workspace Admin Help, Zugriff am Mai 15, 2025, https://support.google.com/a/answer/14313033?hl=en
    44. Compare data region features across Google Workspace editions – Business, Zugriff am Mai 15, 2025, https://support.google.com/a/answer/14316863?hl=en&co=DASHER._Family%3DBusiness
    45. Learn More About Gemini for Google Workspace, Zugriff am Mai 15, 2025, https://edu.google.com/intl/ALL_us/workspace-for-education/add-ons/gemini-for-google-workspace/
    46. Upgrade to Gemini Advanced – Android – Google Help, Zugriff am Mai 15, 2025, https://support.google.com/gemini/answer/14517446?hl=en&co=GENIE.Platform%3DAndroid
    47. Gemini Apps Privacy Hub – Google Help, Zugriff am Mai 15, 2025, https://support.google.com/gemini/answer/13594961?hl=en
    48. Unternehmen der Schwarz Gruppe und Google unterzeichnen strategische Partnerschaft, Zugriff am Mai 15, 2025, https://workspace.google.com/blog/de/identity-and-security/unternehmen-der-schwarz-gruppe-und-google-unterzeichnen-strategische-partnerschaft
    49. Digital Data Sovereignty & How it Works | Google Workspace, Zugriff am Mai 15, 2025, https://workspace.google.com/security/digital-sovereignty/
    50. MicrosoftProductandServicesDPA(WW)(English)(Jan022024)(CR).docx, Zugriff am Mai 15, 2025, https://www.microsoft.com/licensing/docs/documents/download/MicrosoftProductandServicesDPA(WW)(English)(Jan022024)(CR).docx
    51. Frequently Asked Questions about Microsoft 365 Copilot – Enterprise Software Blog, Zugriff am Mai 15, 2025, https://blog.pa.com.au/artificial-intelligence/frequently-asked-questions-about-microsoft-365-copilot/
    52. Data Protection Impact Assessment (DPIA) – Microsoft CoPilot 365 – Information Commissioner’s Office, Zugriff am Mai 15, 2025, https://ico.org.uk/media2/ob4ncmpz/ic-359252-x5s0-copilot-dpia.pdf
    53. Microsoft 365 Copilot (pilot phase) | ICO – Information Commissioner’s Office, Zugriff am Mai 15, 2025, https://ico.org.uk/global/privacy-notice/microsoft-365-copilot-pilot-phase/
    54. Microsoft Privacy Statement, Zugriff am Mai 15, 2025, https://www.microsoft.com/en-gb/privacy/privacystatement
    55. Microsoft Global Data Privacy Notice for Employees, External Staff, Candidates and Guests, Zugriff am Mai 15, 2025, https://www.microsoft.com/en-us/privacy/data-privacy-notice
    56. Microsoft completes landmark EU Data Boundary, offering …, Zugriff am Mai 15, 2025, https://blogs.microsoft.com/on-the-issues/2025/02/26/microsoft-completes-landmark-eu-data-boundary-offering-enhanced-data-residency-and-transparency/
    57. Microsoft EU Data Boundary: Enhanced Data Residency and Transparency, Zugriff am Mai 15, 2025, https://www.schneider.im/microsoft-eu-data-boundary-enhanced-data-residency-and-transparency/
    58. Empowering Europe: Microsoft’s EU Data Boundary Initiative FAQs Q, Zugriff am Mai 15, 2025, https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/final/en-us/microsoft-product-and-services/security/pdf/eu-data-boundary-for-the-microsoft-cloud-frequently-asked-questions-updated-february-2025.pdf?df=df
    59. EU Data Boundary for the Microsoft Cloud | Frequently Asked Questions, Zugriff am Mai 15, 2025, https://techcommunity.microsoft.com/blog/microsoft-security-blog/eu-data-boundary-for-the-microsoft-cloud–frequently-asked-questions/2329098
    60. Data Residency for Microsoft 365 Copilot – Microsoft 365 Enterprise …, Zugriff am Mai 15, 2025, https://learn.microsoft.com/en-us/microsoft-365/enterprise/m365-dr-workload-copilot?view=o365-worldwide
    61. Geographic data residency in Copilot Studio – Learn Microsoft, Zugriff am Mai 15, 2025, https://learn.microsoft.com/en-us/microsoft-copilot-studio/geo-data-residency
    62. European Commission’s use of Microsoft 365 infringes data protection law for EU institutions and bodies, Zugriff am Mai 15, 2025, https://www.edps.europa.eu/press-publications/press-news/press-releases/2024/european-commissions-use-microsoft-365-infringes-data-protection-law-eu-institutions-and-bodies_en
    63. Data Processing Agreement | Mindflow, Zugriff am Mai 15, 2025, https://mindflow.io/data-processing-agreement
    64. Data processing addendum | OpenAI, Zugriff am Mai 15, 2025, https://openai.com/policies/data-processing-addendum/
    65. Data Protection aspects when using the ChatGPT-API | Simpliant Insights, Zugriff am Mai 15, 2025, https://simpliant.eu/insights/GDPR-requirements-when-using-chatgpt-api
    66. How to use ChatGPT in compliance with the GDPR | activeMind.legal, Zugriff am Mai 15, 2025, https://www.activemind.legal/guides/chatgpt/
    67. Security | OpenAI, Zugriff am Mai 15, 2025, https://openai.com/security-and-privacy/
    68. OpenAI Services Agreement, Zugriff am Mai 15, 2025, https://cdn.openai.com/osa/openai-services-agreement.pdf
    69. Introducing data residency in Europe – OpenAI, Zugriff am Mai 15, 2025, https://openai.com/index/introducing-data-residency-in-europe/
    70. Privacy policy – OpenAI, Zugriff am Mai 15, 2025, https://openai.com/policies/row-privacy-policy/
    71. Technical and Organizational Measures (TOMs) – HeroCoders, Zugriff am Mai 15, 2025, https://www.herocoders.com/legal/toms
    72. Data Privacy Framework, Zugriff am Mai 15, 2025, https://www.dataprivacyframework.gov/s/participant-search
    73. Data Privacy Framework List, Zugriff am Mai 15, 2025, https://www.dataprivacyframework.gov/list
    74. How Should Companies Self-certify Under the EU-US Data Privacy Framework (DPF)?, Zugriff am Mai 15, 2025, https://legalnodes.com/article/data-privacy-framework-self-certification
    75. OpenAI sub-processing FAQ – Storykit, Zugriff am Mai 15, 2025, https://ksesupport.zendesk.com/hc/en-us/related/click?data=BAh7CjobZGVzdGluYXRpb25fYXJ0aWNsZV9pZGwrCJzFgUcLDDoYcmVmZXJyZXJfYXJ0aWNsZV9pZGwrCD6R4dFTADoLbG9jYWxlSSIKZW4tdXMGOgZFVDoIdXJsSSJAL2hjL2VuLXVzL2FydGljbGVzLzEzMjQyNTgzODYwNjM2LU9wZW5BSS1zdWItcHJvY2Vzc2luZy1GQVEGOwhUOglyYW5raQg%3D–3194da9702b9ff46772d78704bd1e5a6cd11e68b
    76. www.techzine.eu, Zugriff am Mai 15, 2025, https://www.techzine.eu/news/data-management/128503/chatgpt-lets-users-store-and-process-data-in-europe/#:~:text=New%20ChatGPT%20Enterprise%20and%20Edu,content%20remain%20in%20the%20region.
    77. Sub-processor list | OpenAI, Zugriff am Mai 15, 2025, https://openai.com/policies/sub-processor-list/
    78. Sub Processors – Cision GDPR, Zugriff am Mai 15, 2025, https://privacy.cision.com/Sub-Processors
    79. Meta Unveils Private Processing to Power AI on WhatsApp – Mexico Business News, Zugriff am Mai 15, 2025, https://mexicobusiness.news/cloudanddata/news/meta-unveils-private-processing-power-ai-whatsapp
    80. About Meta AI | WhatsApp Help Center, Zugriff am Mai 15, 2025, https://faq.whatsapp.com/2257017191175152
    81. These are the new AI functions in Instagram, WhatsApp and Facebook – Klicksafe, Zugriff am Mai 15, 2025, https://www.klicksafe.eu/en/news/das-sind-die-neuen-ki-funktionen-in-instagram-whatsapp-und-facebook
    82. AI on WhatsApp – data protection risk for companies? | Schneiders und Behrendt, Zugriff am Mai 15, 2025, https://bolex.de/ai-on-whatsapp-data-protection-risk-for-companies/?lang=en
    83. Building Private Processing for AI tools on WhatsApp – Engineering at Meta, Zugriff am Mai 15, 2025, https://engineering.fb.com/2025/04/29/security/whatsapp-private-processing-ai-tools/
    84. WhatsApp unveils ‘Private Processing’ for cloud-based AI features – Bleeping Computer, Zugriff am Mai 15, 2025, https://www.bleepingcomputer.com/news/security/whatsapp-unveils-private-processing-for-cloud-based-ai-features/
    85. WhatsApp announces Private Processing so users can use AI and preserve their privacy, Zugriff am Mai 15, 2025, https://cybernews.com/tech/whatsapp-private-processing-ai-privacy/
    86. WhatsApp Rolls Out ‘Private Processing’ for AI Chats: Your Privacy is Safe! – OpenTools, Zugriff am Mai 15, 2025, https://opentools.ai/news/whatsapp-rolls-out-private-processing-for-ai-chats-your-privacy-is-safe
    87. Meta Unveils Private Processing to Power AI on WhatsApp – Mexico Business News, Zugriff am Mai 15, 2025, https://mexicobusiness.news/cloudanddata/news/meta-unveils-private-processing-power-ai-whatsapp?tag=cloudanddata
    88. WhatsApp’s Meta AI sparks EU privacy row as users unable to disable – Evening Standard, Zugriff am Mai 15, 2025, https://www.standard.co.uk/news/tech/whatsapp-meta-ai-eu-privacy-concerns-b1221560.html
    89. Tag – Schrems – Hunton Andrews Kurth LLP, Zugriff am Mai 15, 2025, https://www.hunton.com/privacy-and-information-security-law/tag/schrems
    90. GDPR Fine: €1.2B Against Meta for Data Transfers | A1 Digital, Zugriff am Mai 15, 2025, https://www.a1.digital/news/1-2-billion-gdpr-fine-against-meta-for-personal-data-transfers-to-the-us/
    91. WhatsApp Business Solution Terms, Zugriff am Mai 15, 2025, https://www.whatsapp.com/legal/business-solution-terms
    92. WhatsApp Business Terms of Service – WhatsApp.com, Zugriff am Mai 15, 2025, https://www.whatsapp.com/legal/business-terms/
    93. Terms of service for WhatsApp – Verloop.io, Zugriff am Mai 15, 2025, https://www.verloop.io/terms-of-service-whatsapp/
    94. WhatsApp Data Processing Terms – WhatsApp.com, Zugriff am Mai 15, 2025, https://www.whatsapp.com/legal/business-data-processing-terms/
    95. About using business AI to chat with customers | WhatsApp Help …, Zugriff am Mai 15, 2025, https://faq.whatsapp.com/291930066973116
    96. Information Security News | AI Aggregator, Zugriff am Mai 15, 2025, https://securityrss.ai/
    97. DevOps/SRE Blog Scanner, Zugriff am Mai 15, 2025, https://devops-scanner.com/
    98. Making AI Work Harder for Europeans – Meta, Zugriff am Mai 15, 2025, https://about.fb.com/news/2025/04/making-ai-work-harder-for-europeans/
    99. Meta Uses Your Data for AI Training: How to Object – ITdaily., Zugriff am Mai 15, 2025, https://itdaily.com/howtos/software/meta-ai-how-to-object/
    100. How to stop your data being fed to Meta’s AI – Digitec, Zugriff am Mai 15, 2025, https://www.digitec.ch/en/page/how-to-stop-your-data-being-fed-to-metas-ai-37653
    101. How to turn off Meta AI in WhatsApp? You can’t, but… – Tuta, Zugriff am Mai 15, 2025, https://tuta.com/blog/how-to-turn-off-meta-ai
    102. Meta Resumes AI Training on European User Data with Opt-Out Policy – Bitdefender, Zugriff am Mai 15, 2025, https://www.bitdefender.com/en-au/blog/hotforsecurity/meta-ai-training-europe-opt-out
    103. Meta to use public posts to train AI models, users can opt out – PPC Land, Zugriff am Mai 15, 2025, https://ppc.land/meta-to-use-public-posts-to-train-ai-models-users-can-opt-out/
    104. Meta AI on WhatsApp: What You Need to Know – Keeping A Head, Zugriff am Mai 15, 2025, https://keepingahead.co.uk/f/meta-ai-on-whatsapp-what-you-need-to-know
    105. Unternehmen der Schwarz Gruppe und Google unterzeichnen …, Zugriff am Mai 15, 2025, https://gruppe.schwarz/presse/archiv/2024/unternehmen-der-schwarz-gruppe-und-google-unterzeichnen-partnerschaft
    106. Künstliche Intelligenz made in Germany: So sichert die Schwarz Gruppe digitale Souveränität – Golem Karrierewelt, Zugriff am Mai 15, 2025, https://karrierewelt.golem.de/blogs/karriere-ratgeber/kunstliche-intelligenz-made-in-germany-so-sichert-die-schwarz-gruppe-digitale-souveranitat
    107. NovaDB auf STACKIT: Eine souveräne Cloud-Lösung für Daten-Compliance und, Zugriff am Mai 15, 2025, https://www.novadb.com/de/blog/novadb-stackit-eine-souveraene-cloud-solution
    108. DSGVO-konforme Cloud Zertifikate – STACKIT, Zugriff am Mai 15, 2025, https://www.stackit.de/de/cloud/zertifikate/
    109. Partners – ALEPH ALPHA, Zugriff am Mai 15, 2025, https://aleph-alpha.com/partners/
    110. Partnersteckbrief Aleph Alpha – STACKIT Partner, Zugriff am Mai 15, 2025, https://www.stackit.de/de/partner/partnersteckbrief-aleph-alpha/
    111. Schwarz Digits und adesso schließen Partnerschaft für souveräne deutsche IT-Lösungen, Zugriff am Mai 15, 2025, https://www.adesso.de/de/news/presse/schwarz-digits-und-adesso-schliessen-partnerschaft-fuer-souveraene-deutsche-it-loesungen.jsp
    112. STACKIT Workspace – STACKIT Solutions, Zugriff am Mai 15, 2025, https://www.stackit.de/en/solution/workspace/
    113. Google Workspace Pricing in Europe 2025 – Medha Cloud, Zugriff am Mai 15, 2025, https://medhacloud.com/blog/google-workspace-pricing-in-europe/
    114. Compare Flexible & Annual/Fixed-Term payment plans – Google Workspace Admin Help, Zugriff am Mai 15, 2025, https://support.google.com/a/answer/1247360?hl=en
    115. Gemini for Google Cloud: your AI-powered assistant, Zugriff am Mai 15, 2025, https://cloud.google.com/products/gemini
    116. STACKIT KI Model Serving ausprobiert – innFactory AI Consulting, Zugriff am Mai 15, 2025, https://innfactory.ai/ai/tech/stackit-ki-model-serving-ausprobiert-vollstaendig-souveraene-ki-loesungen-fuer-unternehmen/
    117. Partner profile Aleph Alpha – STACKIT, Zugriff am Mai 15, 2025, https://www.stackit.de/en/partner-program/partner-profile-aleph-alpha/
    118. Cloud Partner Program with attractive services – STACKIT, Zugriff am Mai 15, 2025, https://www.stackit.de/en/partner-program/
    119. STACKIT Cloud Services – Pricing, Zugriff am Mai 15, 2025, https://www.stackit.de/en/pricing/cloud-services/
    120. Pricing Guide | AlphaGeo Public Docs, Zugriff am Mai 15, 2025, https://docs.alphageo.ai/product-guides/pricing/pricing-guide
    121. Stack AI Pricing Plans for Your Enterprise, Zugriff am Mai 15, 2025, https://www.stack-ai.com/pricing
    122. Lidl-Mutter will Azure, Google und AWS gefährlich werden – netzwoche (CH), Zugriff am Mai 15, 2025, https://www.netzwoche.ch/news/2020-05-13/lidl-mutter-will-azure-google-und-aws-gefaehrlich-werden
    123. Weshalb Lidl im Cloud-Computing den Hyperscalern wie Microsoft Azure oder Amazon Web Services erfolgreich den Rücken zukehrt – META10 | News, Zugriff am Mai 15, 2025, https://www.meta10.com/News/ArticleID/439/Weshalb-Lidl-im-Cloud-Computing-den-Hyperscalern-wie-Microsoft-Azure-oder-Amazon-Web-Services-erfolgreich-den-Ruecken-zukehrt
    124. Google Gemini just made two of its best features available for free – ZDNET, Zugriff am Mai 15, 2025, https://www.zdnet.com/article/google-gemini-just-made-two-of-its-best-features-available-for-free/
    125. Google’s One AI Premium plan with Gemini Advanced is now free for students – for an entire year | ZDNET, Zugriff am Mai 15, 2025, https://www.zdnet.com/article/googles-one-ai-premium-plan-with-gemini-advanced-is-now-free-for-students-for-an-entire-year/
    126. Microsoft 365 Copilot: License, Cost, Download, More! [2024-09] – schneider it management, Zugriff am Mai 15, 2025, https://www.schneider.im/microsoft-365-copilot-the-future-of-productivity/
    127. Microsoft 365 Business Premium – EuroDNS, Zugriff am Mai 15, 2025, https://www.eurodns.com/office-microsoft-365-business
    128. Microsoft Office 365 Business Premium German – buy at Digitec, Zugriff am Mai 15, 2025, https://www.digitec.ch/en/s1/product/microsoft-office-365-business-premium-german-1-user-12-months-software-box-9806363
    129. Microsoft 365 E3 EEA – License from 32.14 EUR, Zugriff am Mai 15, 2025, https://m365.de/en/m365-pricing/microsoft-365-e3-eea
    130. Pricing and offers – Partner Center | Microsoft Learn, Zugriff am Mai 15, 2025, https://learn.microsoft.com/en-us/partner-center/pricing/pricing-and-offers
    131. ChatGPT Enterprise Pricing, Features and Limitations – Exploding Topics, Zugriff am Mai 15, 2025, https://explodingtopics.com/blog/chatgpt-enterprise
    132. What is ChatGPT Team? – OpenAI Help Center, Zugriff am Mai 15, 2025, https://help.openai.com/en/articles/8792828-what-is-chatgpt-team
    133. Azure OpenAI Service – Pricing, Zugriff am Mai 15, 2025, https://azure.microsoft.com/en-ca/pricing/details/cognitive-services/openai-service/
    134. Free OpenAI & every-LLM API Pricing Calculator | Updated May 2025 – DocsBot AI, Zugriff am Mai 15, 2025, https://docsbot.ai/tools/gpt-openai-api-pricing-calculator
    135. WhatsApp Business Pricing: Comparing App, Premium & API – Respond.io, Zugriff am Mai 15, 2025, https://respond.io/blog/whatsapp-business-account-price
    136. How much does WhatsApp Business cost? The pricing model explained! – Sinch, Zugriff am Mai 15, 2025, https://sinch.com/blog/whatsapp-business-pricing/
    137. Announcing the latest AI capabilities in Google Workspace with Gemini, Zugriff am Mai 15, 2025, https://workspace.google.com/blog/product-announcements/new-AI-drives-business-results
    138. Have You Done a Microsoft 365 Copilot DPIA? – Evolve North, Zugriff am Mai 15, 2025, https://www.evolvenorth.com/have-you-done-a-microsoft-365-copilot-dpia/
  • Das Verständnis des KI-Agentengedächtnisses: Zwischen Einfachheit und notwendiger Komplexität

    1. Einleitung: Der “Geist” des Agenten – Warum das Gedächtnis für Nutzer wichtig ist

    Systeme der künstlichen Intelligenz (KI) entwickeln sich rasant weiter. Eine besonders signifikante Entwicklung stellen KI-Agenten dar, insbesondere solche, die auf großen Sprachmodellen (Large Language Models, LLMs) basieren.1 Diese LLM-basierten Agenten gehen über einfache Chatbots hinaus; sie sind Software-Systeme, die autonom Ziele verfolgen, Aufgaben planen und ausführen, Werkzeuge nutzen und mit dynamischen Umgebungen interagieren können.4 Sie repräsentieren einen Paradigmenwechsel von statischen Modellen, die auf einzelne Anfragen reagieren, hin zu dynamischen, zielorientierten Entitäten, die über mehrere Schritte hinweg agieren und einen Zustand aufrechterhalten.1Ein entscheidendes Merkmal, das diese erweiterten Fähigkeiten ermöglicht, ist das Gedächtnis. Das Gedächtnis erlaubt es LLM-Agenten, Kontext über Interaktionen hinweg aufrechtzuerhalten, aus vergangenen Erfahrungen zu lernen, Konsistenz in ihrem Verhalten zu zeigen und über längere Zeiträume hinweg effektiv zu operieren.1 Ohne Gedächtnis wären Agenten auf kurzfristige Interaktionen beschränkt und könnten komplexe, mehrstufige Aufgaben kaum bewältigen.Angesichts der zunehmenden Verbreitung dieser Agenten stellt sich eine zentrale Frage für Nutzer: Wie komplex ist es, das Gedächtnis eines solchen KI-Agenten zu verstehen? Oft wird versucht, das Konzept durch Analogien zur menschlichen Kognition greifbar zu machen. Ein gängiges vereinfachtes Modell unterteilt das Gedächtnis in Komponenten wie Arbeitsgedächtnis, Cache-Speicher, episodisches, prozedurales und semantisches Gedächtnis.2 Diese Analogie verspricht Intuitivität und leichte Verständlichkeit.Dieser Bericht verfolgt das Ziel, dieses vereinfachte Modell kritisch zu bewerten. Er untersucht, wie Gedächtnismechanismen in modernen LLM-basierten Agenten tatsächlich implementiert sind, analysiert die damit verbundenen Herausforderungen und Implikationen aus Nutzersicht und beleuchtet aktuelle Forschungsansätze und alternative Modelle, die für das Verständnis relevant sind. Basierend auf Erkenntnissen aus der jüngsten Forschung (Stand Anfang 2025) 4 wird eine ausgewogene Perspektive auf die Debatte zwischen der potenziellen Einfachheit und der notwendigen Komplexität des Verständnisses von Agentengedächtnis für Nutzer geboten.

    2. Das vereinfachte Modell: Eine benutzerfreundliche Analogie?

    Um die Funktionsweise des Gedächtnisses von KI-Agenten greifbarer zu machen, wird häufig eine Analogie zum menschlichen Gedächtnis herangezogen. Dieses vereinfachte Modell unterteilt das Gedächtnis in mehrere Komponenten:

    2.1. Erklärung der Komponenten

    • Arbeitsgedächtnis (Working Memory): Dies entspricht dem mentalen “Notizblock” oder Kurzzeitgedächtnis, das Informationen für die aktuell bearbeitete Aufgabe bereithält.12 Es umfasst den unmittelbaren Kontext einer Konversation oder die Daten, die für den nächsten Schritt einer Aufgabe benötigt werden.
    • Cache-Speicher (Cache Memory): Im Kontext der ursprünglichen Anfrage beschreibt dies einen Speicher für den sehr schnellen Zugriff auf häufig benötigte Informationen innerhalb des aktuellen Kontexts.
    • Episodisches Gedächtnis (Episodic Memory): Dies bezieht sich auf die Fähigkeit, sich an spezifische vergangene Ereignisse, Interaktionen oder persönliche Erfahrungen zu erinnern – die Antwort auf die Frage “Was ist wann passiert?”.2
    • Prozedurales Gedächtnis (Procedural Memory): Hier geht es um das Wissen, wie man etwas tut – um gelernte Fähigkeiten, Abläufe oder Prozesse (“Wie mache ich…?”).15
    • Semantisches Gedächtnis (Semantic Memory): Dies umfasst das allgemeine Weltwissen, Fakten, Konzepte und deren Beziehungen – das Wissen über “Was ist…?”.15

    2.2. Anfängliche Attraktivität und Intuition

    Die Attraktivität dieses Modells liegt auf der Hand: Es bildet komplexe KI-Konzepte auf vertraute menschliche kognitive Funktionen ab und kann so dazu beitragen, abstrakte Systeme intuitiver erscheinen zu lassen.2 Es hilft Nutzern, ein mentales Grundgerüst zu entwickeln, wie ein Agent Informationen verarbeitet und nutzt.24 Entsprechend findet sich diese Analogie häufig in einführenden Erklärungen und Materialien.2Allerdings offenbart sich bei genauerer Betrachtung eine signifikante Diskrepanz zwischen dieser vereinfachten menschlichen Analogie und der technischen Realität von LLM-Agenten. Die weite Verbreitung der Analogie, trotz ihrer technischen Ungenauigkeiten, unterstreicht eine Lücke: die Kluft zwischen der tatsächlichen Funktionsweise der Systeme und der Art und Weise, wie Nutzer sie konzeptualisieren müssen, um effektiv mit ihnen zu interagieren. Diese Lücke ist mehr als nur eine Vereinfachung; sie birgt das Risiko fundamentaler Missverständnisse über die Fähigkeiten und Grenzen der Agenten. Während die Analogie eine erste Intuition vermittelt 2, weichen technische Beschreibungen schnell auf Implementierungsdetails wie Kontextfenster, Vektordatenbanken, Retrieval-Augmented Generation (RAG) und Wissensgraphen (Knowledge Graphs, KGs) aus, die sich nicht sauber auf das menschliche Modell abbilden lassen.4 Wenn Nutzer sich zu stark auf die menschliche Analogie verlassen, könnten sie ein flüssiges, integriertes Gedächtnis erwarten und dabei die modulare, oft externe und potenziell fehleranfällige Natur der LLM-Gedächtnissysteme übersehen. Dies kann zu Frustration oder Fehlbedienung führen.12 Daher muss dieser Bericht die Analogie nicht nur vorstellen, sondern auch kritisch bewerten, wo und warum sie für den Nutzer an ihre Grenzen stößt.

    3. Die Lücke schließen: Wie LLM-Agenten tatsächlich erinnern

    Um ein genaueres Verständnis zu ermöglichen, ist es notwendig, die technischen Mechanismen zu betrachten, die dem Gedächtnis von LLM-Agenten zugrunde liegen, und diese mit den Komponenten des vereinfachten Modells in Beziehung zu setzen.

    3.1. Arbeitsgedächtnis & Cache: Das Kontextfenster und darüber hinaus

    Das primäre Äquivalent zum Arbeitsgedächtnis in LLMs ist das Kontextfenster (Context Window). Es enthält die unmittelbarsten Konversationsteile, Nutzeranweisungen und andere relevante Daten, die das Modell für die Generierung der nächsten Antwort benötigt.12 Es ist der unmittelbare Fokus des Agenten.Dieses Kontextfenster hat jedoch inhärente Beschränkungen: Es hat eine feste Größe, die Leistung kann sich bei zunehmender Länge verschlechtern, und die Verarbeitung längerer Kontexte verursacht höhere Kosten.12 Diese Begrenzung stellt eine der größten Herausforderungen für Nutzer dar, da der Agent Details oder Anweisungen aus früheren Teilen einer längeren Interaktion “vergessen” kann.12Der Begriff “Cache” aus dem vereinfachten Modell lässt sich am ehesten auf technische Optimierungen wie den Key-Value (KV) Cache beziehen. Dieser Cache wird während der Textgenerierung verwendet, um die Verarbeitung des aktuellen Kontexts zu beschleunigen, indem bereits berechnete Zwischenwerte (Keys und Values in der Transformer-Architektur) gespeichert werden.27 Dies ist jedoch keine Form von Gedächtnis im Sinne gespeicherter Fakten oder Erfahrungen, die der Nutzer direkt wahrnimmt oder steuert. Techniken wie die Komprimierung oder selektive Auswahl von KV-Paaren dienen der Optimierung, nicht der Schaffung eines eigenständigen Gedächtnistyps für den Nutzer.27 Einige Anwendungen könnten auch ein Caching auf Anwendungsebene für häufig abgerufene externe Daten implementieren.30Um die Begrenzungen des Kontextfensters zu umgehen, werden verschiedene Techniken eingesetzt, wie z.B. gleitende Fenster (Sliding Windows), die nur die neuesten Teile der Konversation behalten, Zusammenfassungen früherer Interaktionen oder die Kompression von Prompts.16

    3.2. Episodisches Gedächtnis: Von einfachen Protokollen zu strukturiertem Abruf

    Die einfachste Implementierung des episodischen Gedächtnisses besteht darin, den Verlauf der Konversation oder Interaktionsprotokolle zu speichern.17Fortgeschrittenere Methoden nutzen Vektordatenbanken. Hier werden vergangene Interaktionen oder “Episoden” als Vektoren gespeichert. Bei Bedarf kann der Agent dann nach semantisch ähnlichen vergangenen Episoden suchen und diese abrufen, um den aktuellen Kontext anzureichern.12 Frameworks wie CoALA definieren explizit eine episodische Gedächtniskomponente.18Es gibt auch dedizierte Forschung zu episodischem Gedächtnis. Spezielle Benchmarks bewerten die Fähigkeit von LLMs, spezifische Ereignisdetails abzurufen.4 Systeme wie Zep nutzen Wissensgraphen, um Episoden explizit zu modellieren.23 Das A-Mem-System verfolgt einen dynamischen Ansatz, inspiriert von der Zettelkastenmethode, bei dem Gedächtnis-“Notizen” agentisch verknüpft werden und sich über die Zeit entwickeln können.10Episodisches Gedächtnis wird als entscheidend für die Entwicklung von Agenten angesehen, die über lange Zeiträume hinweg lernen und agieren können.13 Gleichzeitig birgt es aber auch Risiken, insbesondere im Hinblick auf Datenschutz und Sicherheit, da hier potenziell sensible Interaktionsdaten gespeichert werden.19

    3.3. Prozedurales Gedächtnis: Fähigkeiten, Werkzeuge und gelernte Prozesse

    Das prozedurale Gedächtnis manifestiert sich in LLM-Agenten oft durch ihre Fähigkeit, externe Werkzeuge (Tools) oder APIs zu nutzen.1 Die “Fähigkeit” besteht darin, dass der Agent weiß,
    wann und wie er ein bestimmtes Werkzeug aufrufen muss, um eine Teilaufgabe zu lösen (z.B. eine Websuche durchführen, Code ausführen, eine Berechnung anstoßen).

    Einige Systeme implementieren explizite Skill-Bibliotheken, in denen wiederverwendbare Prozeduren, Code-Snippets oder Anleitungen gespeichert werden, die der Agent lernen oder zur Verfügung gestellt bekommen kann.6 Ein Beispiel ist der Voyager-Agent, der lernt, Aufgaben in Minecraft durch neu erworbene Fähigkeiten zu lösen.6Frameworks, die auf einem Zyklus aus Aktion und Reflexion basieren, wie ReAct 12, Reflexion 4 oder RAISE 4, implizieren ebenfalls eine Form des prozeduralen Lernens. Der Agent lernt aus den Ergebnissen seiner Aktionen und passt seine zukünftigen Handlungsstrategien an.Kognitive Architekturen wie CoALA beziehen explizit Aktionen auf interne Gedächtniskomponenten und externe Umgebungen mit ein.18 Der EpicStar-Agent modelliert prozedurales Gedächtnis, indem er Textaktionen auf spezifische Aktionen in einem Spiel (StarCraft II) abbildet.21

    3.4. Semantisches Gedächtnis: Angeborenes Wissen und Retrieval Augmentation

    LLMs verfügen durch ihr Pre-Training über ein riesiges semantisches Basiswissen über die Welt.15 Dies bildet die Grundlage des “Wissens” eines Agenten.Um dieses Wissen zu erweitern, aktuell zu halten oder domänenspezifisch anzupassen, wird hauptsächlich Retrieval-Augmented Generation (RAG) eingesetzt.5 Dabei ruft der Agent relevante Textabschnitte aus einer externen Wissensdatenbank (z.B. Dokumente, Wikipedia) ab und nutzt diese Informationen bei der Generierung seiner Antwort.Eine weitere Methode zur Implementierung des semantischen Gedächtnisses sind Wissensgraphen (Knowledge Graphs, KGs). Sie speichern Fakten und deren Beziehungen in strukturierter Form (z.B. Tripel wie (Paris, Hauptstadt_von, Frankreich)). Dies kann potenziell präzisere Informationen liefern als der Abruf aus unstrukturiertem Text.6 Systeme wie Zep verwenden KGs, um semantische Entitäten und Beziehungen dynamisch zu verwalten.23 Multi-Agenten-Systeme wie KARMA und MAKGED werden sogar eingesetzt, um KGs automatisch zu erweitern und auf Fehler zu überprüfen.48

    3.5. Bewertung der Genauigkeit des vereinfachten Modells

    Fasst man die Zuordnung zusammen, ergibt sich folgendes Bild:

    • Arbeitsgedächtnis entspricht am ehesten dem Kontextfenster.
    • Cache-Speicher korreliert mit technischen Optimierungen wie dem KV-Cache.
    • Episodisches Gedächtnis wird durch Protokolle, Vektordatenbanken oder KGs realisiert.
    • Prozedurales Gedächtnis zeigt sich in der Werkzeugnutzung und Skill-Bibliotheken.
    • Semantisches Gedächtnis basiert auf dem Pre-Training und wird durch RAG oder KGs erweitert.

    Die Kritik an der Analogie ist jedoch offensichtlich: Sie vereinfacht die Modularität und die starke Abhängigkeit von externen Systemen übermäßig. Sie verschleiert die entscheidende Rolle von Abrufmechanismen (Retrieval) und die harten Grenzen des Kontextfensters. Zudem erfasst sie nicht die Nuance, dass verschiedene Gedächtnistypen oft mit den gleichen zugrundeliegenden Technologien implementiert werden (z.B. Vektordatenbanken sowohl für den Abruf episodischer Erinnerungen als auch für semantisches Wissen via RAG).

    Tabelle 1: Vereinfachtes Gedächtnismodell vs. Realität bei LLM-Agenten

    Vereinfachte Komponente Entsprechende LLM-Agenten-Mechanismen Wesentliche Unterschiede Wichtige Implikationen für Nutzer
    Arbeitsgedächtnis Kontextfenster Endlich (begrenzte Größe) vs. scheinbar unbegrenzt; Flüchtigkeit Agent “vergisst” Details/Anweisungen in langen Gesprächen; Notwendigkeit von Wiederholungen
    Cache-Speicher KV-Cache (Optimierung), Anwendungs-Caching Techn. Optimierung vs. bewusst abrufbarer Speicher; meist nicht nutzergesteuert Indirekte Auswirkung auf Geschwindigkeit; für Nutzer meist nicht als “Gedächtnis” wahrnehmbar
    Episodisches G. Interaktionsprotokolle, Vektor-DBs, KGs (z.B. Zep), A-Mem Extern gespeichert & abgerufen vs. intern; Abruf basiert auf Ähnlichkeit/Struktur vs. direkter Erinnerung; potenziell unvollständig Erinnerung an vergangene Interaktionen möglich, aber abhängig von Abrufqualität; Datenschutz- & Sicherheitsrisiken
    Prozedurales G. Werkzeugnutzung, Skill-Bibliotheken, Aktions-Reflexions-Frameworks (ReAct) Explizite Werkzeuge/Skills vs. implizites Wissen; oft extern definiert/gelernt; Anfälligkeit für Tool-Fehler Agent kann Aufgaben ausführen, die über reine Sprachverarbeitung hinausgehen; Zuverlässigkeit hängt von Werkzeugintegration ab
    Semantisches G. Pre-Training Wissen, RAG (Vektor-DBs), KGs Basiswissen intern, Erweiterung extern & abgerufen vs. intern; RAG/KG-Wissen aktuell/spezifisch, aber Abruf nötig Agent verfügt über breites Wissen, aber für Aktuelles/Spezifisches ist externer Abruf nötig (fehleranfällig, potenziell biased)

    Ein zentraler Unterschied zum menschlichen Gedächtnis, der aus dieser Analyse hervorgeht, ist die Dominanz des Abrufs (Retrieval). Während menschliche Erinnerung ein weitgehend interner Prozess ist, ist das Gedächtnis von LLM-Agenten – jenseits des unmittelbaren Kontextfensters – fundamental vom Abruf aus externen Speichern (Vektordatenbanken, Wissensgraphen, Protokollen) abhängig. Die Effektivität, Zuverlässigkeit und potenziellen Verzerrungen (Bias) des Abrufmechanismus sind daher für die Nutzererfahrung mindestens ebenso wichtig, wenn nicht wichtiger, als der reine Speichermechanismus.4 Die Systeme ReadAgent 4 und Zep 23 sowie Bewertungs-Benchmarks wie StreamBench 4 unterstreichen die Bedeutung des Retrievals. Herausforderungen wie Wissensmanagement 12 und Zuverlässigkeit 11 resultieren oft aus fehlerhaftem Abruf – der Agent erhält irrelevante oder falsche Informationen. Das Nutzerverständnis muss daher nicht nur umfassen,
    dass der Agent sich erinnert, sondern auch wie er auf dieses Gedächtnis zugreift, da der Abrufschritt eine kritische potenzielle Fehler- oder Bias-Quelle darstellt.

    4. Über die Einfachheit hinaus: Fortgeschrittene Gedächtniskonzepte & Architekturen

    Die Forschung zu LLM-Agenten entwickelt sich rasant weiter und bringt Gedächtnismodelle hervor, die über die einfache Analogie und die grundlegenden Implementierungen hinausgehen.

    4.1. Integrierte kognitive Frameworks

    Ein wichtiger Ansatz versucht, LLM-Agenten in strukturiertere Rahmenwerke einzubetten, die von der Kognitionswissenschaft inspiriert sind. Cognitive Architectures for Language Agents (CoALA) ist ein solches Framework.18 CoALA schlägt eine modulare Struktur vor, die explizit zwischen Arbeits-, episodischem und semantischem Gedächtnis unterscheidet und diese mit einem strukturierten Aktionsraum (interne und externe Aktionen) sowie einem generalisierten Entscheidungsfindungsprozess verbindet.18 Das Ziel ist es, eine Blaupause für allgemeine Sprachagenten zu bieten, bestehende Agenten zu organisieren und zukünftige Entwicklungen anzuleiten.45Andere kognitiv inspirierte Modelle finden sich ebenfalls in der Literatur. Beispielsweise wird in 27 eine Zuordnung vorgeschlagen: Sensorisches Gedächtnis entspricht der Eingabe, Kurzzeitgedächtnis der Verarbeitung im Kontextfenster und Langzeitgedächtnis (explizit: episodisch/semantisch; implizit: prozedural) wird durch externe Speicher oder Modellparameter realisiert. Der EpicStar-Agent nutzt explizit Komponenten für episodisches, Arbeits-, semantisches und prozedurales Gedächtnis in einer Spielumgebung.21

    4.2. Dynamische und agentische Gedächtnissysteme

    Einige neuere Ansätze gehen über statische Speicher- und Abrufmechanismen hinaus. Das A-Mem-System ist ein Beispiel dafür.10 Inspiriert von der Zettelkastenmethode, zielt A-Mem darauf ab, dem Agenten selbst mehr Handlungsfähigkeit (agency) bei der Organisation seines Gedächtnisses zu geben. Anstatt vordefinierter Operationen kann der Agent dynamisch strukturierte “Notizen” erstellen, diese basierend auf Ähnlichkeit und Kontext miteinander verknüpfen und – entscheidend – bestehende Gedächtnisinhalte basierend auf neuen Erfahrungen weiterentwickeln (Memory Evolution).10 Dies verspricht eine höhere Anpassungsfähigkeit und eine flexiblere Wissensorganisation, die sich mit der Zeit verfeinert.10

    4.3. Wissensgraphen für anspruchsvolles Gedächtnis

    Wie bereits erwähnt, bieten Wissensgraphen (KGs) eine Möglichkeit, strukturierte Informationen zu speichern. Systeme wie Zep nutzen KGs, um episodische Ereignisse und semantische Entitäten/Beziehungen dynamisch zu integrieren und zu verknüpfen, was über die Fähigkeiten statischer RAG-Systeme hinausgeht.23Die Erstellung und Pflege solcher KGs ist jedoch komplex. Interessanterweise werden hierfür teilweise ebenfalls Multi-Agenten-Systeme vorgeschlagen. KARMA beispielsweise nutzt ein Team von spezialisierten LLM-Agenten, um Wissen aus wissenschaftlichen Publikationen zu extrahieren, zu verifizieren und in bestehende KGs zu integrieren.48MAKGED verwendet einen Multi-Agenten-Ansatz zur Fehlererkennung in KGs, wobei Agenten Subgraphen analysieren und in Diskussionen zu einer Entscheidung über die Korrektheit von Tripeln gelangen.49 Dies zeigt die zunehmende Verschränkung von Agenten- und Gedächtniskonzepten.

    4.4. Gedächtnis für lebenslanges Lernen

    Für Agenten, die in sich ständig verändernden Umgebungen operieren, ist die Fähigkeit zum lebenslangen Lernen entscheidend.16 Dies bedeutet, dass der Agent kontinuierlich neues Wissen erwerben, integrieren und behalten muss, ohne dabei zuvor Gelerntes zu vergessen (katastrophales Vergessen) und ohne seine Anpassungsfähigkeit (Plastizität) zu verlieren.16Das Gedächtnis spielt hierbei eine zentrale Rolle. Alle Gedächtnisformen – Arbeitsgedächtnis (für den aktuellen Lernkontext), episodisches Gedächtnis (zum Speichern spezifischer Lernerfahrungen), semantisches Gedächtnis (zur Integration neuen Wissens) und sogar parametrisches Gedächtnis (Anpassungen der Modellparameter selbst) – sind für lebenslanges Lernen relevant.16 Spezifische Techniken umfassen kontinuierliches Instruktionstuning, Wissensbearbeitung (Knowledge Editing), Replay-Methoden (Wiederholung vergangener Daten/Erfahrungen) und Regularisierung.16 Insbesondere dem episodischen Gedächtnis wird eine Schlüsselrolle zugeschrieben, da es das Lernen aus einzelnen, spezifischen Ereignissen ermöglicht.13

    4.5. Gedächtnis in Multi-Agenten-Systemen (kurz)

    Wenn mehrere Agenten zusammenarbeiten, wird das Gedächtnismanagement noch komplexer. Es stellen sich Fragen nach geteiltem Zustand (Shared State), Kommunikationsprotokollen für den Informationsaustausch und der Koordination, um Interferenzen zu vermeiden.1 Frameworks wie der Coordinator-Worker-Delegator (CWD)-Ansatz 43 oder CrewAI 44 versuchen, solche kooperativen Szenarien zu strukturieren, wobei das Management von geteiltem oder individuellem Gedächtnis eine Herausforderung bleibt.Mit der zunehmenden Komplexität und Modularität der Gedächtnissysteme – externe Speicher, KGs, dynamische Verknüpfungen – entsteht implizit eine neue Ebene der Verwaltung: das Management des Gedächtnissystems selbst. Der Agent (oder seine Entwickler) muss entscheiden, was gespeichert wird, wie es indiziert wird, wann es aktualisiert oder vergessen werden soll und wie Konflikte zwischen verschiedenen Gedächtnisinhalten aufgelöst werden.10 A-Mem beinhaltet explizit “Memory Evolution”.10 Lebenslanges Lernen erfordert Mechanismen zur Wissensintegration und gegen das Vergessen.16 KG-Pflege beinhaltet Konfliktlösung.48 Aktives Gedächtnismanagement (Aktualisieren, Zugreifen, Speichern, Konfliktlösung) ist ein zentrales Thema.27 Nutzerkontrollprinzipien für episodisches Gedächtnis umfassen das Löschen von Erinnerungen.19 All dies deutet auf aktive Prozesse hin, die den Gedächtnisinhalt
    verwalten, nicht nur passiv speichern. Diese “Meta-Gedächtnis”-Ebene fügt eine Komplexitätsebene hinzu, die über das einfache Erinnern und Abrufen hinausgeht, die Zuverlässigkeit und Vertrauenswürdigkeit direkt beeinflusst, aber für den Endnutzer möglicherweise unsichtbar bleibt.

    5. Die Nutzererfahrung: Herausforderungen und Implikationen des Agentengedächtnisses

    Die Art und Weise, wie das Gedächtnis in LLM-Agenten implementiert ist, hat direkte Auswirkungen auf die Nutzererfahrung, oft in Form von Herausforderungen und potenziellen Problemen.

    5.1. Der Kontext-Engpass erneut betrachtet

    Die begrenzte Größe des Kontextfensters bleibt eine Hauptquelle der Frustration für Nutzer. Agenten “vergessen” Anweisungen, Details oder den Faden eines längeren Gesprächs.12 Der Rückgriff auf externes Gedächtnis durch Retrieval ist der technische Workaround, aber dieser Prozess ist für den Nutzer nicht nahtlos und kann selbst fehlschlagen.

    5.2. Zuverlässigkeit, Konsistenz und Halluzinationen

    Fehler beim Abruf von Informationen aus dem externen Gedächtnis – sei es, dass falsche, irrelevante oder gar keine Informationen abgerufen werden – können zu inkonsistentem oder schlicht falschem Verhalten des Agenten führen.12Ein besonderes Problem sind gedächtnisinduzierte Halluzinationen. Der Agent könnte überzeugend falsche “Fakten” präsentieren, die er aus einer fehlerhaften oder veralteten externen Quelle abgerufen hat, oder er könnte den abgerufenen Kontext falsch interpretieren.3 Wenn die gespeicherten Daten selbst verzerrt (biased) sind, kann dies zu systematischen Fehlern und ungerechten Ergebnissen führen.55 Das Debuggen solcher Probleme in komplexen, LLM-getriebenen Systemen ist notorisch schwierig.56

    5.3. Langfristige Planung und Erinnerung

    Agenten haben oft Schwierigkeiten mit der Planung komplexer Aufgaben über längere Zeiträume und der flexiblen Anpassung dieser Pläne bei unvorhergesehenen Ereignissen. Dies hängt teilweise mit Gedächtnisbeschränkungen oder Problemen beim Abruf relevanter vergangener Erfahrungen oder Pläne zusammen.12 Ebenso ist der präzise Abruf spezifischer Informationen über lange Zeiträume oder bei sich abwechselnden Aufgaben (interleaved tasks) eine Herausforderung, wie Benchmarks zeigen [4 (LTMbenchmark)].

    5.4. Wissensmanagement: Integrität, Bias und Obsoleszenz

    Es ist eine große Herausforderung sicherzustellen, dass das im externen Gedächtnis gespeicherte Wissen (sowohl semantisches als auch episodisches) korrekt, unverzerrt (unbiased) und aktuell ist.12Verzerrte Daten im Gedächtnis können direkt zu verzerrten oder unfairen Handlungen des Agenten führen.55 Selbst Reflexionsprozesse, die eigentlich der Verbesserung dienen sollen, können Bias verstärken, wenn sie auf verzerrten Erinnerungen basieren.55 Ein weiteres Problem sind “Wissensgrenzen”: Der Agent könnte auf veraltetem oder dem Nutzer unbekanntem Wissen basierende Entscheidungen treffen.31

    5.5. Datenschutz- und Sicherheitslücken

    Die Speicherung von Interaktionsverläufen (episodisches/Arbeitsgedächtnis) birgt erhebliche Datenschutzrisiken, insbesondere wenn sensible persönliche Daten involviert sind. Die Einhaltung von Datenschutzbestimmungen wie der DSGVO (z.B. Datenminimierung, Recht auf Löschung, sichere Speicherung) ist eine Herausforderung.55 Es besteht das Risiko des Missbrauchs gespeicherter Erinnerungen für Überwachungszwecke durch private Akteure, Unternehmen oder staatliche Stellen.19
    Aus Sicherheitsperspektive ergeben sich neue Angriffsvektoren:

    • Memory Extraction Attacks (MEXTRA): Angreifer versuchen, durch geschickte Anfragen (Prompts) private Informationen aus dem Gedächtnis des Agenten zu extrahieren.28
    • Memory Injection / Poisoning Attacks (MINJA): Angreifer interagieren mit dem Agenten, um ihn dazu zu bringen, manipulierte oder bösartige Informationen in seinem Gedächtnis zu speichern. Diese “vergifteten” Erinnerungen können dann bei zukünftigen Interaktionen (möglicherweise mit anderen Nutzern) abgerufen werden und den Agenten zu schädlichen Handlungen verleiten.29 Auch die Kompromittierung von Planungsprozessen durch vergiftetes Gedächtnis ist ein Risiko.57
    • Tool Misuse: Ein kompromittiertes Gedächtnis oder fehlerhafte Planung aufgrund manipulierter Erinnerungen kann dazu führen, dass der Agent Werkzeuge auf unbeabsichtigte oder schädliche Weise einsetzt.7

    5.6. Komplexität, Kosten und Erklärbarkeit

    Es besteht ein inhärenter Zielkonflikt: Anspruchsvollere Gedächtnissysteme ermöglichen zwar erweiterte Fähigkeiten, erhöhen aber gleichzeitig die Komplexität des Gesamtsystems. Dies erschwert das Verständnis, das Debugging und die Gewährleistung der Zuverlässigkeit.11Komplexe Gedächtnisoperationen, insbesondere solche, die häufige LLM-Aufrufe für Retrieval, Reasoning oder Gedächtnismanagement erfordern, sind rechenintensiv und verursachen Kosten.12Diese Komplexität wirkt sich auch negativ auf die Erklärbarkeit (Explainability) aus. Wie können Nutzer ein korrektes mentales Modell 24 von diesen verschachtelten, oft externalisierten und potenziell anfälligen Gedächtnissystemen entwickeln? Wenn der Agent aufgrund eines Retrieval-Fehlers oder einer vergifteten Erinnerung unerwartet handelt, ist dies für den Nutzer ohne Einblick in die Gedächtnisprozesse kaum nachvollziehbar.
    Tabelle 2: Wesentliche Herausforderungen des Agentengedächtnisses und Nutzerimplikationen

    Herausforderungsbereich Spezifische Probleme Direkte Auswirkungen auf Nutzer
    Kontextgrenzen Agent vergisst Details/Anweisungen in langen Interaktionen Notwendigkeit von Wiederholungen, Frustration, Aufgaben scheitern
    Zuverlässigkeit/Halluzination Inkonsistente Antworten, falsche Fakten durch Retrieval-Fehler, Bias in Daten Mangelndes Vertrauen, irreführende Informationen, potenziell falsche Entscheidungen basierend auf Agenten-Output
    Planung/Erinnerung Schwierigkeiten bei Langzeitplanung, Anpassung an Unerwartetes, ungenauer Abruf Aufgaben werden nicht abgeschlossen, Agent wirkt unflexibel, wichtige vergangene Infos nicht verfügbar
    Wissensintegrität Veraltetes, ungenaues oder verzerrtes Wissen im Speicher, Wissensgrenzen Falsche Informationen, unfaire oder voreingenommene Ergebnisse/Empfehlungen
    Datenschutz Speicherung sensibler Daten, DSGVO-Konformität, Missbrauchspotenzial Verletzung der Privatsphäre, mangelnde Kontrolle über eigene Daten, Risiko der Überwachung
    Sicherheit Memory Extraction (Datenleck), Memory Poisoning (Manipulation), Tool Misuse Diebstahl sensibler Daten, Agent führt schädliche Aktionen aus, Systemkompromittierung
    Komplexität/Kosten Schwer verständliche Mechanismen, hoher Rechenaufwand, schwieriges Debugging Verwirrung über Agentenverhalten, hohe Nutzungskosten, Intransparenz, Schwierigkeiten bei der Fehlerbehebung

    Die hier diskutierten Herausforderungen sind nicht isoliert zu betrachten, sondern vielfach miteinander verbunden. Die Begrenzung des Kontextfensters (5.1) erzwingt den Einsatz externen Gedächtnisses. Dieses externe Gedächtnis wiederum führt zu Zuverlässigkeitsproblemen beim Abruf (5.2) und potenziellen Sicherheitslücken (5.5). Diese Zuverlässigkeitsprobleme untergraben das Nutzervertrauen und erschweren die Erklärbarkeit (5.6). Bias im Speicher (5.4) beeinträchtigt die Fairness, während Datenschutzverletzungen (5.5) die Sicherheit gefährden. Ein Beispiel: Eine Memory Poisoning Attacke (5.5) nutzt das externe Gedächtnis, das aufgrund der Kontextgrenzen (5.1) notwendig ist, führt zu unzuverlässigen Ausgaben (5.2) und potenziell schädlichen Aktionen, was das Nutzervertrauen zerstört und das Verhalten des Systems ohne Kenntnis des Angriffsvektors unerklärlich macht (5.6). Dieses Netz aus Abhängigkeiten bedeutet, dass Lösungen ganzheitlich sein müssen und das Nutzerverständnis diese Zusammenhänge berücksichtigen sollte.

    6. Perspektiven aus “Agentic AI”: Frameworks und Gedächtnis

    Die Nutzeranfrage bezog sich auch auf das Buch “Agentic AI” und ein potenzielles “fünfstufiges Agentic AI Framework”. Basierend auf den verfügbaren Buchbeschreibungen und Rezensionen 43 lässt sich
    kein spezifisches, konsistent benanntes “fünfstufiges Agentic AI Framework” identifizieren. Es ist möglich, dass ein solches Framework im Buch selbst detaillierter beschrieben wird, aber die vorliegenden Informationen deuten nicht darauf hin, dass es sich um ein breit etabliertes oder zentrales Konzept handelt.

    Die untersuchten Materialien erwähnen jedoch mehrere gedächtnisrelevante Konzepte, die im Kontext von Agentic AI diskutiert werden:

    • Kernkomponenten: Agenten werden oft durch ihre Fähigkeiten zur Wahrnehmung, zum Schlussfolgern (Reasoning), zum Lernen (was Gedächtnis impliziert) und zum Handeln definiert.60
    • Lernen aus Erfahrung: Ein zentrales Thema ist, dass agentische Systeme aus ihren Interaktionen lernen und sich anpassen müssen, was eine Form von Gedächtnis erfordert.60
    • Reflexion und Introspektion: Die Fähigkeit von Agenten, über ihre eigenen Aktionen und Zustände nachzudenken, setzt voraus, dass diese Informationen im Gedächtnis gespeichert sind.43
    • Gedächtnismanagement (Memory Management): Dies wird als wichtige Komponente genannt, möglicherweise im Kontext von Multi-Agenten-Systemen wie dem Coordinator-Worker-Delegator (CWD) Ansatz.43
    • Persistentes Gedächtnis: Das Konzept, dass Agenten über Zustandsräume (State Spaces) hinweg Informationen behalten und kontextuelles Bewusstsein entwickeln.43
    • Praktische Aspekte: Die Bücher behandeln Themen wie Werkzeugintegration und Planung, die stark auf Gedächtnisfunktionen angewiesen sind.43
    • Übergreifende Themen: Rezensionen heben Autonomie und kollaborative Intelligenz als Schlüsselthemen hervor 54, für die Gedächtnis implizit unerlässlich ist.

    Diese Punkte deuten darauf hin, dass die diskutierten Bücher Standard-Architekturkomponenten von KI-Agenten behandeln, in denen Gedächtnis eine wichtige, aber integrierte Rolle spielt. Sie scheinen sich an allgemeinen Agenten-Frameworks zu orientieren 1, anstatt ein einzigartiges, weithin zitiertes fünfstufiges Gedächtnismodell einzuführen, zumindest basierend auf den vorliegenden Informationen.

    7. Das Agentengedächtnis entmystifizieren: Eine ausgewogene Sicht für Nutzer

    Die zentrale Frage bleibt: Ist das Verständnis des KI-Agentengedächtnisses nun komplex oder nicht? Die Antwort ist nuanciert.

    7.1. Argumente für Einfachheit (Warum Verständnis einfacher sein kann)

    • Funktionale Analogien: Für viele alltägliche Interaktionen können Nutzer auf vereinfachte Analogien (wie das eingangs beschriebene Modell) zurückgreifen, um eine grundlegende Intuition dafür zu entwickeln, was der Agent zu tun versucht – Kontext behalten, Fakten abrufen, Fähigkeiten nutzen.2
    • Fokus auf Verhalten: Oft reicht es aus, sich auf den Zweck des Agenten und sein beobachtbares Verhalten zu konzentrieren, anstatt sich in Implementierungsdetails zu verlieren.9 Einfachere Agententypen (z.B. Simple Reflex Agents) haben naturgemäß einfachere oder gar keine expliziten Gedächtnismechanismen.9
    • Transparenzinitiativen: Es gibt Bestrebungen, die Transparenz und Erklärbarkeit von Agenten zu verbessern, was das Verständnis potenziell erleichtern kann.24 Ein Designprinzip lautet: “Priorisiere Transparenz, indem die Planungsschritte des Agenten explizit angezeigt werden”.62

    7.2. Argumente für Nuancierung (Warum Verständnis Komplexität benötigt)

    • Risiko der Übersimplifizierung: Eine zu starke Vereinfachung führt zu unrealistischen Erwartungen und potenzieller Fehlbedienung.12 Nutzer müssen die Grenzen verstehen (Kontextfenster, Abruffehler), um effektiv zu interagieren und Probleme zu erkennen.12
    • Verständnis der Risiken: Das Bewusstsein für Datenschutzlücken 55, Sicherheitsbedrohungen (Extraktion, Vergiftung) 28 und das Potenzial für Bias 55 ist entscheidend für Sicherheit und Vertrauen. Diese Risiken sind direkt mit den Gedächtnismechanismen verknüpft.
    • Modulare und externe Natur: Das Verständnis, dass das Gedächtnis oft modular aufgebaut ist und von externen Komponenten (RAG, Tools) abhängt, ist zentral, um zu verstehen, warum Agenten unerwartet versagen können.11
    • Notwendigkeit der Nutzerkontrolle: Prinzipien für die Nutzerkontrolle über das Gedächtnis (z.B. Interpretierbarkeit und Löschbarkeit von episodischen Erinnerungen) erfordern ein gewisses Verständnis der Natur dieses Gedächtnisses seitens des Nutzers.19

    7.3. Leitfaden für Nutzer: Auf dem Weg zu einem praktischen mentalen Modell

    Für Nutzer empfiehlt sich ein pragmatischer Ansatz:

    1. Mit der Analogie beginnen, aber nicht dabei stehen bleiben: Das vereinfachte Modell kann als Einstiegspunkt dienen. Wichtig ist jedoch, schnell zu einem Verständnis der Schlüsselkonzepte überzugehen: das begrenzte Kontextfenster, die Abhängigkeit von externem Abruf für Langzeitgedächtnis, die Möglichkeit von Abruffehlern und Halluzinationen und die grundlegenden Arten von gespeicherten Informationen (Konversationen, Fakten, Fähigkeiten).
    2. Kritische Bewertung: Agenten-Outputs, insbesondere solche, die auf abgerufenen Informationen beruhen, sollten kritisch hinterfragt werden. Das Prinzip “Vertrauen ist gut, Kontrolle ist besser” gilt hier in besonderem Maße.56
    3. Risikobewusstsein: Nutzer sollten sich der potenziellen Datenschutz- und Sicherheitsrisiken bewusst sein, die mit Agenten verbunden sind, die Interaktionshistorien speichern. Die Überprüfung von Datenschutzeinstellungen ist ratsam.
    4. Fokus auf Demonstration: Anstatt eine menschenähnliche Gedächtnistreue anzunehmen, sollten sich Nutzer auf die demonstrierten Fähigkeiten und Grenzen des Agenten bei spezifischen Aufgaben konzentrieren.

    Das Verständnis des KI-Agentengedächtnisses ist kein binärer Zustand (einfach vs. komplex), sondern existiert auf einem Spektrum. Das notwendige Maß an Verständnis hängt stark vom Kontext ab: von der Rolle des Nutzers, der Kritikalität der Aufgabe und der Komplexität des Agenten selbst. Ein gelegentlicher Nutzer eines einfachen Chatbots benötigt ein weniger detailliertes Verständnis als ein Entwickler, der einen komplexen Agenten debuggt, oder ein Nutzer, der sich bei hochriskanten Entscheidungen (z.B. im Finanz- oder Gesundheitswesen) auf einen Agenten verlässt.9 Ein einfacher Reflexagent erfordert minimales Gedächtnisverständnis.9 Ein komplexer, lernender Agent 9 oder ein Multi-Agenten-System 53, das mit sensiblen Daten interagiert 55, erfordert ein viel tieferes Nutzerbewusstsein für Gedächtnismechanismen, Grenzen und Risiken. Die Forschung zur Erklärbarkeit zeigt ebenfalls, dass Nutzer unterschiedliche Bedürfnisse und kognitive Stile haben.24 Die Antwort lautet also nicht einfach “es ist einfach” oder “es ist komplex”, sondern vielmehr: "Es

    kann für grundlegende Zwecke einfach verstanden werden, aber ein tieferes Verständnis ist notwendig für eine effektive, sichere und vertrauenswürdige Interaktion mit fähigeren oder kritischeren Systemen." Das Maß an Komplexität, mit dem sich der Nutzer auseinandersetzen muss, ist kontextabhängig.

    8. Schlussfolgerung: Navigation durch das Labyrinth des Agentengedächtnisses

    Die Analyse zeigt, dass das vereinfachte, an menschlicher Kognition orientierte Gedächtnismodell (Arbeits-, Cache-, Episodisches, Prozedurales, Semantisches Gedächtnis) zwar eine nützliche Einstiegsanalogie darstellt, aber unzureichend ist, um die tatsächliche Funktionsweise des Gedächtnisses von LLM-basierten Agenten präzise abzubilden. Die Realität ist geprägt von Modularität, einer fundamentalen Abhängigkeit von externen Speicher- und Abrufmechanismen (Retrieval) und signifikanten technischen Beschränkungen, allen voran dem begrenzten Kontextfenster.

    Für Nutzer ist es wichtig, über die einfache Analogie hinauszugehen und sich der wesentlichen Komplexitäten und Herausforderungen bewusst zu sein. Dazu gehören die Grenzen des Kontextfensters, die Unzuverlässigkeit von Abrufprozessen, die daraus resultierenden Konsistenzprobleme und Halluzinationen, Schwierigkeiten bei der langfristigen Planung, Probleme mit der Integrität und Aktualität des gespeicherten Wissens sowie – von entscheidender Bedeutung – die erheblichen Datenschutz- und Sicherheitsrisiken, die mit der Speicherung und Verarbeitung von Erinnerungen einhergehen.

    Die Frage, ob das Verständnis des Agentengedächtnisses komplex ist, lässt sich nicht pauschal beantworten. Für einfache Anwendungen und oberflächliche Interaktionen mag ein funktionales Verständnis ausreichen. Sobald jedoch eine tiefere Interaktion, die Nutzung für kritische Aufgaben oder die Gewährleistung von Sicherheit und Vertrauenswürdigkeit im Vordergrund stehen, ist ein nuancierteres Verständnis der zugrundeliegenden Mechanismen, ihrer Grenzen und Risiken unerlässlich.

    Die Befähigung der Nutzer erfordert daher mehr als nur vereinfachte Erklärungen. Sie erfordert die Förderung eines Verständnisses, das sowohl die beeindruckenden Fähigkeiten als auch die inhärenten Schwachstellen und Risiken des KI-Agentengedächtnisses umfasst. Zukünftige Forschung im Bereich der Erklärbaren KI (XAI), die speziell auf die Erklärung von Gedächtnismechanismen und deren Zustand zugeschnitten ist, wird von entscheidender Bedeutung sein, um Nutzern die Navigation durch dieses komplexe Labyrinth zu erleichtern.24
    (Teil 2: Anleitung für Mistral AI Le Chat – Konzeptionelle Simulation)

    Diese Anleitung beschreibt, wie Sie Mistral AI Le Chat instruieren können, um die Prinzipien des vereinfachten Gedächtnis-Frameworks (Arbeits-, Cache-, Episodisches, Prozedurales, Semantisches Gedächtnis) in seinen Antworten oder bei der Bearbeitung von Aufgaben konzeptionell zu berücksichtigen oder zu simulieren. Ziel ist es, ein besseres Gefühl dafür zu bekommen, wie diese Gedächtnisarten theoretisch interagieren könnten, auch wenn Le Chat als LLM nicht über diese expliziten, getrennten Module verfügt.

    Schritt 1: Kommunizieren Sie das Ziel der Simulation

    Beginnen Sie die Konversation, indem Sie Le Chat klar mitteilen, was Sie vorhaben.

    • Beispiel-Prompt:
      “Hallo Le Chat. Ich möchte mit dir ein kleines Experiment durchführen. Wir tun so, als hättest du ein Gedächtnissystem, das dem menschlichen Gedächtnis nachempfunden ist, bestehend aus Arbeitsgedächtnis, Cache-Speicher, Episodischem Gedächtnis, Prozeduralem Gedächtnis und Semantischem Gedächtnis. Ich möchte, dass du versuchst, diese Konzepte in unserer weiteren Konversation und bei den Aufgaben, die ich dir stelle, konzeptionell zu simulieren. Bist du bereit, das zu versuchen?”

    Schritt 2: Definieren Sie die Gedächtniskomponenten für Le Chat

    Geben Sie Le Chat klare, einfache Definitionen für jede Komponente, damit es versteht, was simuliert werden soll.

    • Beispiel-Prompt:
      "Okay, hier sind die Definitionen, die wir verwenden werden:
      • Arbeitsgedächtnis: Das ist wie dein ‘Notizblock’ für unsere aktuelle Konversation. Es enthält die letzten paar Nachrichten und die Informationen, die wir gerade aktiv besprechen. Es ist begrenzt.
      • Cache-Speicher: Das ist ein Teil deines Arbeitsgedächtnisses für extrem schnellen Zugriff auf 1-2 sehr wichtige Fakten oder Anweisungen, die ich dir explizit als ‘Cache-relevant’ markiere.
      • Episodisches Gedächtnis: Das speichert spezifische ‘Erinnerungen’ an frühere Punkte in dieser Konversation. Zum Beispiel, wenn ich dich bitte, dich an eine bestimmte Frage zu erinnern, die ich vor 10 Minuten gestellt habe. Du musst diese ‘Erinnerungen’ explizit abrufen.
      • Prozedurales Gedächtnis: Das repräsentiert ‘gelernte Fähigkeiten’ oder Abläufe. Zum Beispiel, wenn ich dir beibringe, eine bestimmte Art von Zusammenfassung zu schreiben, und dich später bitte, ‘die gelernte Zusammenfassungsprozedur anzuwenden’.
      • Semantisches Gedächtnis: Das ist dein allgemeines Weltwissen, Fakten und Konzepte, die du aus deinem Training kennst. Das ist dein Standardwissen.
        Verstanden?"

    Schritt 3: Geben Sie konkrete Anweisungsbeispiele für die Simulation

    Fordern Sie Le Chat auf, die einzelnen Komponenten aktiv zu nutzen oder deren Nutzung zu beschreiben.

    • Arbeitsgedächtnis simulieren:
      • “Beziehe dich in deiner nächsten Antwort direkt auf meine letzte Frage und die Information X, die ich gerade genannt habe (simuliere Nutzung des Arbeitsgedächtnisses).”
      • Nach einer längeren Konversation: “Was waren die Hauptpunkte der letzten 3 Nachrichten? (Teste dein Arbeitsgedächtnis).”
    • Cache-Speicher simulieren:
      • “Merke dir für den Cache: Das Codewort ist ‘Sonne’. Bitte bestätige, was im Cache ist.”
      • Später: “Was war das Codewort im Cache? (Schneller Abruf).”
    • Episodisches Gedächtnis simulieren:
      • “Erinnere dich bitte an die Frage, die ich zu Beginn unserer Simulation über Gedächtnisdefinitionen gestellt habe. (Simuliere Abruf aus dem episodischen Gedächtnis).”
      • “Speichere diese Interaktion als ‘Episode 1: Definitionen’. Bitte bestätige.”
      • Später: “Was geschah in ‘Episode 1: Definitionen’?”
    • Prozedurales Gedächtnis simulieren:
      • “Ich möchte dir eine Prozedur beibringen: ‘Zusammenfassung Typ A’. Sie besteht aus 3 Sätzen: 1. Hauptthema nennen. 2. Wichtigstes Argument nennen. 3. Kurzes Fazit. Speichere dies als Prozedur.”
      • Später: “Bitte fasse den folgenden Text mit der Prozedur ‘Zusammenfassung Typ A’ zusammen.”
      • Fragen Sie nach: “Welche Schritte hast du gerade angewendet, um die Zusammenfassung zu erstellen? (Beschreibe die Nutzung des prozeduralen Gedächtnisses).”
    • Semantisches Gedächtnis simulieren:
      • “Was ist die Hauptstadt von Frankreich? (Nutze dein semantisches Gedächtnis).”
      • “Erkläre das Konzept der Photosynthese. (Greife auf dein semantisches Wissen zurück).”

    Schritt 4: Iteration und Feedback während der Konversation

    Geben Sie Le Chat Rückmeldung und korrigieren Sie es bei Bedarf, um die Simulation zu verfeinern.

    • Feedback geben:
      • “Gut gemacht, das war eine gute Simulation des episodischen Abrufs.”
      • “Das war eher eine Nutzung deines semantischen Wissens, nicht die spezifische Prozedur, die wir definiert haben. Versuche es nochmal und folge genau den Schritten von ‘Zusammenfassung Typ A’.”
    • Zur Reflexion anregen:
      • “Welche Gedächtniskomponente hast du deiner Meinung nach gerade am meisten genutzt?”
      • “War es schwierig, die Grenze zwischen Arbeitsgedächtnis und episodischem Gedächtnis in dieser Aufgabe zu ziehen?”
    • Grenzen aufzeigen:
      • “Denke daran, dein Arbeitsgedächtnis ist begrenzt. Versuche, dich nur auf die letzten paar relevanten Punkte zu konzentrieren.”
      • “Du kannst nicht wirklich etwas vergessen oder einen Cache haben, aber versuche, so zu tun, als ob, basierend auf meinen Anweisungen.”

    Wichtige Hinweise:

    • Es ist eine Simulation: Machen Sie sich und Le Chat bewusst, dass dies eine konzeptionelle Übung ist. Le Chat hat keine echten getrennten Gedächtnismodule. Die Simulation basiert auf seiner Fähigkeit, Anweisungen zu folgen und kontextbezogen zu antworten.
    • Klarheit ist entscheidend: Formulieren Sie Ihre Anweisungen und Definitionen so klar und eindeutig wie möglich.
    • Geduld und Iteration: Es kann mehrere Versuche erfordern, bis Le Chat die Simulation wie gewünscht durchführt. Seien Sie geduldig und geben Sie konstruktives Feedback.
    • Fokus auf Konzepte: Das Ziel ist nicht, Le Chat technisch umzuprogrammieren, sondern die Konzepte der verschiedenen Gedächtnisarten durch Interaktion erfahrbar zu machen.

    Mit dieser Anleitung können Sie Le Chat nutzen, um ein interaktives Verständnis dafür zu entwickeln, wie die verschiedenen Komponenten eines (vereinfachten) Agentengedächtnisses theoretisch funktionieren und zusammenspielen könnten.

    Referenzen

    1. AI Agents: Evolution, Architecture, and Real-World Applications – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2503.12687v1
    2. What are AI agents? Definition, examples, and types | Google Cloud, Zugriff am Mai 4, 2025, https://cloud.google.com/discover/what-are-ai-agents
    3. An Introduction to AI Agents – Zep, Zugriff am Mai 4, 2025, https://www.getzep.com/ai-agents/introduction-to-ai-agents
    4. arxiv.org, Zugriff am Mai 4, 2025, https://arxiv.org/abs/2503.16416
    5. Survey on Evaluation of LLM-based Agents – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2503.16416v1
    6. Large Language Model Agent: A Survey on Methodology, Applications and Challenges – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/pdf/2503.21460
    7. Securing Agentic AI: A Beginner’s Guide – HiddenLayer, Zugriff am Mai 4, 2025, https://hiddenlayer.com/innovation-hub/securing-agentic-ai-a-beginners-guide/
    8. arXiv:2503.16416v1 [cs.AI] 20 Mar 2025, Zugriff am Mai 4, 2025, https://arxiv.org/pdf/2503.16416
    9. AI Agents Explained: How Artificial Intelligence Makes Decisions – AutoGPT, Zugriff am Mai 4, 2025, https://agpt.co/blog/ai-agents-explained
    10. A-Mem: Agentic Memory for LLM Agents – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2502.12110v1
    11. LLM Powered Autonomous Agents Drive GenAI Productivity and …, Zugriff am Mai 4, 2025, https://www.k2view.com/blog/llm-powered-autonomous-agents/
    12. LLM agents: The ultimate guide 2025 | SuperAnnotate, Zugriff am Mai 4, 2025, https://www.superannotate.com/blog/llm-agents
    13. Position: Episodic Memory is the Missing Piece for Long-Term LLM Agents – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/abs/2502.06975
    14. Position: Episodic Memory is the Missing Piece for Long-Term LLM Agents – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/pdf/2502.06975?
    15. From Human Memory to AI Memory: A Survey on Memory Mechanisms in the Era of LLMs – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2504.15965
    16. Lifelong Learning of Large Language Model based Agents: A Roadmap – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2501.07278v1
    17. agentic-memory/agentic_memory.ipynb at main – GitHub, Zugriff am Mai 4, 2025, https://github.com/ALucek/agentic-memory/blob/main/agentic_memory.ipynb
    18. Cognitive Architectures for Language Agents – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2309.02427v3
    19. Episodic memory in ai agents poses risks that should be studied and mitigated – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2501.11739v2
    20. [Literature Review] Episodic memory in AI agents poses risks that should be studied and mitigated – Moonlight, Zugriff am Mai 4, 2025, https://www.themoonlight.io/en/review/episodic-memory-in-ai-agents-poses-risks-that-should-be-studied-and-mitigated
    21. LLMS ARE NOT GOOD STRATEGISTS, YET MEMORY-ENHANCED AGENCY BOOSTS REA – OpenReview, Zugriff am Mai 4, 2025, https://openreview.net/pdf?id=34NjywGCdx
    22. Memory Matters: The Need to Improve Long-Term Memory in LLM-Agents – ResearchGate, Zugriff am Mai 4, 2025, https://www.researchgate.net/publication/377603378_Memory_Matters_The_Need_to_Improve_Long-Term_Memory_in_LLM-Agents
    23. arxiv.org, Zugriff am Mai 4, 2025, https://arxiv.org/pdf/2501.13956
    24. Improving User Mental Models of XAI Systems with an Inclusive Design Approach – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2404.13217v2
    25. Building Shared Mental Models between Humans and AI for Effective Collaboration – Harman Kaur, Zugriff am Mai 4, 2025, https://harmanpk.github.io/Papers/CHI2019_MentalModels_HAI.pdf
    26. Measures for explainable AI: Explanation goodness, user satisfaction, mental models, curiosity, trust, and human-AI performance – Frontiers, Zugriff am Mai 4, 2025, https://www.frontiersin.org/journals/computer-science/articles/10.3389/fcomp.2023.1096257/pdf
    27. Cognitive Memory in Large Language Models – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2504.02441v1
    28. arXiv:2502.13172v1 [cs.CR] 17 Feb 2025, Zugriff am Mai 4, 2025, https://arxiv.org/pdf/2502.13172
    29. A Practical Memory Injection Attack against LLM Agents – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2503.03704v2
    30. Memory and State in LLM Applications – Arize AI, Zugriff am Mai 4, 2025, https://arize.com/blog/memory-and-state-in-llm-applications/
    31. LLM Agents – Prompt Engineering Guide, Zugriff am Mai 4, 2025, https://www.promptingguide.ai/research/llm-agents
    32. Cognitive Memory in Large Language Models – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2504.02441
    33. [2504.02441] Cognitive Memory in Large Language Models – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/abs/2504.02441
    34. Cognitive Memory in Large Language Models – ResearchGate, Zugriff am Mai 4, 2025, https://www.researchgate.net/publication/390468358_Cognitive_Memory_in_Large_Language_Models
    35. arXiv:2502.12110v3 [cs.CL] 4 Mar 2025, Zugriff am Mai 4, 2025, http://arxiv.org/pdf/2502.12110
    36. [2502.12110] A-MEM: Agentic Memory for LLM Agents – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/abs/2502.12110
    37. [Literature Review] A-MEM: Agentic Memory for LLM Agents – Moonlight, Zugriff am Mai 4, 2025, https://www.themoonlight.io/en/review/a-mem-agentic-memory-for-llm-agents
    38. A-MEM: Agentic Memory for LLM Agents | Request PDF – ResearchGate, Zugriff am Mai 4, 2025, https://www.researchgate.net/publication/389129613_A-MEM_Agentic_Memory_for_LLM_Agents
    39. agiresearch/A-mem: A-MEM: Agentic Memory for LLM Agents – GitHub, Zugriff am Mai 4, 2025, https://github.com/agiresearch/A-mem
    40. Episodic memory in AI agents poses risks that should be studied and mitigated – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/abs/2501.11739
    41. Episodic memory in ai agents poses risks that should be studied and mitigated – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2501.11739
    42. How Does Episodic Memory Affect AI and How Can It Be Mitigated? – ResearchGate, Zugriff am Mai 4, 2025, https://www.researchgate.net/publication/388272261_How_Does_Episodic_Memory_Affect_AI_and_How_Can_It_Be_Mitigated
    43. Building Agentic AI Systems: Create intelligent, autonomous AI …, Zugriff am Mai 4, 2025, https://www.amazon.com/Building-Agentic-Systems-intelligent-autonomous/dp/1803238755
    44. Agentic AI: Getting Started Guides with Frameworks – Cohorte Projects, Zugriff am Mai 4, 2025, https://www.cohorte.co/blog/agentic-ai-getting-started-guides-with-frameworks
    45. Cognitive Architectures for Language Agents – arXiv, Zugriff am Mai 4, 2025, http://arxiv.org/pdf/2309.02427
    46. Cognitive Architectures for Language Agents | OpenReview, Zugriff am Mai 4, 2025, https://openreview.net/forum?id=1i6ZCvflQJ
    47. [2309.02427] Cognitive Architectures for Language Agents – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/abs/2309.02427
    48. arXiv:2502.06472v1 [cs.CL] 10 Feb 2025, Zugriff am Mai 4, 2025, https://arxiv.org/pdf/2502.06472
    49. arXiv:2501.15791v2 [cs.AI] 20 Feb 2025, Zugriff am Mai 4, 2025, https://arxiv.org/pdf/2501.15791?
    50. [2309.02427] Cognitive Architectures for Language Agents – ar5iv – arXiv, Zugriff am Mai 4, 2025, https://ar5iv.labs.arxiv.org/html/2309.02427
    51. AgentCF++: Memory-enhanced LLM-based Agents for Popularity-aware Cross-domain Recommendations – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2502.13843v2
    52. A Survey on LLM-based Multi-Agent System: Recent Advances and New Frontiers in Application – arXiv, Zugriff am Mai 4, 2025, https://arxiv.org/html/2412.17481v2
    53. Choosing the Right AI Agent Architecture: Single vs Multi-Agent Systems – Galileo AI, Zugriff am Mai 4, 2025, https://www.galileo.ai/blog/singe-vs-multi-agent
    54. Review of: "Agentic Systems: A Guide to Transforming Industries …, Zugriff am Mai 4, 2025, https://www.qeios.com/read/XSA5OY
    55. LLM Agents: How They Work and Where They Go Wrong – Holistic AI, Zugriff am Mai 4, 2025, https://www.holisticai.com/blog/llm-agents-use-cases-risks
    56. Is Agentic AI remotely useful for real business problems? : r/datascience – Reddit, Zugriff am Mai 4, 2025, https://www.reddit.com/r/datascience/comments/1jzml32/is_agentic_ai_remotely_useful_for_real_business/
    57. agent security bench (asb): formalizing and benchmarking attacks and defenses in llm-base – OpenReview, Zugriff am Mai 4, 2025, https://openreview.net/pdf?id=V4y0CpX4hK
    58. Exploring AI Agents: Types, Capabilities, and Real-World Applications, Zugriff am Mai 4, 2025, https://www.automationanywhere.com/company/blog/automation-ai/exploring-ai-agents-types-capabilities-and-real-world-applications
    59. Expl(AI)ned: The Impact of Explainable Artificial Intelligence on Users’ Information Processing – PubsOnLine, Zugriff am Mai 4, 2025, https://pubsonline.informs.org/doi/10.1287/isre.2023.1199
    60. Mastering Agentic AI: A Practical Guide to Building Self-Directed AI …, Zugriff am Mai 4, 2025, https://www.amazon.com/Mastering-Agentic-Practical-Self-Directed-Independently/dp/B0DT634H4Q
    61. Agentic Artificial Intelligence: Harnessing AI Agents to Reinvent Business, Work and Life – Amazon.com, Zugriff am Mai 4, 2025, https://www.amazon.com/Agentic-Artificial-Intelligence-Harnessing-Reinvent-ebook/dp/B0F1DS36YC
    62. Building Effective AI Agents – Anthropic, Zugriff am Mai 4, 2025, https://www.anthropic.com/research/building-effective-agents
    63. Towards Human-centered Explainable AI: A Survey of User Studies for Model Explanations, Zugriff am Mai 4, 2025, https://arxiv.org/html/2210.11584v5