KI ist gekommen, um zu bleiben, und Unternehmen beginnen gerade erst herauszufinden, wie sie ihre Kraft nutzen können, um ihr Geschäft voranzutreiben. Jeden Tag beeilen sich Unternehmen, KI in unzählige Workflows zu integrieren: Sie wird verwendet, um Dokumente zusammenzufassen, Berichte zu automatisieren, prädiktive Analysen zu erstellen und Support mit Chatbots zu leisten. Diese Veränderungen geschehen schnell und öffnen neue Türen für große und kleine Unternehmen, aber diese Veränderungen setzen auch wertvolle proprietäre Daten von Unternehmen potenziell neuen Risiken aus.
Wenn Unternehmen ihre vertraulichen Informationen für KI zugänglich machen, ist es nicht immer klar, ob diese Informationen von großen Sprachmodellen (LLMs) als Trainingsdaten wiederverwendet oder indexiert werden könnten. Es gibt auch zahlreiche Beispiele für sensible Informationen, die versehentlich durch KI-Tools offengelegt wurden. Dies sind nicht nur Bedenken hinsichtlich der Privatsphäre; es sind Sicherheitsrisiken, die jedes Unternehmen berücksichtigen muss, bevor es KI-Tools für seine gespeicherten Dateien verwendet.
Wie KI deine Dateien gefährden kann, ohne dass du es weißt
KI hat sich mit exponentieller Geschwindigkeit entwickelt und verbreitet. Während die meisten Menschen vor allem mit Chatbots wie ChatGPT oder Claude vertraut sind, hat Big Tech generative KI-Systeme integriert, die Inhalte in Tabellen-, Dokumenten- und E-Mail-Diensten aufnehmen, indexieren und zusammenfassen können. Diese Integration bringt leistungsstarke Fähigkeiten mit sich, führt jedoch auch ein erhebliches Risiko ein, dessen sich nur wenige Menschen bewusst sind.
Laut einer KI-Sicherheitsumfrage von 2025(neues Fenster) griff Microsoft Copilot – das in Tools wie Excel, Word und SharePoint eingebettet ist – allein in der ersten Jahreshälfte auf fast 3 Millionen sensible Datensätze pro Organisation zu. Sie fand auch heraus, dass Organisationen durchschnittlich mehr als 3.000 Interaktionen mit Copilot hatten, bei denen sensible Geschäftsinformationen hätten offengelegt werden können. Und eine Studie von Google besagte, dass 90 % der Arbeitnehmer(neues Fenster) in der Tech-Branche KI verwenden, um Code zu schreiben oder zu ändern. Selbst wenn diese Zahlen überhöht sind, müssen Organisationen KI-Tools in ihr Bedrohungsmodell einbeziehen.
Dies ist eine neue Art von Sicherheitsrisiko. Diese Dateien wurden nicht extern geteilt. Tatsächlich wurden sie möglicherweise überhaupt nicht geteilt. Aber da sie in Dateien gespeichert waren, auf die Copilot zugreifen konnte, hätten die darin enthaltenen Informationen gesammelt werden können, ohne dass die Benutzer es bemerkten.
Dies kann schwerwiegende Folgen haben. Die Polizei in der Schweiz(neues Fenster) (Quelle auf Französisch) und das FBI in den USA(neues Fenster) wurden bereits dabei ertappt, wie sie ChatGPT-Protokolle als Teil ihrer Ermittlungen verwendeten. Wenn Big-Tech-Unternehmen ein Beispiel sind, kannst du erwarten, dass KI-Unternehmen bald Hunderttausende von Datenanfragen von US- und EU-Regierungen erhalten werden, wenn dies nicht bereits der Fall ist.
Sichere Datenspeicherung ist unglaublich schwierig, wenn KI-Tools so tief in die Anwendungen eingebettet sind, die du jeden Tag verwendest. In Unternehmens-Drives gespeicherte Dateien werden durchsuchbar, zusammenfassbar und letztendlich angreifbar, was die traditionellen Sicherheitskonzepte von Zugriff, Berechtigung und Aufsicht verwischt.
Was ist mit Google Workspace & Gemini?
Diese Risiken beschränken sich nicht auf Microsoft Copilot. Google Workspace integriert sein KI-Tool Gemini in ähnlicher Weise direkt in Drive, Tabellen und Docs.
Viele Unternehmen werden Google Workspace mit Gemini-Integration wahrscheinlich als starken Standard betrachten. Laut Googles eigener Website(neues Fenster): „Deine Daten werden ohne Erlaubnis nicht von Menschen überprüft oder für das Training generativer KI-Modelle außerhalb deiner Domain verwendet.“
Die Regeln, die Google verwendet, um Informationen zum Trainieren seines KI-Systems zu nutzen, sind jedoch so formuliert, dass sie eine Grauzone schaffen und Fragen aufwerfen:
- Google verwendet jetzt tatsächlich Verbraucher-Chats und Datei-Uploads, um Gemini standardmäßig zu trainieren, es sei denn, man widerspricht dem.
- Die Support-Seiten von Google Gemini(neues Fenster) warnen davor, dass Informationen, die mit seinen Gemini-Apps geteilt werden, von Menschen überprüft werden und als Datensatz zum Trainieren von KI verwendet werden könnten.
- In seiner Erklärung zur Gemini-Privatsphäre warnt Google Benutzer(neues Fenster) davor, vertrauliche Informationen zu teilen.
- Unternehmensdokumentation lässt Raum für Interpretationen mit Formulierungen wie „ohne Erlaubnis“.
- Sicherheitsanbieter haben Bedingungen aufgezeigt, unter denen Geschäftsdaten zu Trainingseingaben werden könnten, insbesondere da KI-Funktionen enger in Dateispeicher-, Such- und Workflow-Tools integriert werden.
Dieser Mangel an Klarheit ist besorgniserregend, wenn Gemini in Drive, Docs und Tabellen integriert ist. Es geht nicht nur um das versehentliche Teilen von Dateien, sondern darum, wie diese Dateien ungewollt Teil von KI-Workflows werden. Wie wird die KI Prompts oder Ausgaben aufnehmen, indexieren, analysieren und speichern, und werden diese Protokolle weiterhin unter der Kontrolle deiner Organisation stehen?
Selbst ein gut verwaltetes System wie Google Workspace ist nicht privat und Closed Source. Solche Systeme mögen viele Risiken mindern, aber für Unternehmen, die hochsensible Daten besitzen, könnte das erforderliche Vertrauensniveau immer noch zu hoch sein.
Wie du eine private KI für dein Unternehmen findest
Jede Datei, die du hochlädst oder mit einem KI-aktivierten System teilst, vergrößert deine Angriffsfläche. Das bloße Hochladen von Dateien in den Cloud-Speicher könnte diese Dateien dem KI-Training aussetzen, abhängig von deinem Dienst und Abonnement. Wenn diese Uploads aufbewahrt, indexiert oder auf Weisen zugänglich sind, derer du dir nicht bewusst bist oder die du nicht kontrollieren kannst, ist dein proprietärer Wert gefährdet.
Bevor dein Unternehmen ein KI-Tool auswählt, solltest du fragen, ob du garantieren kannst, dass es oder sein Dateispeichersystem kritische Daten nicht aufbewahrt oder offenlegt.
Hier sind zwei konkrete Forderungen, die du an jedes Business-KI-Tool stellen solltest:
- Null-Daten-Aufbewahrung: Das KI-System sollte Prompts, Antworten oder Datei-Uploads nicht über die Geschäftssitzung hinaus protokollieren oder speichern, es sei denn, dies ist ausdrücklich erforderlich – und diese Protokolle sollten unter der vollen Kontrolle deines Unternehmens stehen.
- Kein externes Training: Die Daten deines Unternehmens (einschließlich gespeicherter Dateien) dürfen nicht verwendet werden, um andere Modelle außerhalb der Unternehmens-Domain zu trainieren, oder über Mandanten hinweg geteilt werden.
Was du jetzt tun kannst
Bevor du die richtigen Tools auswählen kannst, musst du deine Situation bewerten und sicherstellen, dass du nicht versehentlich bereits sensible Daten preisgibst:
- Führe ein KI-Dateispeicher-Risikoaudit durch: Identifiziere alle geteilten Drives, Team-Ordner und Cloud-Speicher, mit denen sich KI-Tools verbinden, und bilde dann ab, welche Tools diese Dateien aufnehmen oder indexieren.
- Definiere eine klare Governance-Richtlinie für die Aufnahme von Dateien in KI: Lege fest, welche KI-Tools genehmigt sind, welche Dateitypen erlaubt sind, ob die Indexierung von Repository-Dateien ausgeschaltet ist usw.
- Fordere einen Anbieter/eine Lösung, die private KI mit strengen Kontrollen bietet: Wähle einen KI-Assistenten, der „keine Protokolle, kein Training, kein Teilen“ als Basis bietet.
- Überwache und beschränke „Schatten-KI“ oder einzelne Mitglieder deines Teams, die KI außerhalb des Rahmens deines Sicherheitsteams verwenden, sowie unautorisierte Datei-Uploads in KI-Tools. Setze dies durch Data Loss Prevention und Identitäts- und Zugriffsmanagement-Praktiken sowie Audit-Protokollierung durch.
- Wähle einen Anbieter, dessen Geschäftsmodell nicht auf dem Verkauf oder der Extraktion von Daten basiert. Dies stellt sicher, dass seine Anreize immer darauf ausgerichtet sind, deine Daten sicher zu halten.
Proton bietet die Produktivität von KI ohne das Risiko
Kein Unternehmen möchte unwissentlich seine sensiblen Informationen herausgeben. Deshalb sind die Proton for Business-Tools um eine leistungsstarke Verschlüsselung herum aufgebaut, die dir die Kontrolle darüber gibt, wer auf deine Informationen zugreifen kann.
Proton Drive verwendet Ende-zu-Ende-Verschlüsselung für alle deine Dateien, sodass niemand, nicht einmal Proton, darauf zugreifen kann, es sei denn, du teilst sie. Dies verhindert, dass deine Dateien jemals offengelegt oder zum Trainieren von KI verwendet werden. Proton Drive gibt dir auch die Möglichkeit, Links zum Teilen mit einem Passwort zu schützen oder den Zugriff mit einem einzigen Klick auszuschalten, was bedeutet, dass du die Kontrolle behältst.
Wir haben auch Lumo for Business entwickelt, einen privaten KI-Assistenten, der nur für dich arbeitet, nicht umgekehrt. Da keine Protokolle aufbewahrt werden und jeder Chat und jede Datei, die du hochlädst, verschlüsselt ist, hält Lumo deine Unterhaltungen vertraulich und deine Daten vollständig unter deiner Kontrolle – niemals geteilt, verkauft oder gestohlen.
Bei Proton entwickeln wir alle unsere Produkte mit Privatsphäre durch Design. Unternehmen sollten in der Lage sein, Dateien zu speichern und KI mit Zuversicht zu nutzen, in dem Wissen, dass ihre sensibelsten Informationen geschützt bleiben.
Im Gegensatz zu Big Tech verdient Proton kein Geld durch den Verkauf deiner Daten. Wir werden ausschließlich von unserer Community unterstützt, nicht von Werbetreibenden, und unser Sitz im datenschutzfreundlichen Europa gibt uns den rechtlichen Schutz, um sicherzustellen, dass wir unsere Versprechen einhalten können. Am wichtigsten ist, dass wir der gemeinnützigen Proton Foundation gehören, deren einzige Mission es ist, Privatsphäre und Freiheit voranzutreiben.
Indem du Lumo for Business(neues Fenster) nutzt, kannst du die Vorteile eines fortschrittlichen KI-Assistenten genießen, ohne das Risiko, dass deine Daten missbraucht werden.