Ein häufiges Missverständnis ist, dass du vor künstlicher Intelligenz (KI) sicher bist, wenn du keine Large Language Models (LLMs) wie ChatGPT für Chats, Midjourney zum Generieren von Bildern oder Sora zum Generieren von Videos verwendest. Egal, ob du sie nutzt oder nicht, KI berührt bereits dein Leben.

Zum Beispiel, wenn du Fotos auf Android machst, scannt und kategorisiert Google Photos automatisch jede Person in deiner Fotomediathek mithilfe von Gesichtserkennung. Das Posten in sozialen Medien ohne Änderung deiner Standardeinstellungen erstellt öffentliche Posts, die in die massiven Datensätze gescrapt werden können, die zum Trainieren von LLMs verwendet werden. Sogar personalisierte Werbung auf Websites oder in Apps wird von KI gesteuert, die auf deinen Browsing- und Einkaufspräferenzen trainiert ist.

Diese Bequemlichkeit kostet deine Privatsphäre und kann tiefgreifende Auswirkungen auf dein Leben haben. Zwanzig Fotos aus dem Social-Feed deines Kindes reichen aus, um ein 30-sekündiges Deepfake-Video zu erstellen, das für Erpressung, Mobbing oder Identitätsdiebstahl verwendet werden kann.

Hier ist, was auf dem Spiel steht, wenn KI Zugriff auf deine persönlichen Daten hat, und was du tun kannst, um deine Privatsphäre online zu schützen.

Wie gefährdet KI deine Privatsphäre?

KI kann die Privatsphäre aushöhlen, indem sie zu viel sammelt, zu viel ableitet, zu viel teilt.

Deine persönlichen Daten könnten gesammelt werden

KI-Systeme werden genauer, indem sie mit riesigen Datenmengen trainieren, die oft aus öffentlich zugänglichen Quellen gescrapt werden, wie deinen Facebook-Posts(neues Fenster), Flickr-Fotos(neues Fenster) oder Reddit-Threads(neues Fenster). Beiläufige Social-Media-Posts, Familienfotos und Profildetails – die oft sensible Informationen enthalten und ursprünglich aus persönlichen oder sozialen Gründen geteilt wurden – wurden in Datensätze aufgenommen, die zum Trainieren von Milliarden-Dollar-LLMs und Gesichtserkennungssystemen verwendet werden. Dies geschieht, weil Big Tech Online-Inhalte als frei verfügbar für die KI-Nutzung betrachtet, ohne ausdrückliche Zustimmung oder Rücksicht auf geistiges Eigentum.

Du könntest wieder identifiziert werden

Tech-Unternehmen behaupten, dass deine persönlichen Daten nicht zu dir zurückverfolgt werden können, sobald sie de-identifiziert oder pseudo-anonymisiert wurden, was bedeutet, dass offensichtliche Identifikatoren wie Namen oder Telefonnummern entfernt werden. Aber dieser Schutz ist zerbrechlich, da anonymisierte Datensätze wieder identifiziert werden können, indem sie mit anderen Datenquellen wie Social-Media-Profilen oder Geolokalisierungsspuren abgeglichen werden.

Zum Beispiel wurden Netflix-Benutzer wieder identifiziert(neues Fenster), indem ihre anonymen Filmbewertungen mit IMDb-Informationen verglichen wurden. Eine Studie(neues Fenster) zeigt, dass fast jeder Amerikaner in jedem Datensatz mit nur 15 demografischen Markern ausgesondert werden kann. Durch die Hinzufügung der Mustererkennungskraft von KI ist die Wiederidentifizierung schneller, einfacher und für jeden zugänglich geworden.

Deine Daten könnten mit Dritten geteilt werden

Wenn du KI-Systeme verwendest, bleiben deine Daten nicht immer bei dem Unternehmen, bei dem du dich registriert hast. Sie können mit Partnern oder externen Verarbeitern geteilt werden – von denen du wahrscheinlich noch nie gehört hast –, die deine Daten unter ihren eigenen Bedingungen und Sicherheitsstandards handhaben können.

An diesem Punkt wird Privatsphäre zu einer Vertrauensübung. Du verlässt dich nicht mehr nur auf das Unternehmen, das du kennst, um deine Informationen zu schützen, sondern auf eine ganze Kette unbekannter externer Akteure, jeder mit seiner eigenen Infrastruktur, Richtlinien und Schwachstellen. Jede Hand, die deine Daten berührt, vergrößert die Angriffsfläche, und die Verantwortlichkeit verschwimmt.

Zum Beispiel führte ein Datenleck bei einem OpenAI-Partner zur Offenlegung von API-Benutzerdaten, was zeigt, wie der Zugriff durch Dritte zum schwächsten Glied im System werden kann.

Anträge auf Datenlöschung funktionieren möglicherweise nicht

Sobald deine Daten ein KI-Modell trainieren, ist es fast unmöglich, sie zurückzunehmen, da sie das Gesamtverhalten des Modells prägen. Maschinelles Verlernen – Techniken, um ein Modell vergessen zu lassen – steckt noch in den Kinderschuhen, sodass die einzige Option heute darin bestünde, das Modell neu zu trainieren. Und selbst wenn ein Unternehmen behauptet, deinem Antrag auf Datenlöschung nachgekommen zu sein, gibt es praktisch keinen Weg, dies zu bestätigen(neues Fenster).

Andere Leute könnten deine privaten Chats sehen

LLMs wie ChatGPT(neues Fenster), Meta AI(neues Fenster) und Grok(neues Fenster) haben private Unterhaltungen durch ihre Teilen-Funktionen offengelegt, wobei Chats von Suchmaschinen indexiert und öffentlich auffindbar gemacht wurden. Die Plattformen waren bezüglich dieses Risikos nicht transparent genug und ließen Benutzer im Unklaren darüber, dass das, was sich wie ein privater Austausch anfühlte, für jeden im Internet sichtbar werden könnte.

Du könntest unfair behandelt werden

Wenn die Daten, die von KI-Systemen zum Lernen von Mustern verwendet werden, versteckte Vorurteile enthalten – etwa aus historischen Ungleichheiten oder unvollständigen Datensätzen – kann die KI diese Muster verstärken oder vergrößern. Es steht mehr auf dem Spiel bei den nicht-privaten KI-Systemen von Big Tech, die Closed-Source sind und als Black Boxes arbeiten, die nicht unabhängig überprüft werden können. Diese Systeme können sensible Attribute wie Rasse, Geschlecht oder Postleitzahl verwenden, um automatisierte Entscheidungen bei vorausschauender Polizeiarbeit(neues Fenster), Einstellung(neues Fenster), Gesundheitswesen(neues Fenster) oder Kreditwürdigkeitsprüfung(neues Fenster) zu treffen.

Werbe-Targeting wird schärfer

Während nicht-private KI Werbung durch Hyper-Targeting intelligenter macht, dringt sie oft in die Privatsphäre deiner ganzen Familie ein. Zum Beispiel behauptet Publicis, ein Datenbroker und das größte Werbeunternehmen der Welt, 2,3 Milliarden Menschen zu profilieren und Details wie Familienpräferenzen und Einkommen(neues Fenster) zu verfolgen, um zu entscheiden, ob sie mit Budget- oder Premium-Produkten angesprochen werden sollen.

Da KI-Chatbots die traditionelle Suche ersetzen, folgt uns Werbung in diesen neuen Raum. Zum Beispiel bettet Perplexity Werbung in KI-generierte Antworten(neues Fenster) ein und hat ein 34,5-Milliarden-Dollar-Gebot abgegeben, um Google Chrome zu kaufen – ein Schritt, der darauf abzielt, Zugriff auf die über 3 Milliarden Benutzer des Browsers und die damit verbundenen intimen Verhaltensdaten zu erhalten.

Cloud-Speicher könnte deine Daten offenlegen

Anbieter von Cloud-Speicher ohne Ende-zu-Ende-Verschlüsselung (E2EE) können auf die Fotos, Dokumente und sensiblen Dateien zugreifen, die du hochlädst. Sie können diese Daten auch verwenden, um KI-Tools zu betreiben, Erkenntnisse über dich zu generieren oder personalisierte Werbung anzuzeigen.

Google Drive behält zum Beispiel den Zugriff auf deine Daten und verwendet sie für KI-Funktionen wie Rechtschreibprüfung und Autovervollständigung in Google Docs. Wenn Gemini, der KI-Assistent von Google, eng in Google Workspace integriert bleibt, könnten Abfragen, die du zu deinen Drive-Dateien machst, auch in das KI-Training einfließen.

Ähnlich hat Microsoft angekündigt, dass Word, Excel und PowerPoint bald standardmäßig automatisch auf OneDrive speichern werden, einem weiteren Dienst ohne E2EE, bei dem die zukünftige Nutzung deiner Daten für Werbung oder KI-Training ungewiss bleibt.

KI kann Fehler machen

Automatisierte Systeme könnten deine privaten Kommunikationen scannen und als verdächtig markieren. Das vorgeschlagene Chat-Kontrolle-Gesetz der EU würde Messaging-Dienste wie WhatsApp und Signal verpflichten, KI einzusetzen, um jede private Nachricht und jedes Foto zu scannen, um Material von sexuellem Missbrauch von Kindern (CSAM) zu erkennen.

Aber das bedeutet, die Unterhaltungen von jedem zu überwachen, nicht nur die von mutmaßlichen Kriminellen. Und die Geschichte zeigt, wie leicht KI Fehler machen kann. Das Google-Konto eines Vaters wurde beispielsweise gekündigt(neues Fenster) und den Behörden gemeldet, nachdem er ein Foto seines Kindes an einen Arzt gesendet hatte. Was zwischen dir und deinem Arzt oder dir und deiner Familie bleiben sollte, könnte plötzlich Technologieunternehmen und Strafverfolgungsbehörden offengelegt werden.

Jeder kann Deepfakes erstellen

AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.

Böswillige Akteure nutzen Deepfakes für Identitätsdiebstahl, Betrug, Erpressung oder Rufschädigung – und die Risiken erstrecken sich auch auf Kinder. Im Jahr 2019 nutzten Kriminelle Deepfake-Audio, um die Stimme eines CEOs nachzuahmen(neues Fenster), und brachten einen Mitarbeiter dazu, 220.000 € zu überweisen. Die Risiken erstrecken sich auch auf Kinder. In einem Vorfall erstellte ein Täter ein Deepfake-Bild einer 14-Jährigen(neues Fenster), um Geld zu erpressen, indem er drohte, es zu teilen.

Wie du deine Daten vor KI-Systemen privat hältst

Es gibt viele Privatsphäre-Bedenken bei KI-Systemen, insbesondere bei den nicht-privaten, Closed-Source-Modellen, die von Big Tech betrieben werden. Und obwohl du nicht vollständig verhindern kannst, dass diese Systeme deine Daten scrapen oder missbrauchen, sobald sie da draußen sind, kannst du deinen Fußabdruck verringern, Rechenschaftspflicht fordern und Privatsphäre-First-KI wählen, die deine Daten nicht ausbeutet. Hier ist, was du tun kannst:

  • Stelle in sozialen Medien deine Profile und Posts auf privat, lösche alte Uploads, entferne EXIF-Daten aus Fotos vor dem Teilen und vermeide es, identifizierbare Details zu teilen – wie Adressen, vollständige Namen von Kindern oder die Schulen, die sie besuchen. Erfahre mehr darüber, wie du das Internet für deine Familie verwaltest.
  • Überprüfe die Privatsphäre-Einstellungen deiner Apps. Zum Beispiel könnte Meta AI die Fotos deiner Kamera-Rolle und Videos in der Facebook-App für Android und iOS scannen.
  • Schütze dich vor Deepfakes, indem du die Gesichter deiner Familie unkenntlich machst oder schwärzt, bevor du Fotos online postest.
  • Maskiere deinen digitalen Fußabdruck, indem du ein virtuelles privates Netzwerk (VPN)(neues Fenster) verwendest, um deine IP-Adresse zu verbergen, und nutze Aliase, um deine E-Mail-Adresse zu schützen, wenn du sensible Informationen postest, die nicht zu dir zurückverfolgt werden sollen.
  • Nutze Privatsphäre-First-Dienste, die deine Daten nicht monetarisieren, wie Signal für sicheres Messaging und Brave oder DuckDuckGo für privates Surfen.
  • Um deine sensibelsten Dateien sicher zu speichern, einschließlich privater Fotos und vertraulicher Dokumente, verwende Proton Drive für Ende-zu-Ende-verschlüsselten Cloud-Speicher. Im Gegensatz zu Plattformen, die vermeintlich private Inhalte offenlegen könnten, scannt, indexiert oder verwendet Drive deine Daten nicht für KI-Training – und sie können von niemandem sonst gesehen werden, selbst wenn du dich entscheidest, sie zu teilen. Deine Fotos wirklich privat zu halten, bedeutet auch, dass sie nicht online landen, wo sie missbraucht werden könnten, um Deepfakes zu erstellen.
  • Melde dich wann immer möglich vom KI-Training ab, wie zum Beispiel bei Gemini, ChatGPT(neues Fenster), Claude(neues Fenster) oder Meta AI. Richtlinien können sich über Nacht mit wenig Warnung ändern, also wenn du die Vorteile von sowohl KI als auch Privatsphäre willst, wechsle zu Lumo – unserem Privatsphäre-First-KI-Assistenten(neues Fenster), der keine Protokolle führt oder mit deinen Daten trainiert.

Stärkere Vorschriften zur KI-Privatsphäre, wie der EU AI Act(neues Fenster), werden entscheidend sein, um die Macht zurück zu den Internetnutzern zu verlagern. Bis dahin ist die beste Verteidigung, achtsam zu sein, was du online teilst, Rechenschaftspflicht von den Unternehmen zu fordern, die diese Systeme bauen, und transparente KI-Tools(neues Fenster) zu wählen, die Privatsphäre von Grund auf respektieren.