Big-Tech-Unternehmen haben Billionen-Dollar-Imperien aufgebaut, indem sie unser Privatleben zur Ware gemacht haben. Künstliche Intelligenz lädt ihr Geschäftsmodell des Überwachungskapitalismus weiter auf, indem sie sich in die Tools integriert, die wir jeden Tag nutzen – oft ohne uns klare Erklärungen oder die Möglichkeit zum Widerspruch zu geben.
Leistungsstarke Large Language Models (LLMs) sammeln noch detailliertere Daten und leiten mehr über dich ab, als bisher vorstellbar war. KI wird in eine breite Palette von Plattformen integriert(neues Fenster), von der Suche bis zum Fotospeicher und sogar dem Betriebssystem deines Geräts, was es schwieriger macht, den Überblick zu behalten, geschweige denn in diese Datensammlung einzuwilligen. Dies wiederum ermöglicht es Unternehmen wie Google, Meta und Microsoft, umfassendere persönliche Profile zu erstellen, mehr von den Daten zu profitieren und mehr Kontrolle über die Informationen und Narrative auszuüben, die du siehst.
Diese Unternehmen können deine privaten Informationen mit Datenbrokern und anderen Dritten teilen oder an diese verkaufen. Regierungen können diese Daten durch Vorladungen anzapfen(neues Fenster) oder sogar noch verdecktere Formen der Überwachung nutzen. Und persönliche Daten können bei einem Datenleck offengelegt werden, wie es immer(neues Fenster) und wieder(neues Fenster) mit Diensten wie ChatGPT geschehen ist.
Das Ergebnis ist eine schnelle und groß angelegte Datensammlung, wobei Unternehmen noch weniger Kontrollen unterliegen, um Einwilligungen einzuholen oder die Konsequenzen der Technologie zu bedenken. Datenschutzgesetze rund um KI hinken der Industrie bekanntermaßen weit hinterher(neues Fenster).
Wir brauchen dringend eine private Alternative, weshalb wir einen neuen vertraulichen KI-Assistenten, Lumo(neues Fenster), gebaut haben, der keine Aufzeichnungen deiner Unterhaltungen führt. Deine gespeicherten Chats sind nur für dich verfügbar, geschützt durch Zero-Access-Verschlüsselung. Wenn es um deine Daten geht, hast du die Wahl – aber mehr Menschen müssen die Risiken des Status quo verstehen.
KI macht Big Tech noch mächtiger
KI ermöglicht es Google und Meta, ihre bestehenden Monopole zu skalieren und zu festigen, insbesondere bei Werbung und der Ausbeutung persönlicher Daten, aber in viel schnellerem und größerem Maßstab.
Meta integriert beispielsweise KI tiefgreifend, um sein Anzeigengeschäft zu revitalisieren, scannt deine Posts und fügt sogar Meta AI(neues Fenster) zu seinen Ende-zu-Ende-verschlüsselten Chat-Produkten wie WhatsApp hinzu, in einem offensichtlichen Versuch, mehr persönliche Daten von der Plattform abzuschöpfen. Google hat sein Werbegeschäft auf „AI-first“ umgestellt(neues Fenster), sodass jede Anzeige optimiert ist, um dich persönlich zu manipulieren. Und Googles Gemini ist jetzt tief in sein gesamtes Ökosystem integriert, was seiner KI einen Freifahrtschein gibt, um Daten von Android-Handys und Google-Apps zu sammeln.
KI ist ähnlich wie die Suche, aber viel intimer und tiefer in deinem Leben verwurzelt. Während Such-Tracking einfache Anfragen und Klicks nutzt, um deine Interessen vorherzusagen, nutzt KI natürliche Sprachverarbeitung und sogar Bilderkennung, um die Marken, Nachrichten, Emotionen und Bilder vorherzusagen, die dich am stärksten ansprechen werden. Manche Menschen bauen sogar eine emotionale Bindung(neues Fenster) zu KI-Chatbots auf, weil diese menschliche Verbindungen so genau imitieren können – etwas, das bei Suchmaschinen nie passiert ist.
Eine Werbeagentur prahlt(neues Fenster) damit, dass KI-gestützte Werbung ein „seismischer Wandel“ ist, der Kunden die Macht gibt, „Stimmung und Vorlieben abzuschätzen“ und sogar „visuelle Daten wie Bilder und Videos zu verarbeiten, um Markenlogos und Produktnutzung zu identifizieren, was kontextspezifisches Anzeigen-Targeting ermöglicht“. Stell dir vor, Kosmetikprodukte könnten dein Kind in dem Moment ansprechen, in dem es einem Freund gegenüber Ängste äußert, oder Politiker könnten KI-optimierte Anzeigen schalten, um die privaten Ängste der Wähler auszunutzen.
Big Tech ist bereits mächtiger als Regierungen – stell dir vor, was sie mit ungezügelter KI erreichen könnten.
Deine Chats leaken
Deine Privatsphäre steht auf dem Spiel, aber auch deine Sicherheit. KI schafft einen massiven, zentralisierten Pool intimer Informationen, der zunehmend anfällig dafür ist, auf verschiedene Weisen offengelegt zu werden.
Dies ist bereits geschehen:
- Im Juli 2025 fanden Reporter über 100.000 Unterhaltungen in ChatGPT(neues Fenster), die von Google indexiert und durchsuchbar gemacht wurden. Benutzer, die auf den „Teilen“-Button klickten, um eine Unterhaltung an Freunde oder Kollegen zu senden, waren sich fast sicher nicht bewusst, dass ihre privaten Unterhaltungen für jeden im Internet sichtbar sein würden.
- Im Jahr 2024 nutzten Forscher eine Prompt-Injection in Slack AI(neues Fenster), um Inhalte zu enthüllen, die in privaten Kanälen geteilt wurden.
- Im Jahr 2023 extrahierte ein anderes Forscherteam tatsächliche Software-Anmeldedaten(neues Fenster) (bekannt als „Secrets“) aus GitHubs Copilot-KI-Assistenten, der mit Milliarden von Codezeilen trainiert wurde. Ein Teil dieses Trainingscodes enthielt Anmeldedaten, und die Forscher überzeugten die KI, über 200 davon auszuspucken.
- Im Januar 2025, nach dem Aufsehen erregenden Start des KI-Start-ups DeepSeek, fand ein Forschungsteam eine öffentliche Datenbank(neues Fenster), die eine riesige Menge an Chat-Protokollen, Secrets und anderen sensiblen Daten enthielt.
- Im August 2025 sagten Auftragnehmer, die für Meta AI arbeiteten, dass sie persönliche Unterhaltungen gelesen hätten(neues Fenster), in denen Menschen sensible Daten mit dem Chatbot geteilt hatten.
Wann immer persönliche Daten ohne Ende-zu-Ende- oder Zero-Access-Verschlüsselung auf den Servern eines Unternehmens gespeichert werden, sind diese Daten anfällig für Leaks. Chat-Protokolle sind ein unglaublich attraktives Ziel für Hacker – und Regierungen. Ein US-Gericht hat OpenAI bereits angeordnet, alle Benutzer-Chat-Protokolle aufzubewahren(neues Fenster) (wogegen das Unternehmen derzeit kämpft). Diese Daten wären dann auf Anfrage für die Regierung verfügbar. Die USA verfügen bereits über eine Vielzahl von Methoden, um Benutzer heimlich auszuspionieren, von Abhöraktionen ohne Durchsuchungsbeschluss bis hin zu Datenanfragen, denen Big-Tech-Unternehmen Folge leisten müssen.
Je mehr Daten KI-Systeme absorbieren, desto mehr riskieren sie zu enthüllen, sei es durch versehentliche Leaks, voreingenommene Ausgaben oder staatlichen Druck.
Es sind nicht nur Daten – es ist Einfluss
Das versteht sich wahrscheinlich von selbst: Die Unternehmen und politischen Akteure, die dich mit Werbung ins Visier nehmen, haben nicht deine besten Interessen im Sinn.
KI hebt diese Manipulation auf ein ganz neues Level. Im Gegensatz zu Massenmedien, die du einfach abschalten kannst, ist KI in deinen Alltag eingewoben – sie beantwortet deine Fragen und bietet In-App-Vorschläge, die du gar nicht wolltest. Es ist nicht nur reaktiv; es ist proaktiv. Und wenn es von Unternehmen gebaut oder von Regierungen mit spezifischen Agenden ausgenutzt wird, macht es das unglaublich mächtig und gefährlich.
Wir sehen bereits, wie das aussieht. In China wurde gezeigt, dass DeepSeek politisch sensible Themen vermeidet oder löscht. Frage nach den Protesten auf dem Platz des Himmlischen Friedens und du wirst auf eine Mauer stoßen(neues Fenster) – nicht, weil die KI es nicht weiß, sondern weil ihre Zuständigkeit bedeutet, dass sie es dir nicht sagen darf.
Dies ist kein Problem, das nur China betrifft. Elon Musks Grok-Chatbot sorgte für Stirnrunzeln, weil er klare politische Haltungen einnahm(neues Fenster) und je nach Einstellung seines internen „Reglers“ völlig unterschiedliche Ausgaben lieferte. Es wurde auch festgestellt, dass er Musks eigene Meinungen konsultiert(neues Fenster), bevor er seine Antwort teilt. Dies zeigt, wie KI-Führung geformt werden kann, um bestimmte Ansichten zu fördern, subtil oder nicht, was zunehmend problematisch wird, da wir uns für Bildung und Informationen mehr auf KI verlassen, ohne Primärquellen zu prüfen.
Wenn KI also formt, was du siehst, was du denkst und wie du fühlst, wer entscheidet dann, welche Version der Wahrheit du bekommst?
KI gebaut für Menschen, nicht für Profit
Wenn wir eine KI wollen, die nicht von Big Tech oder autoritärer Politik geformt ist und die deine Daten vor Hackern und Leaks schützt, müssen wir etwas anderes bauen. Das bedeutet, private, unabhängige KI-Tools ohne Hintergedanken oder versteckte Agenden zu unterstützen.
Lumo ist ein Schritt in diese Richtung. Es wird in Europa gebaut, ohne Investitionen aus dem Silicon Valley oder ausländische Überwachung, und von der gemeinnützigen Proton Foundation beaufsichtigt, die laut ihrer Satzung verpflichtet ist, die Privatsphäre unserer Community zu fördern. Da unser Unternehmen von Wissenschaftlern gegründet wurde, die sich 2014 am CERN trafen, wurden wir ausschließlich von unseren Benutzern finanziert, nicht von Investoren oder Werbetreibenden. Dies stellt sicher, dass unsere Werte und unsere Mission mit den Menschen, denen wir dienen, im Einklang bleiben.
Wir haben Lumo standardmäßig privat gestaltet, was bedeutet, dass es keine Chat-Protokolle führt und deine Chats mit Zero-Access-Verschlüsselung gespeichert werden, sodass nur du sie sehen kannst. Lumo basiert außerdem auf Open-Source-Modellen, und deine Daten werden niemals zum Trainieren der KI verwendet.
Lumo ist erst der Anfang. Wenn wir eine Zukunft wollen, in der KI den Menschen dient – nicht dem Profit, nicht der Macht –, müssen wir sie fordern. Indem du heute private Alternativen wählst, hilfst du, ein Internet zu formen, das transparenter, demokratischer und respektvoller gegenüber deinen Rechten ist. Die Tools sind hier. Die Wahl liegt bei dir.