Eine frustrierende Realität für Kreative ist heute, dass ihre Arbeit dem KI-Training ausgesetzt ist. Technologieunternehmen, die generative KI wie ChatGPT, Gemini, DeepSeek, Stable Diffusion und Midjourney entwickeln, benötigen riesige Datensätze, um ihre Modelle zu trainieren, und durchsuchen dafür das öffentliche Internet.
Dies hat wichtige Fragen zu Zustimmung, Zuschreibung und Kontrolle über kreative Arbeit aufgeworfen, sobald sie online geteilt wird.
Wenn du nach Möglichkeiten suchst, deine kreativen Daten besser zu schützen, beschreibt dieser Leitfaden praktische Schritte, die du unternehmen kannst, um die Nutzung deiner Arbeit im KI-Training zu reduzieren und dich gleichzeitig zu deinen eigenen Bedingungen im Internet zu bewegen.
- Wie das KI-Training mit öffentlichen Inhalten kreative Arbeit gefährden kann
- So verhinderst du, dass KI deine Kunst nutzt
- Deine Kunst sind sensible Daten
Wie das KI-Training mit öffentlichen Inhalten kreative Arbeit gefährden kann
Generative KI-Tools benötigen riesige Datenmengen, um zu funktionieren, und ein Großteil dieser Daten stammt aus dem Internet. OpenAI hat öffentlich erklärt(neues Fenster), dass es „unmöglich“ wäre, eine KI wie ChatGPT ohne Zugriff auf urheberrechtlich geschütztes Material, das online zu finden ist, zu trainieren.
Kreative Arbeiten aus Online-Portfolios, Social-Media-Plattformen und Blogs werden verwendet, um diese Modelle ohne Zustimmung oder Zuschreibung zu trainieren. Meta hat zum Beispiel zugegeben(neues Fenster), öffentlich geteilte Facebook- und Instagram-Posts, Fotos und Kommentare bis zurück ins Jahr 2007 durchsucht zu haben, um seine generativen KI-Modelle zu trainieren. Das bedeutet, dass jede kreative Arbeit, die du jemals öffentlich auf diesen Plattformen geteilt hast – wie Hochzeitsfotos, Portfolio-Aufnahmen oder Illustrationen – für das KI-Training verwendet werden könnte, es sei denn, du hast die Sichtbarkeit auf privat gesetzt.
KI-Unternehmen haben in laufenden Gerichtsverfahren(neues Fenster) argumentiert, dass das Training mit gescrapten Internetdaten unter „Fair Use“ fällt. Gleichzeitig behandeln sie die resultierenden Modelle und Datensätze als geschützte Vermögenswerte. Die Nutzungsbedingungen von OpenAI verbieten die „Verwendung der Ausgabe zur Entwicklung von Modellen, die mit OpenAI konkurrieren“, und das Unternehmen hat DeepSeek beschuldigt, seine Modelle „unangemessen“ kopiert(neues Fenster) zu haben – dieselben Modelle, die mit öffentlich verfügbaren Internetdaten trainiert wurden.
Dieser offensichtliche Doppelmoral erklärt, warum viele Kreative das Gefühl haben, dass ihre Arbeit ohne ihre Zustimmung, Nennung oder Vergütung für das KI-Training anfällig ist. Dies wirft auch breitere Fragen darüber auf, wie „öffentlich verfügbare“ Inhalte interpretiert werden, insbesondere wenn kreative Arbeit auf Plattformen geteilt wird, deren Lizenzen die unbefugte Wiederverwendung oder kommerzielle Verwertung ausdrücklich einschränken. Infolgedessen wehren sich immer mehr Künstler, Schriftsteller und Fotografen gegen das KI-Daten-Scraping.
So verhinderst du, dass KI deine Kunst nutzt
Da Gerichte immer noch Einzelfallentscheidungen treffen und es keinen klaren rechtlichen Standard gibt, können sich Kreative nicht allein auf das Rechtssystem verlassen, um ihre Arbeit zu schützen. In der Zwischenzeit gibt es praktische Schritte, die du jetzt unternehmen kannst, um die Nutzung deiner Arbeit im KI-Training zu reduzieren.
Keine dieser Strategien ist jedoch narrensicher; Schutzwerkzeuge und KI-Unternehmen versuchen ständig, sich gegenseitig auszumanövrieren. Betrachte sie vorerst als einzelne Teile deiner Rüstung, die gemeinsam besser funktionieren. Hier sind die besten Möglichkeiten, dir mehr Kontrolle über deine kreativen Daten zu verschaffen:
Verschleiere deinen Kunststil
Verschleierungstools wie Glaze(neues Fenster) erschweren es KI-Modellen, mit deiner Arbeit zu trainieren, indem sie winzige Änderungen an Pixeln vornehmen, die KI-Modelle verwirren. Das Bild erscheint für Menschen wie beabsichtigt, aber für einen KI-Scraper wird es als ein anderer oder verzerrter Stil registriert.
„Vergifte“ deine Kunstwerke
Mit Tools wie Nightshade(neues Fenster) kannst du deine Kunstwerke für KI-Scraper giftig machen. Ein „vergiftetes“ Bild enthält subtile, unsichtbare Änderungen, die das KI-Training stören und dazu führen, dass das System falsch interpretiert, was es sieht, z. B. Autos statt Katzen oder Wolken statt Flugzeugen. Wenn im Laufe der Zeit genügend vergiftete Bilder für das Training verwendet werden, können diese falschen Assoziationen in zukünftigen Versionen des Modells auftauchen.
Technische Schutzmaßnahmen wie Glaze und Nightshade sind jedoch nicht narrensicher, und Untersuchungen(neues Fenster) zeigen, dass sie geschwächt werden können, wenn sich KI-Systeme weiterentwickeln.
Melde dich vom KI-Training ab
Wenn deine Arbeit online existiert, wurde sie wahrscheinlich in ein KI-Modell gescrapt. Mit Websites wie Have I Been Trained(neues Fenster) und The Atlantics AI Watchdog(neues Fenster) kannst du überprüfen, ob deine Bilder, Texte oder andere kreative Arbeiten in bekannten Datensätzen erscheinen, die zum Trainieren von KI-Modellen verwendet werden. Ersteres ermöglicht es dir, deine Arbeit in ein „Do Not Train“-Register einzutragen, wo teilnehmende Unternehmen diese Bilder identifizieren und von zukünftigen Trainingsläufen ausschließen können. Diese Maßnahmen sind jedoch freiwillig, hängen von der Bereitschaft der einzelnen Unternehmen ab, sie zu respektieren, und haben keinen Einfluss auf Modelle, die bereits mit deiner Arbeit trainiert wurden.
Wenn du in der EU lebst, kannst du Datenschutzgesetze wie die GDPR(neues Fenster) zu deinem Vorteil nutzen, indem du Unternehmen aufforderst, deine Inhalte vom KI-Training auszuschließen. Einige Unternehmen haben Opt-out-Prozesse in den Einstellungen ihrer Apps vergraben; hier ist zum Beispiel, wie du dich von der Datennutzung durch Meta AI auf Facebook, Instagram und WhatsApp abmeldest.
Sichere deine Privatsphäre-Einstellungen
Reduziere, was du öffentlich in sozialen Medien postest, und stelle sicher, dass dein Profil auf privat gesetzt ist. Je weniger Inhalte offen zugänglich sind, desto schwieriger ist es für externe KI-Systeme, sie zu scrapen. Aber das reicht möglicherweise nicht aus, um dich vor der Plattform selbst zu schützen, da viele Unternehmen zunehmend KI-Funktionen integrieren – wie Meta, das alle Meta-AI-Interaktionen für Training und Werbung nutzt –, was Fragen darüber aufwirft, wie sowohl öffentliche als auch private Inhalte im Laufe der Zeit verwendet werden können. Es ist am besten, soziale Medien nicht als dein primäres Archiv oder Portfolio zu nutzen.
Teile bewusst öffentlich
Wenn du öffentlich postest, um dein Publikum zu erreichen, teile kleinere Versionen deiner Arbeit mit geringerer Auflösung oder mit Wasserzeichen. Bewahre Dateien in voller Qualität in Offline-Sicherungen oder Cloud-Diensten auf, die eindeutig keine privaten Inhalte für das KI-Training verwenden.
Speichere und teile Dateien sicher
Da KI-Tools immer tiefer in große Plattformen integriert werden – wie Google, das Gemini überall hinzufügt, einschließlich Google Drive und Gmail –, werden die Menschen immer vorsichtiger, wie sie ihre Arbeit speichern und teilen.
Proton Drive bietet Ende-zu-Ende-verschlüsselten Speicher und Sharing für deine Fotos, Videos, Alben, Dokumente, Tabellen und andere Dateien. Wir sammeln, verarbeiten oder teilen deine Daten niemals mit Dritten und nutzen sie nicht für KI-Training. Im Gegensatz zu Big Tech wird Proton vollständig von unserer Community zahlender Abonnenten unterstützt und nicht durch Werbung oder Datennutzung.
Du kannst passwortgeschützte Links teilen, Ablaufdaten festlegen, Zugriff nur für bestimmte Personen per E-Mail gewähren und den Zugriff jederzeit widerrufen. Du kannst auch Dateien sicher von Personen ohne Proton-Konto empfangen.
Nutze private KI, ohne die Kontrolle abzugeben
Wenn du die Vorteile von KI nutzen möchtest, ohne die Kontrolle über deine Arbeit abzugeben und ohne dir Sorgen zu machen, dass eine zukünftige Richtlinienänderung deine Dateien plötzlich in Trainingsdaten verwandeln könnte, nutze unseren privaten KI-Assistenten(neues Fenster). Lumo trainiert niemals mit deinen Dateien oder Unterhaltungen, und es basiert auf Open-Source-Code, was bedeutet, dass jeder unsere Behauptungen überprüfen kann.
Lumo integriert sich in Proton Drive und ermöglicht es dir, sicher mit deinen Dateien zu arbeiten und Bilder zu generieren, ohne zum KI-Scraping-Ökosystem beizutragen, gegen das sich so viele Einzelpersonen und Organisationen aktiv wehren.
Deine Kunst sind sensible Daten
KI-Kunstdiebstahl zu stoppen bedeutet nicht, KI komplett abzulehnen. Aber es bedeutet anzuerkennen, dass kreative Arbeit sensible Daten sind, egal ob es sich um eine Illustration, einen Roman oder ein Lied handelt. Kreative verdienen Handlungsfähigkeit und faire Behandlung, einschließlich der Möglichkeit zu entscheiden, wie und ob ihre Arbeit verwendet wird.
Keine einzelne Strategie kann vollständig verhindern, dass KI-Systeme öffentlich verfügbare Inhalte – und in einigen Fällen indirekt offengelegte private Inhalte – in ihr Training aufnehmen. Und KI-Unternehmen wollen dich glauben lassen, dass es keine Möglichkeit gibt, KI-Tools zu bauen, ohne deine Daten zu verwenden. Wir sind anderer Meinung(neues Fenster).
Bis Regulierungsbehörden und Gerichte klarere Vorgaben machen, ist der effektivste Ansatz, proaktiv damit umzugehen, wie du mit dem Internet interagierst, und Plattformen zu wählen, die deine Privatsphäre und kreativen Rechte eindeutig respektieren.