Die US-Regierung finalisiert ihren National Defense Authorization Act (NDAA) 2026, der bis Ende dieses Jahres verabschiedet werden muss. Eine Bestimmung des Gesetzes würde ein 10-jähriges Moratorium(neues Fenster) für KI-Vorschriften auf staatlicher Ebene verhängen. Dies würde effektiv die Fähigkeit jedes Staates stoppen, zu kontrollieren, wie KI-Tools Daten sammeln oder Antworten für ihre Einwohner generieren.
Dasselbe Moratorium wurde im Juli 2025(neues Fenster) als Teil des One Big Beautiful Bill Act abgelehnt. Aber dieses Mal ist die Regierung mit einem Backup-Plan bereit: Wenn das Moratorium nicht als Teil des NDAA verabschiedet wird, hat die Trump-Regierung bereits eine Executive Order entworfen, die versuchen würde, Staaten zu zwingen, alle eigenen KI-Vorschriften abzuschaffen.
Bei Proton glauben wir, dass Regulierung ein wirksames Instrument ist, um Menschen zu schützen, und ein Bundesstandard ist der richtige Weg. In einem stark gespaltenen politischen Klima würde ein einziges Bundesgesetz die KI-Regulierung straffen, fragmentierten Schutz in den Staaten verhindern und die Regeln viel klarer machen. Aber das Löschen von Landesgesetzen vor dem Vorschlag einer Bundesalternative wäre schlimmer. Big Tech wäre in der Lage, ohne Leitplanken zu operieren, was die Sicherheit und Privatsphäre aller gefährdet.
Der Plan der Regierung, KI zu beschleunigen
Als Teil ihres KI-Aktionsplans(neues Fenster) legte die Regierung ihren Plan dar, KI-Innovationen zu beschleunigen, amerikanische KI-Infrastruktur aufzubauen und in der internationalen KI-Diplomatie und -Sicherheit führend zu sein.
Um diese Agenda voranzutreiben, hat die Bundesregierung signalisiert, dass sie entschlossen ist, Regulierung auf staatlicher Ebene zu verhindern. Das Hinzufügen des Moratoriums zum NDAA ist ein cleverer Weg, ein Moratorium durch den Kongress zu bringen, da das Verteidigungsausgabengesetz verabschiedet werden muss. Wenn es nicht in das endgültige Haushaltsgesetz aufgenommen wird, hat Präsident Trump jedoch eine Executive Order(neues Fenster) als Plan B vorbereitet.
Der Entwurf sieht vor, dass:
- Amerikanische KI-Unternehmen müssen frei sein, ohne Regulierung zu innovieren, was bedeutet, dass staatliche Gesetzgeber keinen regulatorischen Flickenteppich schaffen dürfen, der das KI-Wachstum behindern würde.
- Innerhalb von 30 Tagen nach dem Datum der Anordnung wird der Generalstaatsanwalt eine KI-Prozess-Task Force gründen, deren einziger Zweck es wäre, staatliche KI-Gesetze anzufechten.
- Innerhalb von 90 Tagen nach dem Datum der Anordnung wird der Handelsminister eine Bewertung bestehender staatlicher Gesetze veröffentlichen, die „Modelle verpflichten, ihre wahrheitsgemäßen Ausgaben zu ändern, oder […] KI-Entwickler oder -Bereitsteller zwingen, Informationen in einer Weise offenzulegen oder zu melden, die den ersten Verfassungszusatz oder eine andere Bestimmung der Verfassung verletzen würde“.
- Innerhalb von 90 Tagen nach dem Datum der Anordnung wird der Handelsminister eine Richtlinie herausgeben, die die Bedingungen angibt, unter denen Staaten für verbleibende Mittel im Rahmen des Broadband Equity Access and Deployment (BEAD)-Programms berechtigt sein könnten.
- Bei allen Staaten mit KI-Gesetzen, die im Konflikt mit der oben aufgeführten Bewertung stehen, werden ihre diskretionären Zuschussprogramme und Nicht-Bereitstellungsgelder überprüft.
Die Executive Order und der KI-Aktionsplan suggerieren eine klare Agenda für die Regierung: Um die amerikanische Dominanz in der KI-Industrie zu entfesseln, sollten die USA KI mit einem einzigen Bundesgesetz regulieren. Aber angesichts des Anreizes der Regierung, KI-Unternehmen zu helfen, ihre Konkurrenten zu übertreffen – und der Unfähigkeit des Kongresses, sich auf fast irgendetwas zu einigen –, könnte das Drängen auf eine einzige Regulierung gleichbedeutend mit gar keiner Regulierung werden.
Wir brauchen eine KI-Industrie, die keine Angst davor hat, reguliert zu werden
In der kurzen Zeit, seit KI-Tools aufgetaucht sind, haben sie unsere Realität deutlich verändert. Sie sind Teil unserer Arbeitstage und unseres persönlichen Lebens, helfen uns, E-Mails zu schreiben, Ideen zu sondieren, Themen zu recherchieren, die uns interessieren, und Pläne zu machen. ChatGPT allein erreichte mehr als 100 Millionen Benutzer(neues Fenster) in seinen ersten paar Monaten.
Nach der Aufregung durch DeepSeek ist die Beschleunigung der Entwicklung im KI-Sektor zu einer ernsten Sorge für die Industrie und die Regierung geworden. Sam Altman, CEO von OpenAI, hat vor Vorschriften gewarnt(neues Fenster), die die USA im KI-Wettrüsten mit China verlangsamen könnten.
Amerikanische Unternehmen haben, wie andere Unternehmen auf der ganzen Welt, das Recht, in ihren Sektoren zu innovieren und zu versuchen, ihre Konkurrenten zu übertreffen. Aber sie haben nicht das Recht, unreguliert zu bleiben. Die Verbesserung der globalen KI-Dominanz Amerikas und die Sicherstellung, dass der KI-Sektor unzureichend reguliert bleibt, sind nicht im Interesse der Menschen.
Big Tech hat uns gezeigt, immer und immer wieder, dass das Missachten von Datenvorschriften und der Verkauf persönlicher Daten ihr schnellster Weg zum Profit ist. Ein profitgetriebener Ansatz für KI bedeutet, dass Unternehmen Profit oder wettbewerbsfähige geopolitische Gewinne priorisieren werden, selbst gegen die Interessen der Menschen, die ihre Tools nutzen. In den letzten Jahren haben wir die Kosten unzureichender Regulierung gesehen:
- Versuche, Monopole(neues Fenster) für KI-Chatbots in App-Stores zu schaffen, haben Unternehmen dazu gebracht, dramatische Preiserhöhungen(neues Fenster) in Betracht zu ziehen. Unternehmen, die Monopole schaffen wollen, sind auch bestrebt, Privatsphäre-First-Entwicklungen(neues Fenster) für ihre Tools zu hemmen, um ihre Entwicklung nicht einzuschränken.
- Big Tech-Unternehmen haben keine angemessenen grundlegenden Schutzmaßnahmen getroffen, um Kinder, und insbesondere junge Mädchen, vor psychologischem Schaden(neues Fenster) zu schützen.
- Online-Betrug und betrügerische Werbung nehmen überhand, wobei Meldewerkzeuge sie nicht erkennen und Unternehmen Kriminellen erlauben, weiterhin auf ihren Plattformen zu operieren.
- KI-Daten sind Datenbrokern aufgrund mangelnder Sicherheit seitens der KI-Unternehmen leicht zugänglich. Datenbroker und Hacker sind in der Lage, ‚Jailbreak-as-a-Service(neues Fenster)‘ zu verkaufen, was schlechte Akteure direkt mit kommerziell verfügbaren KI-Tools verbindet und es ihnen ermöglicht, Daten zu stehlen.
- Social-Media-Plattformen sind voll von Fehlinformationen und tun nicht genug, um ihre Verbreitung zu bekämpfen, was Wahlen untergräbt(neues Fenster) und sogar einen Völkermord(neues Fenster) provoziert.
Ohne angemessene Regulierung werden KI-Unternehmen frei sein, die Ziele zu verfolgen, die sie für Wachstum als notwendig erachten. Wie wir gesehen haben, werden diese Innovationen wahrscheinlich auf Kosten der Menschen gehen, die ihre Tools nutzen.
Wähle private KI-Tools
Sobald diese Executive Order in Kraft tritt, werden Verbraucher anfälliger für schlechte Praktiken im KI-Raum. Ohne die richtigen Schutzmaßnahmen werden KI-Tools zu einem digitalen Überwachungsapparat. Sie können Informationen über unser persönliches Leben leaken(neues Fenster), sensible Geschäftsdokumente leaken(neues Fenster) und uns ermutigen, uns emotional auf sie zu verlassen(neues Fenster). Wenn amerikanische KI-Tools effektiv unreguliert bleiben, haben sie ein hohes Risiko, für Bürger und Unternehmen gleichermaßen unsicher zu werden.
In Ermangelung ausreichender staatlicher Regulierung ist die beste Option, die wir für unsere eigene Sicherheit haben und um sicherere Praktiken in der Industrie zu fördern, unsere Technologiewahl. Wir müssen KI-Tools priorisieren, die den Menschen an die erste Stelle setzen und keine Gesprächsprotokolle führen oder ihre Modelle mit Benutzerunterhaltungen trainieren. Selbst wenn Big Tech nicht ausreichend reguliert ist, gibt es sichere Alternativen zu ihren Tools.
Nachdem unsere Community Interesse an privaten KI-Alternativen bekundet hatte, begannen unsere Ingenieure, Technologien zu erforschen, um dies zu ermöglichen. Im Juli dieses Jahres haben wir Lumo(neues Fenster) eingeführt, einen KI-Assistenten, der entwickelt wurde, um jedem auf der Welt zu helfen, sich von US-zentrierten Tools zu lösen. Anstatt uns vor Regulierung und Prüfung auszublenden, haben wir unser Sicherheitsmodell und unsere Codebasis veröffentlicht, damit jeder überprüfen kann, wie Lumo arbeitet. Es führt keine Protokolle von Unterhaltungen, was dir erlaubt, darauf zu vertrauen, dass du vertraulich sprichst. Zero-Access-Verschlüsselung schützt jede Unterhaltung und stellt sicher, dass Werbetreibende und Regierungen nicht darauf zugreifen können. Chatverläufe können jederzeit gelöscht werden, da wir DSGVO-Grundsätze auf alle unsere Benutzer anwenden, sowohl innerhalb als auch außerhalb der EU, als verantwortungsvolle Datenpraxis.
Anstatt Vorschriften zu missachten, setzt sich(neues Fenster) Proton aktiv für strenge Datenschutzgesetze und gegen Überwachung sowohl online als auch offline ein. Unser Ziel war es immer, ein Internet zu schaffen, in dem Privatsphäre an erster Stelle steht – das bedeutet, Alternativen zu Big Tech-Tools wie KI zu schaffen und dabei zu helfen, die Abhängigkeit des europäischen Marktes von US-Technologie zu reduzieren. Wir werden uns immer für Menschen über Profite einsetzen.