Passwoerter und API-Keys: Was du NIEMALS in ChatGPT eingeben solltest

Kurzfazit: Viele kopieren gedankenlos API-Schlüssel, Passwörter und Kundendaten in ChatGPT und andere KI-Tools. Was die wenigsten wissen: Diese Daten landen auf fremden Servern, können für KI-Training verwendet werden – und durch Prompt Injections theoretisch von anderen abgegriffen werden. ChatGPT spielt inzwischen sogar Werbung aus. Hier erfährst du, was du niemals eingeben solltest, wie du dich mit .env-Dateien und Limits schützt – und wo deine persönliche Grenze liegen sollte.


Stell dir vor, du schreibst deinen Tresorcode auf einen Zettel und reichst ihn einem Fremden – mit den Worten: „Kannst du den bitte kurz für mich aufbewahren?“

Klingt absurd? Genau das passiert jeden Tag millionenfach. Nur dass der Fremde ChatGPT heißt, der Tresorcode dein API-Schlüssel ist und der Zettel auf einem Server in den USA liegt.

Ich habe 23 Jahre in Casinos gearbeitet. Dort gab es eine eiserne Regel: Sensible Daten verlassen niemals den gesicherten Bereich. Kein Mitarbeiter hätte jemals einen Zugangscode auf einen Zettel geschrieben und durch die Spielhalle getragen. Das wäre ein sofortiger Kündigungsgrund gewesen.

Bei KI-Tools? Da machen es Millionen Menschen jeden Tag – ohne darüber nachzudenken.


Das Problem: Alles was du eingibst, landet auf fremden Servern

Die unbequeme Wahrheit

Jedes Mal wenn du etwas in ChatGPT, Claude, Gemini oder ein anderes KI-Tool eintippst, passiert Folgendes:

  • Dein Text wird auf Servern verarbeitet – meistens in den USA
  • Dein Text kann gespeichert werden – für „Qualitätsverbesserung“
  • Dein Text kann für KI-Training verwendet werden – deine Eingaben fließen in zukünftige Modelle ein
  • Menschen können deine Eingaben lesen – sogenannte Reviewer prüfen Konversationen

Das bedeutet: Wenn du deinen API-Schlüssel in den Chat kopierst, liegt er ab sofort auf einem fremden Server. Und dort bleibt er – ob du die Konversation löschst oder nicht.


API-Schlüssel: Dein direkter Draht zu deiner Kreditkarte

Warum API-Schlüssel so gefährlich sind

Ein API-Schlüssel ist wie ein Generalschlüssel. Wer ihn hat, kann in deinem Namen Dienste nutzen – und die Rechnung geht an dich.

Konkretes Beispiel: Du hast einen API-Schlüssel von OpenAI und kopierst ihn in den Chat, damit die KI dir bei einem Projekt hilft. Was kann passieren?

  • Der Schlüssel liegt jetzt auf OpenAIs Servern
  • Durch eine Prompt Injection könnte jemand theoretisch darauf zugreifen
  • Ein Angreifer könnte mit deinem Schlüssel tausende API-Anfragen starten
  • Die Kosten landen auf deiner Kreditkarte

Aus der Casino-Welt: Das ist so, als würdest du deine Chipkarte im Casino auf dem Tisch liegen lassen. Jeder der vorbeikommt, kann damit spielen – und du zahlst.


Die sicherere Alternative: .env-Dateien

Passwörter gehören in einen Tresor, nicht auf den Tisch

Statt API-Schlüssel direkt in den Chat zu kopieren, gibt es sogenannte .env-Dateien. Das sind spezielle Dateien auf deinem eigenen Rechner, in denen Passwörter und Schlüssel sicher gespeichert werden.

So funktioniert das:

Wenn Claude, ChatGPT oder ein anderes KI-Tool einen API-Schlüssel braucht, sagt es dir normalerweise: „Schreib den Schlüssel bitte in diese .env-Datei.“

Was dann passiert:

  • Der Schlüssel liegt in einem geschützten Container auf deinem eigenen Rechner
  • Das KI-Tool kann den Schlüssel lesen, ohne dass er im Chat-Verlauf auftaucht
  • Der Schlüssel wird nicht an fremde Server übertragen
  • Niemand kann ihn durch einen Prompt-Injection-Angriff aus dem Chat abgreifen

Casino-Parallele: Das ist der Unterschied zwischen einem Tresor mit Zahlenschloss (die .env-Datei) und einem Zettel unter der Tastatur (den Schlüssel im Chat). Beides speichert die gleiche Information – aber der Tresor ist um Welten sicherer.

Faustregel: Wenn eine KI dich nach einem Passwort oder API-Key fragt, tippe es nie direkt in den Chat. Frage stattdessen: „Kann ich das in eine .env-Datei schreiben?“


Limits setzen: Dein Sicherheitsnetz

Wenn doch mal etwas schiefgeht

Seien wir ehrlich: In der Praxis passiert es, dass man API-Schlüssel doch mal im Chat verwendet. Vielleicht aus Bequemlichkeit, vielleicht aus Unwissenheit. Der wichtigste Schutz ist dann ein Ausgabe-Limit.

So geht das:

Bei jedem API-Anbieter kannst du ein maximales Budget einstellen:

  • OpenAI: Unter Settings > Billing > Usage Limits
  • Anthropic (Claude): Unter Console > Settings > Spend Limits
  • Google AI: Über die Google Cloud Console

Ich habe bei allen meinen API-Zugängen Limits von 100 Dollar oder weniger eingestellt. Falls jemand meinen Schlüssel missbraucht, ist der maximale Schaden auf dieses Limit begrenzt. 100 Dollar sind ärgerlich, aber kein Weltuntergang.

Zusätzlicher Schutz:

  • API-Schlüssel regelmäßig wechseln – der alte wird sofort ungültig
  • Mehrere Schlüssel für verschiedene Projekte – so weißt du genau, welcher kompromittiert wurde
  • Benachrichtigungen einrichten – die meisten Anbieter warnen dich bei ungewöhnlicher Nutzung

Casino-Parallele: Im Casino gibt es Tischlimits. Egal wie viel ein Spieler setzen will – das Tischlimit ist die absolute Obergrenze. Genau das machst du mit API-Limits: Du setzt eine Obergrenze für den schlimmsten Fall.


Kundendaten und Trainingszwecke: Das unterschätzte Risiko

Deine Kunden haben nicht zugestimmt

Besonders heikel wird es bei Kundendaten. Alles was du in KI-Tools eingibst, kann von den Anbietern für Trainingszwecke genutzt werden.

Was das in der Praxis bedeutet:

Du gibst in ChatGPT eine Kundenliste ein und bittest um eine Auswertung. Die Namen, E-Mail-Adressen und Bestellhistorien deiner Kunden fließen jetzt in das Training des KI-Modells ein. Im schlimmsten Fall könnten Teile dieser Informationen in Antworten an andere Nutzer auftauchen.

Das ist nicht nur riskant – das ist ein DSGVO-Problem. Du brauchst die ausdrückliche Einwilligung deiner Kunden, um ihre Daten an Dritte (also den KI-Anbieter) weiterzugeben. Die haben sie dir nicht gegeben.


ChatGPT und Werbung: Warum das alles noch brisanter wird

Deine Daten als Werbe-Goldmine

Was viele nicht wissen: ChatGPT spielt inzwischen Werbung aus. Und das verändert alles.

Wenn du ChatGPT Informationen über deine Kunden gibst, kann Folgendes passieren: Deine Kunden – falls sie selbst einen ChatGPT-Account haben – bekommen plötzlich Werbeanzeigen ausgespielt, die genau zu deren Interessen passen. Interessen, die du unbeabsichtigt verraten hast.

Ein Szenario:

Du bist Finanzberater und fragst ChatGPT: „Mein Kunde Thomas Müller interessiert sich für nachhaltige ETFs, erstelle mir eine Präsentation.“

Mögliche Folge: Thomas Müller bekommt beim nächsten Mal, wenn er ChatGPT öffnet, Werbung für nachhaltige Finanzprodukte – von deiner Konkurrenz.

Klingt übertrieben? Genau so funktioniert personalisierte Werbung bei Google und Facebook seit Jahren. ChatGPT hat jetzt die gleichen Möglichkeiten – nur mit noch detaillierteren Daten, weil die Leute in KI-Chats Dinge teilen, die sie niemals in eine Google-Suche eingeben würden.


Was du NIEMALS in KI-Tools eingeben solltest

Die rote Liste

Datentyp Warum nicht?
API-Schlüssel Direkter Zugang zu deiner Kreditkarte
Passwörter Können über Prompt Injection abgegriffen werden
Kundendaten Werden für Trainingszwecke verwendet, DSGVO-Verstoß
Kreditkartennummern Sensible Finanzdaten auf fremden Servern
Persönliche Passwörter ohne 2FA Besonders gefährlich ohne zweiten Faktor
Vertrauliche Geschäftsdaten Können in Antworten an andere auftauchen
Gesundheitsdaten Besonders geschützt nach DSGVO Art. 9

Die 5 wichtigsten Schutzregeln

Dein Sicherheits-Checkliste

1. API-Schlüssel in .env-Dateien speichern – nie in den Chat

Wenn ein KI-Tool einen Schlüssel braucht, nutze die .env-Datei auf deinem Rechner. Der Schlüssel verlässt deinen Computer nicht.

2. Ausgabe-Limits bei allen API-Anbietern setzen

Stelle ein Maximum ein, das du im Ernstfall verkraften kannst. 50 bis 100 Dollar sind ein guter Richtwert.

3. API-Schlüssel regelmäßig rotieren

Wechsle deine Schlüssel alle paar Wochen. Der alte wird sofort ungültig – selbst wenn ihn jemand hat, ist er wertlos.

4. Keine Kundendaten in KI-Tools eingeben

Anonymisiere Daten, bevor du sie in eine KI gibst. Aus „Thomas Müller, thomas@firma.de“ wird „Kunde A, E-Mail anonymisiert“.

5. Zwei-Faktor-Authentifizierung (2FA) überall aktivieren

Selbst wenn jemand dein Passwort kennt – ohne den zweiten Faktor kommt er nicht rein.


Deine persönliche Grenze finden

Wo liegt dein Schmerzpunkt?

Am Ende muss jeder selbst entscheiden, wo die eigene Grenze liegt. Hier ist eine realistische Einschätzung:

Geringes Risiko (akzeptabel für die meisten):

  • API-Schlüssel mit niedrigem Limit (unter 50 Dollar) kurzzeitig im Chat verwenden
  • Öffentlich verfügbare Informationen eingeben
  • Eigene Texte zur Überarbeitung einfügen

Mittleres Risiko (mit Vorsicht):

  • API-Schlüssel mit höherem Limit
  • Eigene Geschäftsideen oder Strategien besprechen
  • Anonymisierte Kundendaten analysieren lassen

Hohes Risiko (niemals):

  • Passwörter ohne 2FA
  • Echte Kundendaten mit Namen und Kontaktdaten
  • Kreditkarten- oder Bankdaten
  • Gesundheitsdaten von Kunden oder Patienten
  • Vertrauliche Verträge oder NDA-geschützte Informationen

Meine persönliche Regel: Ich habe überall Limits von 100 Dollar oder weniger eingestellt. Falls etwas passiert, ist das ärgerlich aber nicht existenzbedrohend. Und alle wichtigen Accounts haben Zwei-Faktor-Authentifizierung. So kann ich KI-Tools produktiv nutzen, ohne nachts wach zu liegen.


Fazit: Nutze KI – aber mit Verstand

KI-Tools sind unglaublich nützlich. Ich nutze sie jeden Tag für meine Arbeit. Aber wie bei jedem mächtigen Werkzeug gilt: Man muss wissen, wo die Grenzen sind.

Die gute Nachricht: Du musst kein IT-Experte sein, um dich zu schützen. Die fünf Regeln oben reichen aus, um 99% der Risiken zu vermeiden.

Denn wie im Casino gilt: Das Haus gewinnt immer – es sei denn, du kennst die Regeln.


Dieser Artikel ist Teil der Rubrik „Recht & Mindset“ auf ki-durchblick.com. Lies auch: Prompt Injections: Wie Hacker KI-Systeme manipulieren – für ein tieferes Verständnis der Sicherheitsrisiken, die hinter diesen Empfehlungen stehen.


Jeden Freitag: Die besten KI-Tools der Woche

Kurz, ehrlich, ohne Spam. Welche Tools sich lohnen, welche nicht — direkt in dein Postfach. Kostenlos abmelden jederzeit.

Gratis Newsletter abonnieren