ChatGPT im Büro: Was ist erlaubt, was nicht?
Die Realität: ChatGPT ist längst im Büro
Ob E-Mails formulieren, Texte zusammenfassen oder Brainstorming — ChatGPT und vergleichbare KI-Tools sind in vielen Unternehmen Alltag. Oft ohne offizielle Freigabe, ohne Regeln, ohne Schulung.
Das Problem ist nicht die Nutzung selbst. Sondern was in die Tools eingegeben wird.
Was erlaubt ist
Grundsätzlich erlaubt — mit menschlicher Prüfung und freigegebenen Tools:
- Allgemeine Textentwürfe (Mails, Absagen, Ankündigungen)
- Brainstorming und Ideenfindung
- Strukturierung von Inhalten, Gliederungen, Checklisten
- Sprachliche Überarbeitung allgemeiner Texte
- Allgemeine Recherche zu öffentlich verfügbaren Themen
- Übersetzungen von nicht vertraulichen Inhalten
Die Grundregel: Wenn der Inhalt auch auf einem Whiteboard im Großraumbüro stehen könnte, ist er für KI-Tools in der Regel unbedenklich.
Was problematisch ist
Hier gilt: nur mit Vorsicht, Anonymisierung oder interner Freigabe.
- Zusammenfassungen interner Dokumente — nur in abstrahierter Form
- Kundenbezogene Inhalte — ohne direkte Kundendaten
- Entwürfe für Angebote — ohne konkrete Preise oder Vertragsdaten
- Meeting-Notizen — nur wenn sensible Inhalte entfernt wurden
- Analyse interner Daten — nur nach Anonymisierung
Die Frage, die sich Mitarbeitende stellen sollten: Wäre es ein Problem, wenn dieser Inhalt öffentlich würde? Wenn ja → nicht eingeben.
Was klar verboten ist
Diese Inhalte haben in öffentlichen KI-Tools nichts verloren:
- Personenbezogene Daten — Namen, Adressen, Geburtsdaten
- Kundendaten — CRM-Inhalte, Kontaktdaten, Kaufhistorie
- HR-Daten — Bewerbungen, Gehälter, Krankheitsdaten
- Finanzdaten — Umsätze, Budgets, Forecasts
- Verträge und Preislisten
- Passwörter, Zugangsdaten, API-Keys
- Quellcode und technische Dokumentation
- Strategiepapiere und nicht veröffentlichte Pläne
Der Unterschied: kostenlos vs. Business
Viele Mitarbeitende nutzen ihre privaten ChatGPT-Konten beruflich. Das ist aus Datenschutzsicht besonders kritisch:
- Kostenlose Version: Eingaben können für Modell-Training verwendet werden
- ChatGPT Team / Enterprise: Daten werden nicht für Training genutzt, zusätzliche Datenschutzvereinbarung
Unternehmen sollten klar definieren, welche Tools freigegeben sind — und private Accounts für berufliche Nutzung explizit ausschließen.
Was Unternehmen tun sollten
- KI-Richtlinie erstellen — mit klaren Ampelregeln (erlaubt / mit Vorsicht / verboten)
- Freigegebene Tools definieren — idealerweise mit Datenschutzvertrag
- Mitarbeitende schulen — nicht nur einmal, sondern regelmäßig
- Nachweise dokumentieren — wer wurde wann geschult?
- Ansprechperson benennen — an wen wende ich mich bei Unsicherheit?
Fazit
ChatGPT im Büro verbieten bringt nichts — die Leute nutzen es trotzdem, nur heimlich. Besser: klare Regeln, kurze Schulung und sichere Alternativen anbieten.
Complaid hilft Unternehmen, KI-Nutzung sicher und regelkonform aufzusetzen. Kurs ansehen →
KI-Compliance in deinem Unternehmen sicherstellen?
Complaid schult Mitarbeitende im sicheren Umgang mit KI — mit Lernpfaden, Leitplanken und dokumentierbaren Nachweisen.