28.07.2025

ChatGPT ist nicht des Teufels – aber ein Verbot könnte es werden

Judith von Rotz mit ChatGPT Digital, Führung und Leadership

Immer wieder hört man von Unternehmen, dass sie die Nutzung von ChatGPT im geschäftlichen Kontext verboten haben. Dies aus Angst vor Datenschutzverstössen, Kontrollverlust und Reputationsrisiken. Doch ist ein pauschales Verbot eine Lösung? Wie lässt sich ein sicherer, strategischer Umgang mit ChatGPT gestalten?

Kaum eine Technologie wurde in den letzten Jahren so rasant adaptiert wie ChatGPT. Und kaum eine so widersprüchlich diskutiert. Während einige Unternehmen begeistert experimentieren, greifen andere hart durch und verbieten ihren Mitarbeitenden den Einsatz im Arbeitsalltag komplett. Die Gründe dafür sind nachvollziehbar: Datenschutz, Sicherheit, Compliance. Aber ist ein vollständiges Verbot die richtige Antwort?

Wer sich ChatGPT kategorisch verschliesst, verzichtet nicht nur auf eine Technologie; er verpasst eine zentrale Chance zur digitalen Weiterentwicklung. Viel sinnvoller ist es, die bestehenden Risiken aktiv zu steuern und Mitarbeitenden einen sicheren, kompetenten Umgang mit KI zu ermöglichen. Denn das wahre Risiko ist nicht die KI selbst, sondern die fehlende Strategie im Umgang mit ihr.

Hier sind die sechs häufigsten Gründe für ChatGPT-Verbote und wie man ihnen konstruktiv begegnen kann:

  1. Datenschutz und Vertraulichkeit
    Das Argument: Mitarbeitende könnten sensible Daten in das System eingeben, die dann extern gespeichert und möglicherweise missbraucht werden.
    Die Lösung: Durch technische Vorkehrungen (z. B. Pseudonymisierung), bewusste Schulung und die Nutzung unternehmenseigener, sicherer KI-Instanzen lässt sich dieses Risiko erheblich minimieren. Wer sensible Daten schützen will, braucht Regeln – kein Schweigen.
     
  2. Sicherheits- und Compliance-Risiken
    Das Argument: Unkontrollierte Dateneingabe kann gegen gesetzliche Vorgaben wie DSGVO oder branchenspezifische Regularien verstossen.
    Die Lösung: Unternehmen sollten definieren, für welche Aufgaben KI zulässig ist, unter welchen Bedingungen und mit welchen Zugangskontrollen. Wenn Datenschutz- und IT-Teams früh eingebunden sind, lassen sich rechtssichere Wege finden.
     
  3. Reputationsrisiken
    Das Argument: Fehlerhafte oder irreführende Inhalte könnten übersehen und veröffentlicht werden. Die Folge davon können massive Imageschäden sein.
    Die Lösung: Menschliche Kontrolle ist entscheidend. KI kann Vorschläge machen, aber niemals ohne Prüfung veröffentlicht werden. Mit klaren Freigabeprozessen wird ChatGPT vom Risiko zur Unterstützung.
     
  4. Unsicherheit und mangelnde Kontrolle
    Das Argument: Unternehmen wissen nicht, wie Mitarbeitende KI nutzen – oder wo Risiken lauern.
    Die Lösung: Governance schafft Sicherheit. Statt ChatGPT komplett zu verbieten, sollten Regeln, Richtlinien und Leitplanken entwickelt werden: Wo darf es verwendet werden? Für was? Mit welchen Qualitätsstandards?
     
  5. Fehlinformation und Automatisierungsrisiken
    Das Argument: ChatGPT kann überzeugend, aber auch falsch oder erfunden („halluziniert“) sein.
    Die Lösung: Medienkompetenz ist entscheidend. Wer Mitarbeitende gezielt schult, befähigt sie, KI-Ausgaben kritisch zu prüfen und verantwortungsvoll zu nutzen, genau wie bei jeder anderen Informationsquelle auch.
     
  6. Schatten-Nutzung („Shadow AI“)
    Das Argument: Mitarbeitende nutzen ChatGPT auch ohne Freigabe.
    Die Lösung: Transparenz schlägt Verdrängung. Wer sichere Zugänge bereitstellt, klare Richtlinien schafft und offen über Chancen und Grenzen kommuniziert, verhindert gefährliche Schattenlösungen.

ChatGPT ist nicht perfekt, aber pauschale Verbote sind es auch nicht. Unternehmen, die den Umgang mit Künstlicher Intelligenz dem Zufall überlassen, verspielen wertvolle Innovationschancen. Der bessere Weg besteht darin, aktiv zu gestalten statt reflexartig zu blockieren. Wer die Risiken kennt, sie gezielt steuert und offen adressiert, kann ChatGPT produktiv und verantwortungsvoll einsetzen. Ein Verbot mag zunächst wie eine einfache Sicherheitsmassnahme erscheinen, doch es fördert die heimliche Nutzung, verhindert den Aufbau wichtiger Zukunftskompetenzen und bremst Innovation. Nicht die Technologie selbst ist das Problem, sondern ein fehlender Rahmen im Umgang mit ihr. Und genau deshalb kann nicht ChatGPT, sondern sein Verbot zum eigentlichen Teufel werden.

Dieser Text wurde von Judith von Rotz, CEO ZfU mit der Unterstützung von ChatGPT erstellt.