28.07.2025 | Judith von Rotz mit ChatGPT

ChatGPT ist nicht des Teufels – aber ein Verbot könnte es werden

in Kategorien: Digital, Führung und Leadership

Immer wieder hört man von Unternehmen, dass sie die Nutzung von ChatGPT im geschäftlichen Kontext verboten haben. Dies aus Angst vor Datenschutzverstössen, Kontrollverlust und Reputationsrisiken. Doch ist ein pauschales Verbot eine Lösung? Wie lässt sich ein sicherer, strategischer Umgang mit ChatGPT gestalten?

Kaum eine Technologie wurde in den letzten Jahren so rasant adaptiert wie ChatGPT. Und kaum eine so widersprüchlich diskutiert. Während einige Unternehmen begeistert experimentieren, greifen andere hart durch und verbieten ihren Mitarbeitenden den Einsatz im Arbeitsalltag komplett. Die Gründe dafür sind nachvollziehbar: Datenschutz, Sicherheit, Compliance. Aber ist ein vollständiges Verbot die richtige Antwort?

Wer sich ChatGPT kategorisch verschliesst, verzichtet nicht nur auf eine Technologie; er verpasst eine zentrale Chance zur digitalen Weiterentwicklung. Viel sinnvoller ist es, die bestehenden Risiken aktiv zu steuern und Mitarbeitenden einen sicheren, kompetenten Umgang mit KI zu ermöglichen. Denn das wahre Risiko ist nicht die KI selbst, sondern die fehlende Strategie im Umgang mit ihr.

Hier sind die sechs häufigsten Gründe für ChatGPT-Verbote und wie man ihnen konstruktiv begegnen kann:

  1. Datenschutz und Vertraulichkeit
    Das Argument: Mitarbeitende könnten sensible Daten in das System eingeben, die dann extern gespeichert und möglicherweise missbraucht werden.
    Die Lösung: Durch technische Vorkehrungen (z. B. Pseudonymisierung), bewusste Schulung und die Nutzung unternehmenseigener, sicherer KI-Instanzen lässt sich dieses Risiko erheblich minimieren. Wer sensible Daten schützen will, braucht Regeln – kein Schweigen.
     
  2. Sicherheits- und Compliance-Risiken
    Das Argument: Unkontrollierte Dateneingabe kann gegen gesetzliche Vorgaben wie DSGVO oder branchenspezifische Regularien verstossen.
    Die Lösung: Unternehmen sollten definieren, für welche Aufgaben KI zulässig ist, unter welchen Bedingungen und mit welchen Zugangskontrollen. Wenn Datenschutz- und IT-Teams früh eingebunden sind, lassen sich rechtssichere Wege finden.
     
  3. Reputationsrisiken
    Das Argument: Fehlerhafte oder irreführende Inhalte könnten übersehen und veröffentlicht werden. Die Folge davon können massive Imageschäden sein.
    Die Lösung: Menschliche Kontrolle ist entscheidend. KI kann Vorschläge machen, aber niemals ohne Prüfung veröffentlicht werden. Mit klaren Freigabeprozessen wird ChatGPT vom Risiko zur Unterstützung.
     
  4. Unsicherheit und mangelnde Kontrolle
    Das Argument: Unternehmen wissen nicht, wie Mitarbeitende KI nutzen – oder wo Risiken lauern.
    Die Lösung: Governance schafft Sicherheit. Statt ChatGPT komplett zu verbieten, sollten Regeln, Richtlinien und Leitplanken entwickelt werden: Wo darf es verwendet werden? Für was? Mit welchen Qualitätsstandards?
     
  5. Fehlinformation und Automatisierungsrisiken
    Das Argument: ChatGPT kann überzeugend, aber auch falsch oder erfunden („halluziniert“) sein.
    Die Lösung: Medienkompetenz ist entscheidend. Wer Mitarbeitende gezielt schult, befähigt sie, KI-Ausgaben kritisch zu prüfen und verantwortungsvoll zu nutzen, genau wie bei jeder anderen Informationsquelle auch.
     
  6. Schatten-Nutzung („Shadow AI“)
    Das Argument: Mitarbeitende nutzen ChatGPT auch ohne Freigabe.
    Die Lösung: Transparenz schlägt Verdrängung. Wer sichere Zugänge bereitstellt, klare Richtlinien schafft und offen über Chancen und Grenzen kommuniziert, verhindert gefährliche Schattenlösungen.

ChatGPT ist nicht perfekt, aber pauschale Verbote sind es auch nicht. Unternehmen, die den Umgang mit Künstlicher Intelligenz dem Zufall überlassen, verspielen wertvolle Innovationschancen. Der bessere Weg besteht darin, aktiv zu gestalten statt reflexartig zu blockieren. Wer die Risiken kennt, sie gezielt steuert und offen adressiert, kann ChatGPT produktiv und verantwortungsvoll einsetzen. Ein Verbot mag zunächst wie eine einfache Sicherheitsmassnahme erscheinen, doch es fördert die heimliche Nutzung, verhindert den Aufbau wichtiger Zukunftskompetenzen und bremst Innovation. Nicht die Technologie selbst ist das Problem, sondern ein fehlender Rahmen im Umgang mit ihr. Und genau deshalb kann nicht ChatGPT, sondern sein Verbot zum eigentlichen Teufel werden.

Dieser Text wurde von Judith von Rotz, CEO ZfU mit der Unterstützung von ChatGPT erstellt.

Aus unserem Blog

Weitere Beiträge die Sie interessieren könnten

14.01.2026

Vom Wissen zum Können – warum Lernen im Austausch wichtiger ist denn je

 
01.12.2025

Mehr als nur Vorsätze

 
01.12.2025

Der Jahresanfang als strategisches Power-Window: Boxenstopp für Führungskräfte

 
20.10.2025

Tipps für die Nutzung der E-Learnings – Wie Lernmultiplikatoren Ihre Lernkultur nachhaltig stärken

 
03.10.2025

Positive Leadership: Der wirtschaftliche Mehrwert moderner Führung

 
07.07.2025

Chef? Nein danke. Warum junge Schweizer Talente Führungsverantwortung ablehnen

 

Jetzt den ZfU Newsletter abonnieren

Immer informiert: Mit dem Newsletter werden Sie fortlaufend über die aktuellsten News, Trends und Weiterbildungen auf dem neuesten Stand gehalten. Der Newsletter kann jederzeit wieder abbestellt werden. Die Datenschutzbestimmungen finden Sie hier.

Weiterbildungsprogramm 2026

Über 200 Seiten Kompetenz, Excellence und Exklusivität. Blättern Sie online durch den Katalog und erhalten Sie alle Details zu den verfügbaren ZfU Weiterbildungen.

Kontakt