Recht

KI und Datenschutz in der Praxis: So bleiben Sie DSG-konform

Praktische Tipps für Schweizer KMU, um KI-Tools datenschutzkonform einzusetzen – inklusive Checkliste für das neue DSG.

20. Februar 2026 10 Min. Lesezeit kifabrik.ch
#Datenschutz#DSG#Compliance#Recht#KMU
KI und Datenschutz in der Praxis: So bleiben Sie DSG-konform

Montag, 8:17 Uhr. Eine Sachbearbeiterin in einem Zürcher Treuhandbüro kopiert eine Steuererklärung mit AHV-Nummer, Lohnausweis und Vermögenswerten in ChatGPT, um eine Zusammenfassung für den Kunden zu erstellen. Der Prompt funktioniert einwandfrei. Das Resultat spart ihr 20 Minuten. Nur: Sie hat soeben sensible Personendaten an einen US-Server geschickt — ohne Auftragsverarbeitungsvertrag, ohne Wissen des Kunden, ohne Rechtsgrundlage nach dem Schweizer Datenschutzgesetz.

Kein Einzelfall. Laut aktuellen Erhebungen nutzen über 60% der Büromitarbeitenden in Schweizer KMU KI-Tools — und ein grosser Teil davon ohne jegliche Vorgaben seitens des Arbeitgebers. Das ist kein böser Wille. Es ist schlicht Unwissenheit. Und genau hier liegt das Risiko.

Dieser Artikel zeigt Ihnen Schritt für Schritt, wie Sie KI-Tools datenschutzkonform einsetzen — praxisnah, ohne Juristendeutsch, mit konkreten Massnahmen. Hinweis: Dieser Artikel ersetzt keine Rechtsberatung. Bei spezifischen Fragen wenden Sie sich an eine auf Datenschutz spezialisierte Fachperson.

Das Schweizer DSG: Was KMU wirklich wissen müssen

Das revidierte Datenschutzgesetz (DSG) ist seit dem 1. September 2023 in Kraft. Anders als die DSGVO, die in der EU gilt, richtet sich das DSG spezifisch an die Schweizer Rechtsordnung. Für Schweizer KMU ist es die zentrale Rechtsgrundlage — nicht die DSGVO (obwohl diese bei EU-Kunden zusätzlich relevant sein kann).

Drei Grundprinzipien des DSG sind für den KI-Einsatz besonders relevant:

Zweckbindung (Art. 6 Abs. 3 DSG): Personendaten dürfen nur zu dem Zweck bearbeitet werden, der bei der Beschaffung angegeben oder erkennbar war. Wenn ein Kunde Ihnen seine Daten für eine Offerte gibt, dürfen Sie diese nicht einfach in ein KI-Tool einspeisen, um Marketingtexte zu generieren.

Verhältnismässigkeit (Art. 6 Abs. 2 DSG): Die Datenbearbeitung muss verhältnismässig sein. Brauchen Sie wirklich die vollständige Kundendatenbank im KI-Tool, oder reichen anonymisierte Stichproben?

Datensicherheit (Art. 8 DSG): Sie müssen technische und organisatorische Massnahmen treffen, um Personendaten angemessen zu schützen. Das schliesst die Wahl der KI-Tools und deren Konfiguration ausdrücklich mit ein.

Wo das DSG strenger ist als erwartet

Viele KMU unterschätzen einen Punkt: Das DSG kennt keine Bagatellgrenze. Auch wenn Sie nur fünf Kundendatensätze in ChatGPT eingeben, gelten die gleichen Pflichten wie bei fünftausend. Die Grösse Ihres Unternehmens spielt für die Pflichten keine Rolle — lediglich für die Frage, ob Sie ein Verzeichnis der Bearbeitungstätigkeiten führen müssen (Unternehmen mit weniger als 250 Mitarbeitenden sind unter bestimmten Bedingungen davon befreit, Art. 12 Abs. 5 DSG).

Und: Das DSG schützt nur Daten natürlicher Personen, nicht juristischer Personen. Firmennamen und Geschäftsadressen sind datenschutzrechtlich unproblematisch — solange keine Personennamen damit verknüpft sind.

ChatGPT, Claude, Gemini: Was passiert mit Ihren Daten?

Jedes KI-Tool verarbeitet Daten anders. Und genau hier wird es für KMU kritisch.

OpenAI (ChatGPT)

Bei der kostenlosen Version und ChatGPT Plus kann OpenAI Ihre Eingaben standardmässig für das Training weiterer Modelle verwenden. Das lässt sich in den Einstellungen deaktivieren — aber Hand aufs Herz: Wer von Ihren Mitarbeitenden hat das gemacht?

Bei ChatGPT Team und Enterprise sieht es besser aus: Daten werden nicht für das Training verwendet, und OpenAI bietet ein Data Processing Addendum (DPA) an. Die Daten werden allerdings nach wie vor auf US-Servern verarbeitet.

Anthropic (Claude)

Claude verarbeitet Daten ebenfalls primär über US-Infrastruktur. Claude Pro und Team bieten ein DPA an. Anthropic verspricht, eingegebene Daten nicht für das Modelltraining zu verwenden — eine Zusicherung, die vertraglich abgesichert sein sollte.

Google (Gemini) und Microsoft (Copilot)

Microsoft Copilot for Microsoft 365 hat einen entscheidenden Vorteil: Die Daten bleiben innerhalb Ihres Microsoft-Tenants. Für Unternehmen, die bereits Microsoft 365 nutzen, ist das oft der einfachste Weg zu einem datenschutzkonformen KI-Einsatz. Google Workspace mit Gemini funktioniert ähnlich — Ihre Daten bleiben in Ihrer Google-Cloud-Umgebung.

Das Kernproblem: Datenübermittlung ins Ausland

Art. 16 DSG regelt die grenzüberschreitende Datenübermittlung. Personendaten dürfen nur in Staaten übermittelt werden, deren Datenschutzniveau als angemessen gilt. Der Bundesrat führt eine entsprechende Länderliste. Die USA stehen seit dem Swiss-U.S. Data Privacy Framework zwar wieder auf der Liste — allerdings nur für zertifizierte Unternehmen.

Das bedeutet konkret: Prüfen Sie, ob Ihr KI-Anbieter unter dem Swiss-U.S. Data Privacy Framework zertifiziert ist. OpenAI, Microsoft und Google sind zertifiziert. Aber nicht alle Anbieter auf dem Markt haben diese Zertifizierung.

Falls Ihr Anbieter nicht zertifiziert ist, brauchen Sie Standardvertragsklauseln (SCC) oder eine andere Rechtsgrundlage nach Art. 17 DSG. Das klingt komplizierter, als es ist — die meisten seriösen Anbieter stellen die nötigen Vertragswerke zur Verfügung.

Auftragsverarbeitungsverträge: Kein Papiertiger

Ein Auftragsverarbeitungsvertrag (AVV) — oder auf Englisch Data Processing Agreement (DPA) — ist kein Nice-to-have. Er ist eine gesetzliche Pflicht, wenn Sie einen externen Dienstleister mit der Verarbeitung von Personendaten beauftragen (Art. 9 DSG).

Jeder KI-Anbieter, der Personendaten Ihrer Kunden oder Mitarbeitenden verarbeitet, braucht einen solchen Vertrag. Das gilt auch dann, wenn Sie «nur» E-Mails zusammenfassen oder Kundenfeedback analysieren lassen.

Was ein guter AVV enthalten muss

  • Gegenstand und Dauer der Bearbeitung: Was wird verarbeitet, wie lange?
  • Art und Zweck der Bearbeitung: Textanalyse, Zusammenfassung, Klassifikation?
  • Art der Personendaten: Kontaktdaten, Finanzdaten, Gesundheitsdaten?
  • Kategorien betroffener Personen: Kunden, Mitarbeitende, Lieferanten?
  • Pflichten des Auftragsverarbeiters: Weisungsgebundenheit, Vertraulichkeit, technische Massnahmen
  • Unterauftragnehmer: Welche Sub-Prozessoren setzt der Anbieter ein?
  • Löschung und Rückgabe: Was passiert mit den Daten nach Vertragsende?
  • Audit-Rechte: Können Sie die Einhaltung überprüfen?

Die meisten grossen Anbieter stellen standardisierte DPAs auf ihren Websites zur Verfügung. Nehmen Sie sich die 15 Minuten und lesen Sie diese. Achten Sie besonders auf die Abschnitte zu Unterauftragsverarbeitern und Serverstandorten.

Serverstandort: CH, EU oder US — was macht den Unterschied?

Die Frage «Wo stehen die Server?» ist berechtigt, aber sie ist nicht das einzige Kriterium. Entscheidend ist das Gesamtpaket aus Serverstandort, vertraglicher Absicherung und technischen Massnahmen.

Schweizer Server: Die sicherste Option. Anbieter wie Infomaniak, Exoscale oder die Swiss-Regionen von Microsoft Azure (Zürich und Genf) garantieren, dass Daten die Schweiz nicht verlassen. Für besonders sensible Daten — etwa im Gesundheitswesen oder bei Finanzinstituten — ist das oft die einzig akzeptable Lösung.

EU-Server: Ein gutes Datenschutzniveau, von der Schweiz als angemessen anerkannt. Viele KI-Dienste lassen sich auf EU-Regionen konfigurieren.

US-Server: Grundsätzlich möglich, wenn der Anbieter unter dem Swiss-U.S. Data Privacy Framework zertifiziert ist oder Standardvertragsklauseln vorliegen. Für Routinedaten (z.B. allgemeine Geschäftskorrespondenz ohne sensible Personendaten) ist das in der Regel vertretbar. Für sensible Daten sollten Sie Alternativen prüfen.

On-Premise: Die Königslösung für sensible Branchen

Open-Source-Modelle wie Llama, Mistral oder lokale Varianten von anderen Modellen lassen sich auf eigener Infrastruktur betreiben. Die Daten verlassen Ihr Netzwerk nie. Das erfordert technisches Know-how und Investitionen, ist aber für Branchen mit strengen regulatorischen Anforderungen — Gesundheit, Finanzen, Recht — eine ernstzunehmende Option.

Praktische Checkliste: KI DSG-konform einsetzen

Diese Checkliste können Sie direkt in Ihrem Unternehmen anwenden:

Vor der Einführung eines KI-Tools

  • Zweck definieren: Wofür genau wird das Tool eingesetzt? Welche Daten werden verarbeitet?
  • Datenkategorien prüfen: Handelt es sich um Personendaten? Besonders schützenswerte Personendaten (Art. 5 lit. c DSG)?
  • AVV/DPA abschliessen: Auftragsverarbeitungsvertrag mit dem Anbieter prüfen und unterzeichnen
  • Serverstandort klären: Wo werden die Daten verarbeitet und gespeichert?
  • Datenschutzerklärung aktualisieren: KI-Einsatz in der Datenschutzerklärung Ihres Unternehmens erwähnen
  • Bearbeitungsverzeichnis ergänzen: KI-gestützte Datenverarbeitungen dokumentieren

Im laufenden Betrieb

  • Mitarbeitende schulen: Klare Regeln, was in KI-Tools eingegeben werden darf und was nicht
  • Zugriffe beschränken: Nur autorisierte Personen sollten Zugang zu KI-Tools mit Personendaten haben
  • Eingaben überwachen: Stichprobenartig prüfen, ob die Richtlinien eingehalten werden
  • Datenminimierung leben: Nur die Daten eingeben, die wirklich nötig sind
  • Opt-out für Training aktivieren: Bei Tools, die Eingaben fürs Training nutzen können

Bei Vorfällen

  • Meldepflicht kennen: Datenpannen mit hohem Risiko müssen dem EDÖB gemeldet werden (Art. 24 DSG) — so rasch wie möglich
  • Betroffene informieren: Bei hohem Risiko für die betroffenen Personen müssen auch diese informiert werden
  • Dokumentation: Jeden Vorfall intern dokumentieren, auch wenn keine Meldepflicht besteht

Mitarbeiterschulungen: Pflicht, nicht Kür

Die grösste Schwachstelle im Datenschutz ist nicht die Technik — es sind die Menschen. Wenn Ihre Mitarbeitenden nicht wissen, welche Daten sie in KI-Tools eingeben dürfen, nützt der beste Auftragsverarbeitungsvertrag nichts.

Was eine KI-Datenschutzschulung abdecken sollte

Eine wirksame Schulung dauert 60 bis 90 Minuten und deckt folgende Punkte ab:

  1. Was sind Personendaten? Klingt trivial, ist es aber nicht. Viele Mitarbeitende denken bei Personendaten nur an Name und Adresse. Aber auch E-Mail-Adressen, IP-Adressen, Telefonnummern, AHV-Nummern und sogar Standortdaten fallen darunter.

  2. Was darf in KI-Tools eingegeben werden? Erstellen Sie eine klare Positiv- und Negativliste. Beispiel: Allgemeine Formulierungshilfen — ja. Kundennamen mit Vertragsdaten — nein (oder nur in freigegebenen Tools mit DPA).

  3. Wie pseudonymisiere ich Daten? Der einfachste Datenschutz-Trick: Ersetzen Sie echte Namen und Daten durch Platzhalter, bevor Sie sie in ein KI-Tool eingeben. Statt «Herr Meier, Bahnhofstrasse 12, AHV-Nr. 756.1234.5678.90» schreiben Sie «[KUNDE], [ADRESSE], [AHV-NR]».

  4. An wen wende ich mich bei Unsicherheit? Definieren Sie eine Ansprechperson im Unternehmen. Das muss kein Jurist sein — aber jemand, der die Regeln kennt und Entscheide treffen kann.

Wiederholen Sie die Schulung jährlich. Die KI-Landschaft verändert sich schnell, und mit ihr die Datenschutzanforderungen.

Dokumentationspflichten: Was Sie festhalten müssen

Das DSG verlangt Transparenz. Für KMU heisst das konkret:

Verzeichnis der Bearbeitungstätigkeiten

Wenn Ihr Unternehmen mehr als 250 Mitarbeitende beschäftigt, müssen Sie ein Verzeichnis führen (Art. 12 DSG). Kleinere Unternehmen sind davon befreit — es sei denn, sie bearbeiten besonders schützenswerte Personendaten in grossem Umfang oder führen Profiling mit hohem Risiko durch.

Unsere Empfehlung: Führen Sie das Verzeichnis trotzdem. Es ist kein grosser Aufwand und hilft Ihnen, den Überblick zu behalten. Ein einfaches Excel-Dokument mit folgenden Spalten reicht:

BearbeitungstätigkeitZweckDatenkategorienBetroffeneAufbewahrungsdauerEmpfänger/Dienstleister
KI-gestützte AngeboterstellungEffizienzKundennamen, ProjektdatenKunden10 JahreOpenAI (DPA vorhanden)
Chatbot auf WebsiteKundenserviceKontaktdaten, AnfragenWebsite-Besucher90 TageTidio (DPA vorhanden)

Datenschutzerklärung

Ihre Datenschutzerklärung auf der Website und in Verträgen muss den Einsatz von KI-Tools erwähnen, wenn dabei Personendaten verarbeitet werden. Das ist die Informationspflicht nach Art. 19 DSG. Konkret sollten Sie angeben:

  • Dass Sie KI-Tools einsetzen
  • Welche Anbieter involviert sind
  • In welche Länder Daten übermittelt werden
  • Auf welcher Rechtsgrundlage die Übermittlung erfolgt

Die häufigsten Fehler — und wie Sie sie vermeiden

Fehler 1: «Wir nutzen ja nur die kostenlose Version»

Gerade die kostenlosen Versionen von KI-Tools sind datenschutzrechtlich am problematischsten. Kein DPA, Daten werden für Training genutzt, keine Enterprise-Garantien. Investieren Sie in Business- oder Enterprise-Versionen — die Mehrkosten stehen in keinem Verhältnis zum Risiko.

Fehler 2: «Das macht jeder so»

Die Tatsache, dass andere Unternehmen Datenschutzregeln ignorieren, schützt Sie nicht vor Sanktionen. Der EDÖB kann Untersuchungen einleiten und Massnahmen anordnen. Und seit dem revidierten DSG drohen bei vorsätzlichen Verstössen Bussen von bis zu CHF 250’000 — und zwar gegen die verantwortliche natürliche Person, nicht gegen das Unternehmen (Art. 60 ff. DSG). Das heisst: Die Geschäftsführerin oder der IT-Leiter haftet persönlich.

Fehler 3: Shadow-IT ignorieren

Ihre Mitarbeitenden nutzen bereits KI-Tools — ob Sie es wissen oder nicht. Statt dies zu verbieten (was ohnehin nicht funktioniert), sollten Sie den Einsatz kanalisieren: Genehmigte Tools bereitstellen, klare Regeln aufstellen, Schulungen durchführen.

Fehler 4: Einmal einrichten und vergessen

Datenschutz ist kein Projekt, sondern ein Prozess. KI-Anbieter ändern ihre AGBs und Datenschutzrichtlinien regelmässig. Was heute konform ist, kann morgen problematisch sein. Überprüfen Sie Ihre KI-Datenschutz-Situation mindestens halbjährlich.

Fehler 5: Keine Datenschutz-Folgenabschätzung

Wenn Sie KI-Tools einsetzen, die ein hohes Risiko für die Persönlichkeitsrechte betroffener Personen darstellen, müssen Sie eine Datenschutz-Folgenabschätzung (DSFA) durchführen (Art. 22 DSG). Das betrifft insbesondere automatisierte Entscheide, Profiling mit hohem Risiko und die Verarbeitung besonders schützenswerter Daten in grossem Umfang.

Wann brauchen Sie einen Datenschutzberater?

Das DSG kennt keine generelle Pflicht zur Ernennung eines Datenschutzberaters (anders als die DSGVO mit dem Datenschutzbeauftragten). Art. 10 DSG sieht die Ernennung eines Datenschutzberaters als freiwillig vor — allerdings mit Vorteilen: Wenn Sie einen qualifizierten Datenschutzberater ernennen und dies dem EDÖB melden, können Sie unter Umständen auf die Konsultation des EDÖB bei einer DSFA verzichten.

Unsere Empfehlung: Auch wenn es keine Pflicht ist, lohnt sich ein Datenschutzberater für KMU, die KI intensiv nutzen — insbesondere wenn:

  • Sie regelmässig Personendaten in KI-Tools verarbeiten
  • Sie in sensiblen Branchen tätig sind (Gesundheit, Finanzen, HR)
  • Sie einen KI-Chatbot mit Kundenkontakt betreiben
  • Sie unsicher sind, ob Ihre aktuelle Praxis konform ist

Das muss keine Vollzeitstelle sein. Viele Datenschutzberater arbeiten als externe Mandatsträger und betreuen mehrere KMU gleichzeitig. Rechnen Sie mit Kosten von CHF 2’000 bis CHF 8’000 pro Jahr, je nach Umfang.

Der EDÖB: Was die Aufsichtsbehörde erwartet

Der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte (EDÖB) hat sich in den letzten Monaten mehrfach zum Thema KI und Datenschutz geäussert. Die Stossrichtung ist klar: KI-Nutzung ist erlaubt und erwünscht, aber die Datenschutzgrundsätze gelten uneingeschränkt.

Der EDÖB hat insbesondere betont:

  • KI-Anbieter gelten als Auftragsverarbeiter, wenn sie Personendaten im Auftrag bearbeiten. Ein AVV ist Pflicht.
  • Die Informationspflicht gegenüber betroffenen Personen gilt auch bei KI-gestützter Datenbearbeitung.
  • Automatisierte Einzelentscheide (Art. 21 DSG) unterliegen besonderen Anforderungen: Die betroffene Person muss informiert werden und kann verlangen, dass ein Mensch die Entscheidung überprüft.

Aktuelle Informationen und Orientierungshilfen finden Sie auf der Website des EDÖB unter edoeb.admin.ch.

Fazit: Pragmatisch, nicht paranoid

Datenschutz beim KI-Einsatz ist kein Grund zur Panik — aber auch kein Thema, das Sie ignorieren dürfen. Die gute Nachricht: Mit überschaubarem Aufwand können Sie den Grossteil der Risiken adressieren.

Fassen wir die wichtigsten Schritte zusammen:

  1. Bestandsaufnahme machen: Welche KI-Tools werden in Ihrem Unternehmen genutzt — offiziell und inoffiziell?
  2. AVVs abschliessen: Für jedes Tool, das Personendaten verarbeitet, einen Auftragsverarbeitungsvertrag prüfen und abschliessen.
  3. Mitarbeitende schulen: Klare Regeln kommunizieren und einüben.
  4. Datenschutzerklärung aktualisieren: KI-Einsatz transparent machen.
  5. Regelmässig überprüfen: Mindestens halbjährlich die Situation neu bewerten.

Compliance ist kein Wettbewerbsnachteil. Im Gegenteil: Schweizer Kunden vertrauen Unternehmen, die verantwortungsvoll mit Daten umgehen. Und dieses Vertrauen ist ein Wert, den keine KI ersetzen kann.

Brauchen Sie Unterstützung? kifabrik.ch begleitet Schweizer KMU bei der datenschutzkonformen Einführung von KI-Tools — von der Bestandsaufnahme über die Tool-Auswahl bis zur Mitarbeiterschulung. Praxisnah und ohne juristischen Überbau.

Bereit für den nächsten Schritt?

Erfahren Sie, wie kifabrik.ch Ihr KMU beim KI-Einsatz begleitet – kostenlos und unverbindlich.