Lukas Huber
Founder & AI Strategist
Die EU verbietet Deepfake-Software für nicht-einvernehmliche pornografische Inhalte. Was Schweizer KMU jetzt wissen müssen und welche Auswirkungen das hat.
Die digitale Welt wird komplexer, und mit ihr die Anforderungen an Schweizer KMU. Ein aktueller Beschluss des EU-Parlaments sorgt für Aufsehen: Das Verbot von Software, die pornografische Deepfakes ohne Einwilligung erstellt. Für viele mag das weit weg klingen, doch die Realität ist anders: Die digitalen Grenzen verschwimmen, und was in der EU geschieht, hat oft direkte oder indirekte Auswirkungen auf die Schweiz.
Konkret geht es um Tools, die täuschend echte Nacktbilder und -videos erzeugen – oft ohne das Wissen oder die Zustimmung der abgebildeten Personen. Das EU-Parlament hat hier eine klare Kante gezeigt und für ein Verbot solcher "Nudifier-Apps" gestimmt. Gemäss DW.com (2026) ist dies ein entscheidender Schritt im Kampf gegen digitale Gewalt. Die Frage ist nicht, ob dies Schweizer KMU betrifft, sondern wie. Es geht um Reputation, Compliance und die ethische Nutzung von KI – Themen, die jedes verantwortungsbewusste Unternehmen angehen muss.
Wer jetzt denkt, das sei ein Problem der grossen Tech-Konzerne oder der Unterhaltungsindustrie, irrt. Auch kleinere Betriebe, die KI für Marketing, Content-Erstellung oder interne Kommunikation einsetzen, stehen vor neuen Herausforderungen. Die Grenze zwischen erlaubter und verbotener KI-Nutzung wird feiner, die rechtlichen Risiken steigen. Es ist Zeit, genau hinzusehen.
📊 Fakten auf einen Blick:
- Fakt: Das EU-Parlament hat für ein Verbot von Programmen gestimmt, mit denen Nutzer ohne Einwilligung pornografische Deepfakes erstellen können. (Quelle: DW.com, 2026)
- Fakt: In den USA sind 46 Bundesstaaten Gesetzen gegen die Veröffentlichung von intimen Bildern, einschliesslich Deepfakes, ohne Zustimmung beigetreten. (Quelle: New York Post, 2026)
- Fakt: Die EU verschärft die Regeln für Altersverifizierung und fordert von Online-Plattformen mehr Verantwortung für gehostete Inhalte. (Quelle: Lexology, 2026)
- Fakt: Ein hoher Fall in Deutschland, bei dem eine Schauspielerin ihren Ex-Mann beschuldigte, KI-generierte Pornografie von ihr online gestellt zu haben, hat zu Forderungen nach strengeren Gesetzen geführt. (Quelle: Reuters, 2026)
Wie können Schweizer KMU sicherstellen, dass sie keine illegalen Deepfake-Tools verwenden?
Die Antwort ist klar: Durch Transparenz, klare Richtlinien und eine genaue Prüfung der eingesetzten KI-Tools. Es geht nicht nur darum, explizit verbotene Software zu meiden, sondern auch darum, die Herkunft und die Funktionsweise aller generativen KI-Tools zu verstehen, die Sie in Ihrem Unternehmen einsetzen. Viele KMU nutzen vielleicht unbewusst Freeware oder Testversionen, die auf dem Markt verfügbar sind, ohne die genauen Nutzungsbedingungen oder die ethischen Implikationen zu prüfen.
Ein strukturierter Ansatz, wie wir ihn bei der Anforderungsanalyse für KI-Agenten in regulierten Umfeldern anwenden, ist hier unerlässlich. Man muss die Anforderungen klar erheben, klassifizieren und priorisieren. Für Compliance-Anforderungen, wie sie sich aus dem nDSG oder der FINMA ergeben, gibt es keine Verhandlungsgrundlage. Diese sind "Must-Haves", und das gilt auch für die Einhaltung internationaler Standards, die indirekt auf die Schweiz wirken können. Wenn Sie beispielsweise Content für den EU-Markt erstellen, müssen Sie die EU-Regularien beachten, selbst wenn Sie ein Schweizer Unternehmen sind.
💡 Tipp: Tool-Audit durchführen
Führen Sie einen internen Audit aller generativen KI-Tools durch, die in Ihrem Unternehmen genutzt werden. Erfassen Sie, welche Tools von wem für welche Zwecke eingesetzt werden. Prüfen Sie die Lizenzbedingungen, die Herkunft der Modelle und die Datenschutzrichtlinien. Achten Sie auf Schweizer Hosting und DSG-Konformität, insbesondere bei der Verarbeitung personenbezogener Daten. Dokumentieren Sie diesen Prozess sorgfältig.
Es ist entscheidend, die Lieferkette Ihrer digitalen Inhalte zu kennen. Woher stammen die Bilder, Videos oder Texte, die KI generiert? Wurden sie mit Zustimmung der abgebildeten Personen erstellt? Wurden Trainingsdaten verwendet, die ethisch und rechtlich unbedenklich sind? Diese Fragen mögen auf den ersten Blick komplex erscheinen, doch die Risiken bei Nichtbeachtung – Reputationsschaden, hohe Bussgelder und rechtliche Auseinandersetzungen – sind real und können die Existenz eines KMU gefährden. Alleine die Rechtskosten für einen Fall in Deutschland, bei dem eine Schauspielerin ihren Ex-Mann wegen KI-generierter Pornografie verklagte (Reuters, 2026), dürften ein Vielfaches dessen betragen, was eine präventive Massnahme gekostet hätte.
Die Technologie entwickelt sich rasant. Was heute nicht als Deepfake gilt, kann morgen schon als solches interpretiert werden, insbesondere wenn die Grenzen zwischen Realität und synthetischen Inhalten immer mehr verschwimmen. Deshalb braucht es eine kontinuierliche Sensibilisierung und Schulung der Mitarbeitenden. Jeder, der mit KI-Tools arbeitet, muss die Risiken verstehen und wissen, wie er sich gesetzeskonform verhält.
Die Integration von KI-Lösungen in den Arbeitsalltag sollte stets mit einem klaren Blick auf Governance und Compliance erfolgen. Ein "Demo-Bot", den ich beispielsweise mit RAG-Architektur entwickelt habe, kann die Grundlage für eine sichere und kontrollierte Content-Erstellung bilden, wenn er mit den richtigen Richtlinien und Hosting-Standards (z.B. auf Infomaniak in Genf) betrieben wird. Offene Frameworks wie LangChain oder LlamaIndex bieten die Flexibilität, die Kontrolle über die Daten und die generierten Inhalte zu behalten, anstatt sich auf Black-Box-Lösungen zu verlassen.
Welche Auswirkungen hat das EU-Verbot auf Schweizer Unternehmen, die KI für Content-Erstellung nutzen?
Auch wenn die Schweiz nicht direkt an EU-Gesetze gebunden ist, sind die Auswirkungen auf Schweizer KMU, insbesondere im Kreativ- und Medienbereich, spürbar und potenziell weitreichend. Der digitale Raum kennt keine nationalen Grenzen. Wenn Sie Inhalte erstellen, die in der EU konsumiert werden könnten – sei es über Ihre Website, soziale Medien oder durch Kooperationen mit EU-Partnern –, müssen Sie die dort geltenden Regeln beachten. Das Prinzip des Marktortprinzips greift hier: Wo Ihre Inhalte wirken, gelten die Gesetze.
Das Verbot in der EU sendet ein starkes Signal und schafft einen Präzedenzfall. Es ist sehr wahrscheinlich, dass ähnliche Gesetzgebungen auch in der Schweiz diskutiert und implementiert werden, um mit den internationalen Standards Schritt zu halten und die Bevölkerung vor digitaler Gewalt zu schützen. Schon jetzt haben in den USA 46 Bundesstaaten Gesetze gegen die Veröffentlichung intimer Bilder ohne Zustimmung verabschiedet (New York Post, 2026). Die Schweiz wird sich diesem Trend kaum entziehen können, nicht zuletzt aufgrund der engen wirtschaftlichen und kulturellen Verflechtungen mit Europa.
🚀 Praxis-Beispiel: Marketing-Agentur im Wandel
Eine Schweizer Marketing-Agentur, spezialisiert auf Videoproduktion für KMU, nutzte bisher KI-Tools zur schnellen Erstellung von animierten Charakteren und Stimmklonen für Werbespots. Nach dem EU-Beschluss führte die Agentur eine strikte interne Richtlinie ein: Jedes KI-generierte Element muss transparent gekennzeichnet und die Zustimmung der dargestellten oder gesprochenen Personen (auch bei Stimmklonen) schriftlich eingeholt werden. Zudem wurde in ein Schweizer Hosting für alle KI-generierten Assets investiert, um die Datenhoheit zu sichern. Dies erhöhte den Aufwand kurzfristig um 5-10%, minimierte aber das rechtliche Risiko um geschätzte 80% und stärkte das Vertrauen der Kunden.
Für KMU, die Bilder oder Videos für Marketingzwecke, Werbung oder andere Inhalte erstellen, bedeutet dies eine erhöhte Sensibilisierung. Es reicht nicht mehr aus, sich nur auf die technische Qualität der KI-generierten Inhalte zu konzentrieren. Die ethische Herkunft der Daten, die Transparenz der Generierung und die Einhaltung von Persönlichkeitsrechten werden zu zentralen Faktoren. Ein KMU, das hier Nachlässigkeit zeigt, riskiert nicht nur rechtliche Konsequenzen, sondern auch einen massiven Reputationsschaden, der sich in der heutigen vernetzten Welt schnell verbreitet und nur schwer wieder gutzumachen ist.
Die EU verschärft zudem die Regeln für Altersverifizierung und fordert von Online-Plattformen mehr Verantwortung für gehostete Inhalte (Lexology, 2026). Dies betrifft indirekt auch Schweizer Unternehmen, die Plattformen oder Online-Dienste betreiben, die Inhalte von Nutzern hosten. Die Notwendigkeit, Inhalte zu moderieren und auf illegale Deepfakes zu prüfen, steigt. Wer hier keine Vorkehrungen trifft, kann schnell in die Bredouille geraten, wenn beispielsweise ein Nutzer einen Deepfake über Ihre Plattform verbreitet.
Die Auswirkungen gehen über das reine Verbot hinaus. Es formt eine neue Erwartungshaltung in der Gesellschaft und bei den Konsumenten hinsichtlich der verantwortungsvollen Nutzung von KI. Schweizer Unternehmen, die diese Erwartungshaltung proaktiv erfüllen, können sich einen Wettbewerbsvorteil verschaffen, indem sie sich als vertrauenswürdige und ethisch handelnde Partner positionieren.
Was müssen Schweizer KMU tun, um sich vor den rechtlichen Folgen von Deepfakes zu schützen?
Schweizer KMU müssen eine proaktive Strategie entwickeln, die auf Risikoanalyse, Governance und kontinuierlicher Anpassung basiert. Es ist nicht ausreichend, nur reaktiv auf neue Gesetze zu reagieren. Die Geschwindigkeit der KI-Entwicklung erfordert eine vorausschauende Planung, die "Quick Wins" für sofortige Risikominimierung ebenso beinhaltet wie mittelfristige Projekte zur Prozessoptimierung und eine langfristige Transformation der Unternehmenskultur.
| Aspekt | Ansatz 1: Reaktion und Nachbesserung | Ansatz 2: Proaktive Prävention und Governance |
|---|---|---|
| Kosten | Hohe potenzielle Bussgelder, Anwaltskosten, Kosten für Krisenmanagement und Reputationsschaden (oft CHF 100'000+ bei einem einzigen Vorfall). | Geringere Investition in Prozesse, Schulungen und Technologien (z.B. CHF 10'000 - 30'000 für Initialaudit und Richtlinien). |
| Reputationsrisiko | Sehr hoch; schnelle Verbreitung negativer Nachrichten, Vertrauensverlust bei Kunden und Partnern, Schwierigkeiten bei der Mitarbeitersuche. | Niedrig; Positionierung als verantwortungsbewusstes Unternehmen, Stärkung der Kundenbindung und des Markenimages. |
| Rechtssicherheit | Unsicher; ständige Bedrohung durch Klagen und behördliche Untersuchungen, hohe Unsicherheit bei der Auslegung neuer Gesetze. | Hoch; klare Richtlinien, Dokumentation der Massnahmen, minimiertes Risiko von Rechtsstreitigkeiten und Bussgeldern. |
| Operativer Aufwand | Ungeplanter hoher Aufwand bei Vorfällen, Störung des Geschäftsbetriebs, Ressourcenbindung für Krisenbewältigung. | Geplanter, kalkulierbarer Aufwand für Implementierung und Wartung von Prozessen, geringere Störung des Tagesgeschäfts. |
Der erste Schritt ist eine umfassende Risikoanalyse. Identifizieren Sie, wo in Ihrem Unternehmen generative KI eingesetzt wird oder eingesetzt werden könnte. Welche Daten werden verwendet? Wer hat Zugriff auf die Tools? Welche Inhalte werden generiert und wo werden sie veröffentlicht? Diese Analyse sollte auch die Compliance-Vorgaben des nDSG und gegebenenfalls der FINMA (für Finanzdienstleister) berücksichtigen.
Basierend auf dieser Analyse müssen Sie klare interne Richtlinien für die Nutzung von KI-Tools entwickeln. Diese Richtlinien müssen für alle Mitarbeitenden verbindlich sein und regelmässig überprüft und aktualisiert werden. Ein zentraler Punkt ist die Schulung: Jeder, der mit KI arbeitet, muss die Risiken verstehen und die Regeln kennen. Dies umfasst auch das Bewusstsein für die Möglichkeit, dass KI-generierte Inhalte von Dritten missbraucht werden könnten.
⚠️ Warnung: Nicht auf "gesunden Menschenverstand" verlassen
Verlassen Sie sich nicht darauf, dass Mitarbeitende "schon wissen", was erlaubt ist und was nicht. Die Komplexität von KI und die Grauzonen bei Deepfakes erfordern explizite Anweisungen und regelmässige Schulungen. Ein fehlendes, klar kommuniziertes Regelwerk ist ein Compliance-Risiko, das im Falle eines Vorfalls teuer werden kann. Die Gerichte zeigen hier wenig Nachsicht, wenn es um digitale Gewalt geht.
Technologisch können Schweizer KMU auf bewährte Ansätze setzen. Ich empfehle oft eine RAG-Architektur (Retrieval-Augmented Generation) mit Open-Source-Frameworks wie LangChain oder LlamaIndex. In Kombination mit einem Vector-DB auf einem Schweizer Hoster wie Infomaniak und LLM-APIs von vertrauenswürdigen Anbietern (Infomaniak AI oder OpenAI Enterprise) lässt sich eine kontrollierte und nachvollziehbare Content-Generierung realisieren. Dies minimiert das Risiko, dass die KI unerwünschte oder gar illegale Inhalte generiert, da der Zugriff auf die Datenbasis klar definiert und eingeschränkt ist.
Ein weiterer entscheidender Punkt ist die Dokumentation. Halten Sie fest, welche KI-Tools Sie einsetzen, wie die Richtlinien lauten, wer geschult wurde und wie Sie die Einhaltung überwachen. Im Falle eines Vorfalls können Sie so nachweisen, dass Sie alle zumutbaren Massnahmen ergriffen haben, um die Verbreitung illegaler Inhalte zu verhindern. Dies ist ein wichtiger Schutzschild gegenüber rechtlichen Anschuldigungen.
✅ Empfehlung: Externe Expertise nutzen
Gerade bei der Implementierung von KI-Governance und Compliance-Massnahmen kann externe Expertise wertvoll sein. Ein spezialisierter Partner kann Sie dabei unterstützen, die Risiken zu identifizieren, massgeschneiderte Richtlinien zu entwickeln und Ihre Mitarbeitenden zu schulen. Dies spart interne Ressourcen und stellt sicher, dass Sie auf dem neuesten Stand der Technik und Gesetzgebung sind. Denken Sie an die Roadmap-Entwicklung: Starten Sie mit Quick Wins, um sofortige Lücken zu schliessen, und planen Sie dann die mittelfristige Prozessoptimierung und langfristige Transformation.
Die Investition in präventive Massnahmen ist keine Ausgabe, sondern eine Investition in die Zukunft und die Sicherheit Ihres Unternehmens. Die Kosten für die Implementierung solider Governance-Strukturen sind in der Regel deutlich geringer als die potenziellen Bussgelder und Reputationsschäden, die ein einziger Deepfake-Vorfall verursachen kann.
Fazit
Das EU-Verbot von Deepfake-Software ist ein Weckruf für Schweizer KMU. Es macht deutlich, dass die ethische und rechtlich einwandfreie Nutzung von KI keine Option, sondern eine Notwendigkeit ist. Wer jetzt handelt, schützt nicht nur die eigene Reputation und die Finanzen, sondern positioniert sich auch als zukunftsfähiger und vertrauenswürdiger Akteur im digitalen Markt.
✅ **Verstehen Sie die Risiken:** Deepfakes sind eine reale Bedrohung mit potenziell hohen rechtlichen und reputativen Kosten. Ignorieren ist keine Strategie.
✅ **Handeln Sie proaktiv:** Erstellen Sie klare Richtlinien, schulen Sie Ihre Mitarbeitenden und auditieren Sie Ihre KI-Tools regelmässig. Setzen Sie auf transparente und kontrollierbare Architekturen.
✅ **Sichern Sie Ihre Compliance:** Stellen Sie sicher, dass Ihre KI-Nutzung nicht nur das nDSG, sondern auch indirekt relevante EU-Vorgaben einhält, insbesondere wenn Sie im europäischen Raum tätig sind.
Sie sind unsicher, wie Sie die Risiken in Ihrem Unternehmen bewerten und die richtigen Massnahmen ergreifen können? Wir bei schnellstart.ai unterstützen Schweizer KMU dabei, KI sicher und effizient zu implementieren. Kontaktieren Sie uns für eine unverbindliche Erstberatung, um Ihre spezifischen Herausforderungen zu besprechen und eine massgeschneiderte Strategie zu entwickeln. Sprechen Sie mit uns.
Verwandte Artikel
Newsletter
Wöchentliches Briefing zu Schweizer AI & Deep Tech.
