
Lukas Huber
Founder & AI Strategist
OpenAI will nicht für KI-Schäden haften. Was das für Schweizer KMU bedeutet und wer das Risiko trägt, wenn KI Fehler macht.
Auf einen Blick
- ▸OpenAI lehnt Haftung für KI-Schäden ab.
- ▸Schweizer KMU müssen Risiken bei KI-Einsatz neu bewerten.
- ▸Die Frage der Verantwortlichkeit bei KI-Fehlern ist ungeklärt.
OpenAI, der Entwickler von ChatGPT, möchte nicht für Schäden haften, die seine KI-Systeme verursachen. Diese Meldung aus den USA mag auf den ersten Blick weit entfernt klingen, doch sie hat direkte Implikationen für jedes Schweizer KMU, das Künstliche Intelligenz einsetzen oder in Betracht ziehen will.
Plötzlich steht die zentrale Frage im Raum: Wer trägt das Risiko, wenn ein KI-System einen Fehler macht, der einen Geschäftsprozess stört oder gar einen finanziellen Schaden verursacht? Für Schweizer KMU, die oft mit knappen Ressourcen und strengen Compliance-Anforderungen arbeiten, ist diese Unsicherheit keine Kleinigkeit. Es geht um mehr als nur technologische Implementierung; es geht um die Existenzgrundlage und das Vertrauen Ihrer Kunden.
Der Vorschlag von OpenAI, eine Haftungsbeschränkung für KI-Entwickler gesetzlich zu verankern, verschiebt die Risikobetrachtung massiv. Unternehmen, die auf solche Tools setzen, müssen ihre Strategie überdenken. Das blinde Vertrauen in Standardlösungen wird zum teuren Experiment. Wer jetzt nicht genau hinsieht, riskiert mehr als nur eine Investition – er riskiert die Kontrolle über seine Prozesse und seine rechtliche Absicherung.
📊 Fakten auf einen Blick:
- 45% der Schweizer KMU betrachten KI als Vorteil für ihre Geschäftstätigkeit. (Quelle: kmu.admin.ch, 2025)
- Die durchschnittliche Bearbeitungszeit (AHT) im Call Center soll durch KI um 15% gesenkt werden. (Quelle: Branchenschätzung, 2026)
- Die Suchzeit für Informationen soll um 50% reduziert werden. (Quelle: Branchenschätzung, 2026)
- 40% der Standardanfragen sollen automatisiert bearbeitet werden. (Quelle: Branchenschätzung, 2026)
Welche konkreten Haftungsrisiken bestehen für Schweizer KMU bei der Nutzung von KI-Systemen?
Das Risiko liegt primär bei Ihnen, dem anwendenden KMU. Wenn ein Entwickler wie OpenAI seine Haftung beschränken will, verbleibt der grösste Teil der Verantwortung beim Nutzer des KI-Systems. Dies betrifft eine Reihe von Bereichen, die für Schweizer KMU von entscheidender Bedeutung sind.
Ein zentrales Problem ist die sogenannte "Halluzination" von KI-Modellen. Generative KIs erzeugen manchmal plausible, aber faktisch falsche Informationen. Stellt sich vor, Ihr KI-gestützter Kundenservice-Chatbot gibt einem Kunden eine falsche Auskunft zu Garantiebedingungen oder eine fehlerhafte Produktbeschreibung. Der daraus resultierende finanzielle Schaden, der Reputationsverlust oder die rechtlichen Auseinandersetzungen fallen in Ihren Verantwortungsbereich. Sie haben die Verantwortung, die Richtigkeit der von der KI gelieferten Informationen zu überprüfen, bevor diese an Dritte weitergegeben werden.
Ein weiteres erhebliches Risiko liegt im Bereich des Datenschutzes und der Datensicherheit. Wenn Sie sensible Kundendaten oder interne Geschäftsgeheimnisse in ein KI-System einspeisen, müssen Sie sicherstellen, dass diese Daten ausreichend geschützt sind. Das neue Schweizer Datenschutzgesetz (nDSG) hat die Anforderungen hier massiv verschärft. Ein Datenleck, verursacht durch eine Schwachstelle im KI-Modell oder durch unsachgemässe Handhabung der Daten durch das System, kann zu hohen Bussen und enormem Vertrauensverlust führen. Die Verantwortung für den Schutz dieser Daten liegt bei Ihnen als Datenverantwortlichem, nicht beim Entwickler des KI-Tools.
Man muss auch die Möglichkeit von Diskriminierung und Voreingenommenheit, dem sogenannten "Bias", in Betracht ziehen. KI-Modelle lernen aus den Daten, mit denen sie trainiert werden. Sind diese Daten voreingenommen, spiegelt die KI diese Voreingenommenheit wider. Ein KI-gestütztes Bewerberauswahl-Tool könnte beispielsweise bestimmte demografische Gruppen unbewusst benachteiligen. Oder ein KI-System zur Kreditwürdigkeitsprüfung könnte auf Basis historischer Daten diskriminierende Muster fortsetzen. Solche Vorgehensweisen führen nicht nur zu ethischen Problemen, sondern können auch rechtliche Konsequenzen nach sich ziehen, insbesondere im Kontext des Schweizer Gleichstellungsgesetzes.
Nicht zu unterschätzen sind zudem die operationellen Risiken. Ein KI-System, das in Ihre Kernprozesse integriert ist, kann bei Fehlfunktionen zu Betriebsunterbrechungen, Produktionsausfällen oder Dienstleistungsengpässen führen. Wenn eine KI-gesteuerte Prozessoptimierung in der Logistik plötzlich falsche Routen berechnet oder Bestellungen fehlerhaft verarbeitet, sind die finanziellen und logistischen Konsequenzen direkt bei Ihrem KMU spürbar. Die Wiederherstellung der Systeme und die Schadensbehebung binden nicht nur Ressourcen, sondern können auch die Lieferfähigkeit und damit die Kundenbeziehungen nachhaltig beeinträchtigen.
⚠️ Warnung: Verlassen Sie sich nicht blind auf AGBs!
Standard-Nutzungsbedingungen von grossen KI-Anbietern sind oft darauf ausgelegt, die Haftung des Entwicklers maximal zu beschränken. Prüfen Sie diese Klauseln sehr genau. Eine pauschale Akzeptanz kann Sie im Schadensfall teuer zu stehen kommen. Eine individuelle Anpassung oder die Wahl eines Anbieters, der mehr Verantwortung übernimmt, ist oft die klügere Strategie. Das gilt insbesondere für KMU, die in regulierten Branchen tätig sind oder mit sensiblen Daten arbeiten.
Wie können sich Schweizer KMU gegen potenzielle Schäden durch KI absichern, wenn Entwickler wie OpenAI die Haftung einschränken wollen?
Vorsichtige Planung, klare Verträge und ein tiefes Verständnis der Technologie sind der beste Schutz. Es reicht nicht, einfach eine KI-Lösung zu abonnieren und zu hoffen, dass alles gut geht. Schweizer KMU müssen proaktiv handeln und eine umfassende Strategie zur Risikominimierung entwickeln.
Der erste Schritt ist eine gründliche Analyse der eigenen Rahmenbedingungen. Bevor Sie überhaupt an die Implementierung denken, müssen Sie verstehen, welche Daten Sie haben, welche Prozesse betroffen sein werden und welche Compliance-Anforderungen für Ihr Geschäft gelten. Mein 6-Schritte-Framework für KI-Geschäftschancen beginnt genau hier: mit einer detaillierten internen Analyse. Nur wer seine Ausgangslage kennt, kann die richtigen Use Cases identifizieren und bewerten. Das Fundament muss stimmen.
Wählen Sie Ihre KI-Partner sorgfältig aus. Die AGBs des Anbieters müssen genau unter die Lupe genommen werden. Fragen Sie nach detaillierten Informationen zu den Trainingsdaten, den Sicherheitsmechanismen und den Fehlerbehebungsverfahren. Wenn ein Anbieter seine Haftung stark einschränkt, muss dies ein Warnsignal sein. In solchen Fällen sollten Sie überlegen, ob eine massgeschneiderte Lösung, die von spezialisierten AI-Freelancern oder lokalen Partnern entwickelt wird, nicht die bessere Wahl ist. Hier haben Sie oft mehr Einfluss auf die Vertragsgestaltung und die Haftungsfragen. Ein Beispiel dafür ist die Professionalisierung eines Demo-Bots durch Schweizer AI-Freelancer, wie wir es in Projekten schon erfolgreich umgesetzt haben – das System ist funktionsfähig und wird nur noch produktionsreif gemacht, mit klarer Verantwortung.
Intern ist die Implementierung eines robusten Anforderungskatalogs unerlässlich. Dieser Katalog muss nicht nur Business-Anforderungen wie "AHT um 15% senken" oder "Suchzeit um 50% reduzieren" umfassen, sondern auch detaillierte technische und vor allem rechtliche Anforderungen. Jede Anforderung sollte eine Priorität erhalten, beispielsweise mit der MoSCoW-Methode. Im regulierten Banking-Umfeld, wo FINMA und nDSG klare Regeln setzen, trennt MoSCoW Pflicht von Kür perfekt. "Must-Have"-Anforderungen müssen alle Compliance-Vorgaben umfassen. Ohne diese gehen Sie nicht live.
Etablieren Sie zudem klare interne Richtlinien für den Umgang mit KI-Systemen. Wer ist für die Überprüfung der KI-Outputs verantwortlich? Welche Prozesse sind notwendig, um Fehler zu identifizieren und zu korrigieren? Human-in-the-Loop-Ansätze, bei denen menschliche Experten die Entscheidungen der KI überwachen und validieren, sind oft unverzichtbar. Das gilt besonders bei kritischen Geschäftsprozessen oder der Bearbeitung sensibler Daten. Eine solche Governance-Struktur minimiert nicht nur das Risiko, sondern schafft auch Vertrauen bei Mitarbeitern und Kunden.
| Merkmal | Standard SaaS KI (z.B. OpenAI) | Massgeschneiderte KI-Lösung (lokal entwickelt) |
|---|---|---|
| Haftung im Schadensfall | Primär beim Nutzer (KMU), da Anbieter Haftung oft stark beschränken. | Kann vertraglich klar zwischen KMU und lokalem Entwickler (z.B. Schweizer AI-Freelancer) geregelt werden. |
| Kontrolle über Daten | Datenverarbeitung durch Drittanbieter; Hosting oft ausserhalb der Schweiz/EU. | Volle Kontrolle über Datenhaltung (Schweizer Hosting möglich) und Verarbeitungsprozesse. |
| Anpassbarkeit | Begrenzte Anpassungsmöglichkeiten an spezifische Unternehmensprozesse und -daten. | Hohe Anpassbarkeit an individuelle Bedürfnisse, Prozesse und Compliance-Anforderungen. |
| Kostenmodell | Oft abonnementbasiert, skalierbar nach Nutzung; initial geringere Kosten. | Höhere Initialinvestition, aber langfristig potenziell effizienter und sicherer. |
| Implementierungszeit | Schnell, da sofort nutzbare Standardlösung. | Länger, da Entwicklung und Anpassung erforderlich; dafür passgenau. |
| Transparenz & Erklärbarkeit | Black-Box-Charakter; wenig Einblick in die Funktionsweise. | Höhere Transparenz, da Entwicklungsprozess und Algorithmen bekannt sind. |
💡 Praxis-Beispiel: Huber Treuhand GmbH
Die Huber Treuhand GmbH stand vor einem Wachstumsdilemma: Steigende Mandatszahlen, aber der interne Wissenstransfer blockierte die Skalierung. Die Einarbeitung neuer Junior-Mitarbeiter band zu viel Kapazität der Senior-Experten – ein klassisches "Onboarding-Dilemma". Lukas Huber und sein Team erarbeiteten hier einen KI-gestützten Ansatz zur Wissensvermittlung und zur Automatisierung von Routineaufgaben. Statt auf eine Black-Box-Lösung zu setzen, wurde die KI so konzipiert, dass sie auf den spezifischen Wissensbestand der Treuhand zugreift und transparente Erklärungen liefert. Das entlastet Senior-Experten und ermöglicht die Skalierung, während die Kontrolle über die Inhalte und die Haftung klar beim Unternehmen bleiben. Dies zeigt, wie eine durchdachte Implementierung Risiken minimiert.
Welche regulatorischen Entwicklungen in der Schweiz und der EU sind für Schweizer KMU im Hinblick auf KI-Haftung relevant?
Die Schweiz zieht nach, die EU prescht vor. Auch wenn die Schweiz nicht Mitglied der Europäischen Union ist, haben die regulatorischen Entwicklungen dort erhebliche Auswirkungen auf Schweizer KMU. Das gilt insbesondere für den geplanten EU AI Act, der weltweit als erster umfassender Rechtsrahmen für Künstliche Intelligenz gilt.
Der EU AI Act verfolgt einen risikobasierten Ansatz. Systeme mit hohem Risiko – beispielsweise in den Bereichen Medizin, Justiz oder kritische Infrastruktur – unterliegen strengen Anforderungen bezüglich Datenqualität, menschlicher Aufsicht, Transparenz und Cybersicherheit. Für Schweizer KMU, die Produkte oder Dienstleistungen in die EU exportieren oder mit EU-Unternehmen zusammenarbeiten, bedeutet dies, dass sie diese Anforderungen erfüllen müssen, auch wenn ihr Hauptsitz in der Schweiz liegt. Die Nichtbeachtung kann zu Marktzugangsbarrieren und hohen Bussgeldern führen. Die FINMA hat beispielsweise bereits angekündigt, die Entwicklungen genau zu beobachten, was für Banken und Finanzdienstleister in der Schweiz von direkter Relevanz ist.
In der Schweiz selbst gibt es noch kein spezifisches KI-Gesetz. Die Diskussionen laufen jedoch intensiv. Es ist absehbar, dass die Schweiz, ähnlich wie beim Datenschutzgesetz, eine eigene, aber eng an die EU angelehnte Regulierung entwickeln wird. Der Bundesrat hat bereits verschiedene Initiativen und Empfehlungen zur Regulierung von KI veröffentlicht. Bis dahin müssen Schweizer KMU auf bestehende Gesetze zurückgreifen. Das neue Datenschutzgesetz (nDSG) spielt dabei eine zentrale Rolle. Es fordert von Unternehmen, die mit personenbezogenen Daten arbeiten, eine hohe Sorgfaltspflicht und Transparenz, was sich direkt auf den Einsatz von KI auswirkt.
Zusätzlich sind allgemeine Haftungsgesetze, das Produkthaftungsgesetz und das Gesetz gegen den unlauteren Wettbewerb (UWG) relevant. Wenn eine KI beispielsweise irreführende Werbung generiert oder ein Produkt aufgrund eines KI-Fehlers mangelhaft ist, können diese Gesetze zur Anwendung kommen. Die Schwierigkeit liegt oft darin, die Kausalität eines KI-Fehlers nachzuweisen und die Verantwortlichkeiten eindeutig zuzuordnen. Dies macht die aktuelle Situation für KMU so unübersichtlich und risikoreich.
💡 Tipp: Proaktive Compliance-Analyse
Warten Sie nicht, bis ein Schweizer KI-Gesetz in Kraft tritt. Führen Sie eine proaktive Compliance-Analyse durch, um zu bewerten, wie Ihre aktuellen oder geplanten KI-Anwendungen mit dem nDSG, dem EU AI Act (falls relevant) und anderen bestehenden Gesetzen übereinstimmen. Priorisieren Sie die identifizierten Massnahmen mit Methoden wie MoSCoW. Stellen Sie sicher, dass alle "Must-Have"-Anforderungen bezüglich Datenschutz, Sicherheit und Transparenz erfüllt sind, bevor Sie eine KI produktiv einsetzen. Das schafft eine solide Basis für die zukünftige Regulierung.
✅ Empfehlung: Investieren Sie in AI-Literacy Ihrer Führungskräfte
Die beste Absicherung gegen unbekannte Risiken ist Wissen. Schulen Sie Ihre Geschäftsleitung und Ihr C-Level-Board in den Grundlagen der KI, ihren Potenzialen und vor allem ihren Risiken. Ein IPSO-Fachausweis in AI Business, wie ich ihn selbst besitze, vermittelt genau dieses praxisnahe Verständnis. Nur wenn Ihre Führungskräfte die Technologie verstehen, können sie fundierte Entscheidungen über Implementierung, Governance und Risikomanagement treffen. Das ist keine technische Aufgabe, sondern eine strategische Notwendigkeit für jedes moderne KMU.
Fazit: Die Haftungsfrage als Weckruf für Schweizer KMU
Die Absicht von OpenAI, die Haftung für KI-Schäden zu beschränken, ist mehr als eine Randnotiz aus dem Silicon Valley. Sie ist ein deutlicher Weckruf für jedes Schweizer KMU, das KI einsetzt oder plant, dies zu tun. Die Zeiten, in denen man sich auf die Haftung des Softwareentwicklers verlassen konnte, sind vorbei. Die Verantwortung für den sicheren und rechtskonformen Einsatz von KI-Systemen liegt zunehmend beim Anwender.
Das bedeutet nicht, dass Sie auf die Potenziale der KI verzichten sollten. Ganz im Gegenteil: Die in der Fakten-Box genannten Effizienzgewinne sind real und für die Wettbewerbsfähigkeit von KMU entscheidend. Es bedeutet aber, dass Sie die Implementierung und den Betrieb von KI-Lösungen mit einer neuen Sorgfalt und einem geschärften Risikobewusstsein angehen müssen. Proaktives Handeln, fundierte Entscheidungen und eine klare Strategie sind jetzt wichtiger denn je.
Hier sind drei zentrale Erkenntnisse, die Sie als Schweizer KMU-Geschäftsführer mitnehmen sollten:
- ✅ Haftungsrisiken verstehen: Erkennen Sie, dass die primäre Haftung bei Ihnen liegt, wenn KI-Systeme Fehler machen, Datenlecks verursachen oder diskriminierende Ergebnisse liefern. Eine genaue Prüfung der AGBs ist unerlässlich.
- ✅ Proaktiv absichern: Setzen Sie auf massgeschneiderte Lösungen, wo sinnvoll, und implementieren Sie robuste interne Richtlinien, eine menschliche Überwachung und einen detaillierten Anforderungskatalog. Eine systematische Herangehensweise, wie unser 6-Schritte-Framework, minimiert Risiken.
- ✅ Regulatorische Entwicklungen im Blick behalten: Achten Sie auf das nDSG und die Entwicklungen rund um den EU AI Act. Eine proaktive Compliance-Analyse schützt Ihr Unternehmen vor zukünftigen rechtlichen Fallstricken.
Gerne unterstütze ich Sie dabei, diese komplexen Fragen zu klären und eine sichere, effiziente KI-Strategie für Ihr Unternehmen zu entwickeln. Sprechen Sie uns an. Kontaktieren Sie uns für ein unverbindliches Erstgespräch.
Häufige Fragen
Warum will OpenAI nicht für Schäden durch KI haften?+
OpenAI hat einen Gesetzentwurf vorgelegt, der sie von der Haftung für Schäden, die durch ihre KI-Systeme verursacht werden, befreien soll.
Welche Auswirkungen hat das auf Schweizer KMU?+
Schweizer KMU, die KI einsetzen, müssen sich mit der Frage auseinandersetzen, wer das Risiko trägt, wenn die KI Fehler macht und Schäden verursacht.
Wer ist verantwortlich, wenn eine KI einen Fehler macht?+
Die Verantwortlichkeit bei Fehlern von KI-Systemen ist eine zentrale und noch ungeklärte Frage, die durch den Vorstoss von OpenAI an Bedeutung gewinnt.
Verwandte Artikel
Newsletter
Wöchentliches Briefing zu Schweizer AI & Deep Tech.