KI im Arbeitsschutz – Wer haftet, wenn’s schiefläuft?
- MAQSIMA TMS

- 29. Juli
- 2 Min. Lesezeit
Künstliche Intelligenz (KI) verändert aktuell viele Arbeitsbereiche – auch den Arbeitsschutz. KI-gestützte Systeme unterstützen Fachkräfte beim Erstellen von Gefährdungsbeurteilungen, Betriebsanweisungen oder der Dokumentation von Maßnahmen. Die Effizienz steigt, und der Zugang zu Informationen wird leichter. Doch bei aller Begeisterung für die Technik darf ein zentraler Punkt nicht übersehen werden:
Die rechtliche Verantwortung bleibt beim Arbeitgeber.

1. Arbeitgeberpflichten sind nicht delegierbar
Gemäß § 3 ArbSchG ist der Arbeitgeber verpflichtet, die erforderlichen Maßnahmen des Arbeitsschutzes zu treffen. Diese Pflicht beinhaltet insbesondere die Auswahl, die Delegation und die Kontrolle aller relevanten Maßnahmen des Arbeitsschutzes, sowohl organisatorischer als auch technischer Art. Die Auswahl der erforderlichen Maßnahmen können nicht an eine Software oder ein KI-System übertragen werden – auch nicht, wenn dieses fundierte Vorschläge macht oder rechtliche Hinweise liefert. Die Nutzung intelligenter Assistenzsysteme entbindet nicht von der Sorgfaltspflicht zur Prüfung der Rechtskonformität.
2. KI-Anbieter haften in der Regel nicht
Viele KI-Tools arbeiten auf Basis von Wahrscheinlichkeiten und liefern Informationen „nach bestem Wissen“. Doch rechtlich verbindlich sind diese Informationen in der Regel nicht – und die Haftung für etwaige Fehler wird meist in den AGB ausgeschlossen. Die Verantwortung und das Risiko verbleiben vollständig beim Anwender.
3. Risiko durch unkritisches Vertrauen
Wer KI-generierte Inhalte ungeprüft und ohne fundierte Kenntnis des staatlichen und autonomem Arbeitsschutzrechts übernimmt, handelt fahrlässig. Kommt es zu einem Unfall oder einer behördlichen Prüfung, kann dies schwerwiegende strafrechtliche Konsequenzen nach sich ziehen.
Handlungsempfehlungen für einen sicheren Umgang mit KI im Arbeitsschutz
Damit KI ein nützliches Werkzeug bleibt – und kein Risiko darstellt –, empfehlen wir:
KI als Assistenz sehen, nicht als Entscheidungsträger
Alle Inhalte fachlich prüfen und validieren – z. B. durch Sicherheitsfachkräfte, Betriebsärzte oder Juristen
Transparente Dokumentation: Welche Informationsquellen wurden genutzt? Wie wurde die Entscheidung begründet?
Vertrauen Sie auf Systeme mit Expertenunterstützung im Hintergrund, wie MAQSIMA TMS: Unser System kombiniert moderne digitale Funktionen mit fachlich geprüften Inhalten und praxisnaher Unterstützung durch erfahrene Experten.
👉 Fazit: Digitale Unterstützung, menschliche Verantwortung
KI kann den Arbeitsschutz digitaler machen – aber nicht automatisch sicherer. Nur mit fachlicher Prüfung, nachhaltiger Dokumentation und klaren Verantwortlichkeiten bleibt der Arbeitsschutz wirksam und rechtskonform.
Denn Verantwortung lässt sich nicht an Algorithmen delegieren.




Kommentare