Credit: AdobeStock_1060099709

Künstliche Intelligenz aus rechtlicher Sicht: Die KI-Verordnung, der sogenannte AI Act, der Europäischen Union erlegt Unternehmern bestimmte Pflichten auf. Gleichzeitig entstehen für sie auch unterschiedliche Haftungsrisiken.

Künstliche Intelligenz (KI) verändert das Wirtschaftsleben, den Alltag der Menschen und die Gesellschaft als Ganzes. Dies wurde spätestens im November 2022 klar, als das US-amerikanische Unternehmen OpenAI sein Sprachmodell ChatGPT veröffentlichte.
Um KI ranken sich viele Mythen, die zu überzogenen und zum Teil falschen Erwartungen führen. Einerseits geht es um fantastische Einsatzfelder, wenn eine Superintelligenz im Handumdrehen alle Probleme löst, an denen Menschen bislang scheitern.
Bisweilen noch dramatischer werden andererseits die Gefahren der KI-Nutzung diskutiert. Dazu gehören zum Beispiel:

  • gesellschaftlich unerwünschte Anwendungen, wie Emotionserkennung am Arbeitsplatz oder in Schulen
  • düstere Prognosen über Arbeitsplatzverluste durch KI. Eine Studie der amerikanischen Investmentbank Goldman-Sachs errechnete einen angeblichen Verlust von bis zu 300 Millionen Arbeitsplätzen weltweit. Die Substanz dahinter: fraglich
  • Sorgen vor der Entstehung einer Superintelligenz, wie wir sie aus Science-Fiction-Filmen kennen. Bei dieser Debatte müssen wir uns allerdings vor Augen halten, dass es keine KI mit Bewusstsein oder Empathie gibt. Die künstlichen neuronalen Netze, die hinter vielen KI-Anwendungen stehen, haben trotz aller Rechenpower nicht annähernd die Leistungsfähigkeit des menschlichen Gehirns.

Vor diesem Hintergrund hat die Europäische Union (EU) beschlossen, die Entwicklung und Nutzung von KI zu regulieren. Grundlage ist der sogenannte AI Act, der am 21.5.2024 vom Rat beschlossen wurde.

Der EU AI Act (KI‑VO): Pflichten des Unternehmens

Zentrales Regelwerk ist die Verordnung (EU) 2024/1689 („KI-Verordnung“), deren Artikel 4 eine Pflicht zur Sicherstellung von KI-Kompetenz normiert. Diese gilt risikounabhängig für sämtliche Unternehmen, die Künstliche Intelligenz beruflich einsetzen.
Die Unternehmen werden dadurch zu folgenden Maßnahmen verpflichtet:

  • Schulung von Personal in technischen, rechtlichen und ethischen Aspekten
  • Einrichtung von Kontroll- und Dokumentationssystemen (Governance)
  • risikobasierte Auswahl und Überwachung der eingesetzten KI-Tools

Ein praxiserprobter Ansatz zur Erfüllung der KI-VO besteht im sogenannten Drei-Säulen-Modell:

  1. KI-Kompetenz aufbauen
    Mitarbeitende müssen Risiken, Funktionsweise und Grenzen der verwendeten Systeme verstehen.
  2. Compliance sicherstellen
    Interne Richtlinien, Prüfprozesse und Freigabeprozeduren sind erforderlich.
  3. Governance verankern
    Die Einführung eines KI-Beauftragten oder interdisziplinären Gremiums wird empfohlen.

KI und Arbeitsrecht

Gerade im Arbeitsverhältnis kann der KI-Einsatz zu erheblichen rechtlichen Risiken führen. Arbeitgeber haften für Fehler ihrer Beschäftigten – und damit auch für Fehlentscheidungen durch KI-gestützte Prozesse. Die typischen Problemlagen dabei sind:

  • Diskriminierung im Bewerbungsprozess (z. B. durch unreflektierte Anwendung KI-basierter Auswahltools)
  • Verstöße gegen Datenschutzrecht, insbesondere Art. 22 Datenschutz-Grundverordnung (DSGVO; automatisierte Einzelentscheidungen)
  • Haftungsfragen bei Urheberrechtsverstößen, wenn zum Beispiel durch KI-generierte Inhalte fremde Werke genutzt werden.

Unternehmen müssen durch geeignete Organisation, Schulung und technische Sicherungdiesen Risiken begegnen.

Haftung nicht zu unterschätzen

Der Einsatz von Künstlicher Intelligenz in Logistikunternehmen eröffnet nicht nur erhebliche Effizienzpotenziale, er ist zugleich mit einer Vielzahl haftungsrechtlicher Risiken verbunden. Diese betreffen sowohl die individuelle Verantwortung der Beschäftigten als
auch die Organisations- und Überwachungspflichten der Unternehmensleitung.

1. Persönliche Haftung von Arbeitnehmern
Arbeitnehmer können persönlich haften, wenn durch die Nutzung von KI-Systemen Rechtsverletzungen entstehen, etwa:

  • Urheberrechtsverletzungen: zum Beispiel Verwendung urheberrechtlich geschützter Software, Bilder oder Texte ohne erforderliche Nutzungsrechte
  • Datenschutzverstöße: zum Beispiel unzulässige Verarbeitung personenbezogener Daten im Sinne der DSGVO durch fehlerhafte oder unzulässig konfigurierte KI-Anwendungen
  • Betriebsgeheimnisverletzungen: zum Beispiel Eingabe sensibler Kunden- oder Frachtinformationen in externe KI-Dienste ohne Sicherstellung vertraglicher Geheimhaltungspflichten

2. Haftung des Arbeitgebers

Nach §278 BGB werden Pflichtverletzungen von Arbeitnehmern regelmäßig dem Arbeitgeber zugerechnet. Das Unternehmen
haftet daher gegenüber Dritten für Schäden, die im Rahmen der arbeitsvertraglichen Tätigkeit unter Einsatz von KI entstehen, etwa:

  • falsche Lieferdispositionen infolge fehlerhafter KI-Vorhersagen
  • falsche Zollanmeldungen durch automatisierte Systeme
  • Haftung aus Produkthaftungsgesetz, wenn KI-gestützte Verpackungs- oder Verladeprozesse zu Mängeln führen

3. Innerbetrieblicher Schadensausgleich

Im Verhältnis zwischen Arbeitgeber und Arbeitnehmer gilt der Grundsatz des innerbetrieblichen Schadensausgleichs:

  • Leichte Fahrlässigkeit: keine Haftung des Arbeitnehmers
  • Mittlere Fahrlässigkeit: Schadensteilung zwischen Arbeitgeber und Arbeitnehmer nach Billigkeit
  • Grobe Fahrlässigkeit/Vorsatz: volle Haftung des Arbeitnehmers. Dies gilt auch für Schäden, die durch fehlerhafte oder unbedachte Nutzung von KI-Systemen entstehen

Großes Potenzial für kleinere Unternehmen

Zusammengefasst lässt sich feststellen: Künstliche Intelligenz bietet gerade für kleinere Logistikunternehmen großes Potenzial – von optimierten Touren bis zur Reduktion von Verwaltungskosten. Der rechtskonforme Einsatz erfordert jedoch eine klare Strategie, die technische, organisatorische und rechtliche Komponenten integriert. Wer KI einsetzt, muss Personal schulen, Prozesse dokumentieren und arbeitsrechtliche Haftungsrisiken aktiv managen.

    Share