
Alexandra Ciarnau und Axel Anderl, Kanzlei Dorda
©FOTO: WOLFGANG WOLAKWelche Bestimmungen des KI-Gesetzes in Unternehmen zu beachten sind.
Seit 2. Februar dieses Jahres ist die Nutzung von KI-Systemen in der EU rechtsverbindlich durch den AI ACT geregelt, Anbieter wie Anwender müssen sich daran halten. Damit sollen für den Menschen nachteilige Auswirkungen verhindert werden. Vier Risikoklassen – minimal, begrenzt, hoch und inakzeptabel – wurden definiert, Unternehmen müssen ihren KI-Einsatz dahingehend bewerten. Inakzeptabel bzw. verboten sind KI-Anwendungen, die menschliches Verhalten ausnutzen oder Menschen manipulieren. Das Abwägen ist nicht immer leicht, vor allem wenn Kunden- oder Mitarbeiterdaten im Spiel sind.
Axel Anderl, Managing Partner der Kanzlei Dorda, bringt ein Beispiel: „Gerade in der Sales-Analyse kann man KI sehr gut einsetzen. Redezeit und Inhalte von Kunde und Verkäufer werden besser analysiert und automatisiert ein Mail nachgeschickt, mit dem man Defizite ausgleichen kann. Das gibt es bereits, und damit werden bessere Abschlusszahlen erzielt. Dieser KI-Einsatz ist aber vorab zu prüfen.“ Bei fehlender Emotionserkennung ist das kein Fall von Hochrisiko-KI. Wer solche KI-Produkte verwendet, muss aber darauf hinweisen.
Der AI Act verpflichtet Unternehmen noch zu etwas anderem: KI-Literacy sicherzustellen. „Personal und alle sonstigen eingebundenen Personen, Dienstleister, Freelancer oder andere Dritte, müssen die Grenzen des KI-Systems verstehen und wissen, wie sie damit umgehen sollen“, sagt die auf KI spezialisierte Anwältin Alexandra Ciarnau von Dorda. Aber: „Wie diese Fähigkeiten aussehen müssen, ist im Gesetz nicht genau definiert.“ Ein Erwerb von Zertifikaten ist nicht nötig. KI-Literacy im Unternehmen sollte eine Selbstverständlichkeit sein, eigentlich als Teil ordentlicher Betriebsführung gesehen werden.
In den nächsten zwei Jahren werden im Jahresrhythmus weitere Bestimmungen des AI Act schlagend. Bei gravierenden Verstößen drohen hohe Bußgelder. Ab 2. 8. 2026 gilt zudem die Transparenzpflicht gegenüber Nutzern des KI-Systems auch für jene Ergebnisse, die mit General-Purpose-AI, also ChatGPT & Co., entstanden sind.