EU AI Act: Schulungspflicht für Kommunen

Viele Kommunalverwaltungen nutzen KI-Anwendungen, ohne dass ihre Mitarbeitenden nachweislich dafür unterwiesen sind. Genau das aber schreibt der EU AI Act als verbindliches Recht vor — und wer den tatsächlichen Umfang der KI-Nutzung im eigenen Haus nicht kennt, kann diese Pflicht schlicht nicht erfüllen. Die ML Gruppe, seit über 35 Jahren exklusiver Bildungspartner der Bundeswehr und spezialisiert auf Schulungsprojekte in Großorganisationen, beobachtet dieses Muster inzwischen auch in Kommunalverwaltungen. Verstöße gegen den AI Act können mit Bußgeldern von bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes geahndet werden.

Das eigentliche Problem liegt tiefer als die Frage nach genehmigten Systemen. Was in der Privatwirtschaft unter dem Begriff Shadow AI diskutiert wird, ist längst auch in Behörden Realität. Mitarbeitende nutzen öffentliche KI-Plattformen für Aufgaben, die sensible Daten berühren, ohne dass die IT-Abteilung oder die Verwaltungsleitung davon weiß. Alles, was Beschäftigte in öffentliche KI-Tools eingeben, verlässt unkontrolliert die Organisation — Kundendaten, Vertragsinhalte, interner Schriftverkehr. Eine internationale Erhebung unter mehr als 3.500 Wissensarbeitern zeigt, dass 78 Prozent offen zugeben, KI-Tools zu nutzen, die ihr Arbeitgeber nicht genehmigt hat.

Der Unterschied zu klassischer nicht genehmigter Software ist dabei entscheidend. Während ungenehmigte Software lokal bleibt, fließen bei KI-Tools Daten an externe Server ab — in der Regel ohne DSGVO-konforme Grundlage, ohne Verarbeitungsvertrag, ohne Kontrolle. Für Kommunen, die täglich mit personenbezogenen Daten von Bürgerinnen und Bürgern arbeiten, ist das ein strukturelles Haftungsrisiko, kein theoretisches.

Eine weitere Dimension betrifft Verwaltungen, die Open-Source-Modelle wie LLaMA, Mistral oder DeepSeek auf eigener Infrastruktur betreiben wollen. Die Kontrolle, die proprietäre Systeme beim Anbieter belassen, liegt dann vollständig beim Betreiber — ein Vorteil, aber nur dort, wo die technische und rechtliche Kompetenz dafür vorhanden ist.

Die zentrale Herausforderung ist damit nicht die Technologieentscheidung selbst, sondern der kompetente Umgang damit. KI-Modelle liefern Ergebnisse, die plausibel klingen, aber falsch oder unvollständig sein können. Wer das nicht erkennt, trifft auf Basis von KI-Outputs Entscheidungen, ohne es zu wissen. Für Behörden, deren Bescheide Rechtswirkung haben, ist das keine abstrakte Gefahr.

Die ML Gruppe hat auf diese Lage reagiert und ein Schulungspaket entwickelt, das die Anforderungen des AI Act für Mitarbeitende mit KI-Berührungspunkten abdeckt. Der Ansatz setzt bewusst nicht auf einmalige Unterweisungen, sondern auf kontinuierlichen Kompetenzaufbau — praxisnah, auf die jeweiligen Arbeitsrealitäten zugeschnitten und in Präsenz, als E-Learning oder als Blended Learning verfügbar. Der EU AI Act macht genau das zur Pflicht: nachweisbarer Kompetenzaufbau, der Mitarbeitende in die Lage versetzt, KI-Ergebnisse kritisch zu beurteilen, Risiken zu erkennen und den Einsatz rechtssicher zu steuern. (DEKOM, 11.05.2026) Originalartikel hier…

Druckausgabe

Abonnieren oder Kündigen