Vier Menschen vor einem Computerbildschirm
Bei der Einführung von KI müssen Teams aus Spezialisten verschiedener Fachrichtungen zusammenarbeiten. Adobe Stock / Robert Kneschke

Künstliche Intelligenz in Kommunen? Klingt gut – aber kompliziert

17.04.2025

Immer mehr Städte wollen Künstliche Intelligenz, kurz KI, einsetzen – doch der Weg zur erfolgreichen Integration ist komplex und vielschichtig. Ethische Bedenken, wie diskriminierende KI, besondere technische Anforderungen bei der Implementierung und organisatorische Widerstände stellen Kommunen vor neue Aufgaben. Dieser Beitrag bietet einen praxisnahen Einblick für Verwaltungen, die KI verantwortungsvoll einsetzen wollen,

Main content

Das Aufkommen vielseitiger KI-Modelle wie YOLO (Echtzeit-Bilderkennung, zum Beispiel zur Verkehrsüberwachung) und GPT-4 (Textverarbeitung, zum Beispiel für Chatbots), die mit geringem Umschulungsaufwand in verschiedenen Kommunen genutzt werden können, hat die Einstiegshürden für die Implementierung von KI erheblich gesenkt. Laut Umfragen setzen 8 % der deutschen Kommunen bereits KI-Lösungen ein, während etwa zwei Drittel KI-Potenziale erkennen und sie zukünftig für verschiedene Anwendungsfälle nutzen möchten.

Doch damit KI einen wirklichen Mehrwert schafft, müssen Kommunen ethische, technische und organisatorische Fragen lösen. Der Weg zu einer erfolgreichen KI-Integration, erfordert strategisches Vorgehen und ein tiefes Verständnis der Chancen und Risiken.

Von traditioneller Software zur KI: Neue Aufgaben für Kommunen

Der Einsatz von Softwarelösungen in Kommunen ist schon lange kein „Neuland“ mehr. KI-Anwendungen stellen die meisten Verwaltungen aber vor neue Herausforderungen, die sich grundlegend von der klassischen Softwareeinführung unterscheiden.

Traditionelle Softwaresysteme folgen klaren, vorhersehbaren Logiken: Entwickler definieren exakte Handlungsanweisungen, das Programm führt diese dann präzise aus. KI-Systeme hingegen funktionieren anders: Sie werden mit großen Datenmengen trainiert, können Muster erkennen, Vorhersagen treffen und sich selbstständig verbessern.

Diese Unterschiede erfordern spezialisierte Teams aus Data Scientists und Softwareingenieurinnen und -ingenieuren, die die Entwicklung und/oder Optimierung von KI-Modellen übernehmen und auch deren Integration in bestehende IT-Infrastrukturen und Arbeitsabläufe garantieren. Dabei müssen sie die Qualitätssicherung von Trainingsdaten gewährleisten, die Skalierung von KI-Anwendungen ermöglichen und eine ausreichende Nachvollziehbarkeit von Entscheidungen bieten – besonders in kommunalen Verwaltungsprozessen, wo Transparenz von entscheidender Bedeutung ist. Sie benötigen dafür leistungsstarke Hardware und müssen die Systemleistung kontinuierlich mit Metriken wie Präzision und Recall testen.

Die Präzision eines KI-Systems beschreibt, wie genau die vom System getroffenen positiven Vorhersagen tatsächlich korrekt sind. Eine hohe Präzision bedeutet, dass wenige falsche Ergebnisse geliefert werden. 

Der Begriff Recall erklärt dabei, wie gut ein KI-System alle relevanten Informationen findet. Stellen Sie sich vor, Sie suchen alle Anträge zu Grundsteuern in einem riesigen Dokumentenarchiv. Der Recall misst, wie viele dieser Anträge das System tatsächlich korrekt identifiziert – je höher der Wert, desto vollständiger die Suche. 

Ein besonders wichtiger Aspekt in Kommunen ist die erklärbare KI (XAI). XAI-Techniken wie LIME (Local Interpretable Model-agnostic Explanations) oder SHAP (SHapley Additive exPlanations) bieten Möglichkeiten, die Entscheidungswege von KI-Modellen transparent zu machen. Diese Methoden zeigen beispielsweise, welche Faktoren eine KI bei einer Entscheidung besonders gewichtet hat – etwa welche Merkmale bei der Bewertung eines Bauantrags eine Rolle spielten. Solche Methoden sind nicht nur technisch relevant, sondern auch aus juristischer und politischer Sicht bedeutsam. Sie ermöglichen es Kommunen, KI-Entscheidungen transparent zu begründen und rechtlich abzusichern – etwa gegenüber Aufsichtsbehörden oder im Dialog mit der Stadtgesellschaft.

Türe in Amsterdam mit Schlüsselfächern
Die Stadt Amsterdam setzt ein erklärbares KI-Modell ein, um Verdachtsfälle illegaler Ferienvermietung zu priorisieren. stock.adobe.com - Lucia Tieko

Ein Beispiel für eine erklärbare KI ist ein System in Amsterdam, das die Stadtverwaltung bei der Priorisierung von Verdachtsfällen illegaler Ferienvermietung unterstützt. Die KI analysiert vergangene Fälle und hilft dabei, eingehende Meldungen nach Relevanz zu ordnen. Sie trifft keine Entscheidungen, sondern zeigt nur auf, welche Fälle mit höherer Wahrscheinlichkeit illegal sind. Transparenz wird hier durch die Offenlegung von Datensätzen und die Modellarchitektur gewährleistet – diskriminierende Faktoren wie Nationalität oder Geburtsort werden allerdings nicht einbezogen.

Nutzende wie die Bürgerschaft oder kommunale Mitarbeitende werden bei der KI-Einführung und ihrer kontinuierlichen Weiterentwicklung dann auch im Laufe der Zeit zu Mitwirkenden, indem sie Daten und Feedback liefern. Etwa bei einer KI-gestützten Chatlösung für das Bürgeramt, die auf Basis der Anfragen laufend verbessert wird.

Risiken bei der KI-Integration: Ethik, Technik und organisatorisch

Der Einsatz von KI bringt vielschichtige Herausforderungen mit sich. Ethische Bedenken wie algorithmische Voreingenommenheit, mangelnde Transparenz und Datenschutz stehen speziell in der EU im Vordergrund.

Analysiert KI etwa Bürgerfeedback, könnten Verzerrungen bestimmte Gruppen benachteiligen – ein Verstoß gegen den Gleichbehandlungsgrundsatz. 

Praktisch fehlt es Kommunen dazu oft an maschinenlesbaren, rechtlich nutzbaren Daten, KI-Expertise, finanziellen Mitteln und Zeit. 

Technisch ist die Integration in veraltete Systeme komplex, und die Abhängigkeit von großen Datenmengen riskant, wenn diese unzureichend sind oder schlecht verwaltet werden – etwa wenn sich Bürgerverhalten, demographische Daten oder Umweltbedingungen ändern und die KI mit veralteten Daten ungenaue Ergebnisse liefert.

Auch organisatorisch kann es Widerstände und Hemmnisse geben: Mitarbeitende fürchten Jobverluste, empfinden Digitalisierungsfrust oder misstrauen automatisierten Systemen. Fehlt Führungskräften das nötige KI-Verständnis, erschwert dies die Verantwortungsübernahme. Zudem können vage Ziele, fehlende Absprachen mit Beteiligten oder unrealistische Erfolgsmaßstäbe, die nur technische Aspekte wie schnellere Prozesse hervorheben, dabei aber Auswirkungen auf Abläufe und die Zivilgesellschaft als solche ignorieren, KI-Projekte zum Scheitern bringen. 

Keine klaren kommunalen KI-Strategien oder Leitlinien erschweren die Umsetzung zusätzlich.

 

Stadtansicht Hamburg
Die Freie und Hansestadt Hamburg hat im Jahr 2024 zehn Leitlinien zu KI und Daten aufgestellt. adobe.stock.com - Jonas Weinitschke

Algorithmische Voreingenommenheit (Bias) bezeichnet die Tendenz von KI-Systemen, ungewollt diskriminierende Muster zu reproduzieren oder produzieren. Wenn ein Algorithmus die Verteilung von Instandhaltungsmaßnahmen für öffentliche Infrastruktur plant und dabei Meldedaten von digitalen Mängelmeldern berücksichtigt, könnten Stadtteile mit höherer digitaler Affinität (typischerweise wohlhabendere Viertel) überrepräsentiert sein. Stadtteile mit weniger digitalen Meldungen, die möglicherweise einen größeren objektiven Bedarf an Instandhaltungsmaßnahmen haben, würden vernachlässigt. Dies verstärkt bestehende soziale Ungleichheiten im kommunalen Kontext. 

Kamera zur Verkehrsbeobachtung
Kameras können zur Analyse des Verkehrsflusses eingesetzt werden, ohne personenbezogene Daten zu erfassen – etwa durch anonymisierte Fahrzeugzählungen statt Gesichtserkennung. stock.adobe.com - Daria

Datenschutzrisiken (zum Beispiel bei der Gesichtserkennung) sowie unzureichende Regeln zur Datenverwaltung (Data Governance) fehlen in Kommunen oft. Das schränkt die Nutzung zusätzlich ein und birgt etliche rechtliche Risiken. Beispielsweise setzen viele Städte auf KI-basierte Systeme, um den Verkehrsfluss zu analysieren und um Ampelschaltungen dynamisch anzupassen – und das, ohne auf datenschutzkritische Technologien wie die Gesichtserkennung zurückzugreifen. Stattdessen werden anonymisierte und aggregierte Verkehrsdaten genutzt, beispielsweise Fahrzeugzählungen und Geschwindigkeitsmessungen.

Weitere Risiken: unzureichende Datenqualität, fehlende Expertise, hohe Kosten und überkomplexe Lösungen, die Betriebskosten steigern. KI-Modelle verlieren durch sich ändernde Datenmuster an Leistung, wenn Monitoring und Retraining fehlen. Ein Beispiel wäre eine KI, die soziale Bedarfe in der Stadtentwicklung auf Basis veralteter Bevölkerungsstrukturen prognostiziert und dadurch ungeeignete Maßnahmen vorschlägt.

Zu viel Autonomie ohne Aufsicht führt zu unkontrollierten Fehlern und mangelnde Protokolle für unsichere Vorhersagen gefährden kritische Entscheidungen. Der Ressourcenverbrauch von Rechenzentren kann zusätzlich Nachhaltigkeitsziele gefährden und sollte daher mit in etwaige Kosten-Nutzen-Erwägungen aufgenommen und stets berücksichtigt werden.

 

Modernes Rechenzentrum
Bei der Einführung von KI in Kommunen sollten diese berücksichtigen, dass das Training von KI-Modellen oft hohe Ressourcen in Rechenzentren verbraucht und Nachhaltigkeitsziele gefährden kann. adobe.stock.com - аska

Erste Schritte zur erfolgreichen KI-Nutzung in Kommunen

Kommunen sollten mit kleinen Projekten starten – etwa KI-gestützte Übersetzungen – und den Mehrwert mit klaren, realistischen KPIs (Key Performance Indicators) prüfen. Geeignete KPIs könnten beispielsweise die Reduktion der Bearbeitungszeit von Anfragen, die Genauigkeit der Übersetzungen oder die Nutzerzufriedenheit nach der Implementierung der KI-Lösung sein. Solche Kennzahlen ermöglichen es den Verantwortlichen in Kommunen, den Erfolg der KI-Einführung messbar zu machen und darauf aufbauend dann gezielt zu optimieren.

Abbildung von Gebäuden von oben
Mit der Anwendung „KI-Gebäudeerkennung“ werden automatisch neue Gebäude gefunden. Landesamt für Geoinformation und Landesvermessung Niedersachsen

Das Landesamt für Geoinformation und Landesvermessung Niedersachsen setzt seit 2022 KI zur Erkennung von Gebäudearten ein. Das System identifiziert automatisch Neubauten und Abrisse auf Luftbildern. Nach erster Einschätzung kann eine Person mit KI-Unterstützung die Arbeit von 2 bis 4 Personen ohne KI bewältigen.

Strategisch lohnt es sich, unterstützt durch rechtliche Bewertungen und Risikoanalysen vorab Prozesse zu identifizieren, die optimierbar sind. Begleitende Schulungen, Workshops und externe Expertise fördern zudem Akzeptanz und Ideen rund um die KI-Einführung. Technisch braucht es dazu robuste Datengrundlagen und eine Integration, die Altsysteme mit einbezieht. Ein Minimum Viable Product (MVP) – also eine erste funktionsfähige, aber noch nicht vollständige KI-Lösung – ermöglicht es sodann, KI-Anwendungen in der Praxis zu testen, Feedback einzuholen und Anpassungen vorzunehmen, bevor sie flächendeckend ausgerollt werden.

Das sogenannte Moravecʼsche Paradox verdeutlicht die Stärken und Grenzen von KI: Während Menschen Aufgaben wie abstraktes Denken oder motorische Steuerungen in wechselnden Umgebungen mühelos bewältigen, fällt KI dies schwer. Umgekehrt kann KI in klar strukturierten Bereichen wie Mustererkennung, Textverarbeitung oder Datenanalyse herausragende Leistungen erbringen.

KI sollte daher gezielt in Prozessen eingesetzt werden, wo sie menschliche Fähigkeiten sinnvoll ergänzt – sei es durch automatisierte Dokumentenanalyse, bei der Energiesteuerung oder der Bilderkennung. Dabei ist ein klar definiertes „Human-in-the-Loop“-System essenziell. Das bedeutet, dass Menschen die KI-Ergebnisse in festgelegten Intervallen überprüfen und steuern. Diese Überprüfung kann stichprobenartig oder kontinuierlich erfolgen, je nach Risiko und Relevanz des Prozesses. Technisch kann dies durch Dashboards mit erklärbaren KI-Vorhersagen, Warnsystemen bei Unsicherheiten oder doppelten Prüfmechanismen umgesetzt werden.

2 Screenshots
Die Social-Media-Plattform „DorfFunk“ verfügt über eine KI-gestützte Moderationshilfe, die mit einem klaren Plan, inwieweit die KI alleine entscheidet, implementiert wurde. Fraunhofer-Institut für Experimentelles Software Engineering IESE

Für die KI-Inhaltsmoderation auf „DorfFunk“ wurde eine dreistufige Autonomie-Roadmap entwickelt: In Version 1 werden Beiträge veröffentlicht, während die KI niedrige Risikobewertungen nur für manuelle Meldungen kennzeichnet und bei höheren Werten die Administratoren alarmiert. 

Version 2 führt ein, dass hochriskante Inhalte automatisch versteckt, aber wiederherstellbar bleiben. 

Der Zielzustand in Version 3 sieht vor, dass bei wiederholten problematischen Beiträgen eine Mustererkennung automatisch Nutzerbeschränkungen implementiert. Diese schrittweise Erhöhung der KI-Autonomie zeigt, wie sich verantwortungsvolle Kontrollsysteme gestalten lassen.

Ausblick: KI sinnstiftend und nachhaltig gestalten

KI-Investitionen und die Nutzbarkeit von KI in unterschiedlichen Handlungsfeldern wächst, technische Hürden bei der Einführung nehmen dabei immer weiter ab. Kommunen sollten also proaktiv handeln, etwa durch Schulungen, interkommunale Kooperationen und den regelmäßigen Blick ins Ausland. Entscheidend ist für alle Kommunen, ethische, praktische und organisatorische Aspekte auszubalancieren, um KI verantwortungsvoll für Bürgerinnen und Bürger einzusetzen. Denn KI kann Kommunen unterstützen – doch nur mit einem klaren Konzept, guter Kommunikation und dem verantwortungsbewussten Einsatz.

Kommunen sollten daher jetzt die Chancen nutzen, durch gezielte Schulungen und interkommunale Zusammenarbeit ein solides Fundament für den KI-Einsatz zu schaffen. Ein proaktiver Umgang mit den Herausforderungen und eine kontinuierliche Anpassung der KI-Strategien sind entscheidend, um langfristig erfolgreich zu sein.

 

Namentlich gekennzeichnete Beiträge geben die Meinung der Autorin oder des Autors wieder. 

 

Literaturhinweise und Leselinks

KI-Strategie der Stadt Linz (Österreich) 

Leitlinie KI und Daten der Freien und Hansestadt Hamburg

Künstliche Intelligenz in der Smart City: Innovative KI-Anwendungen für die Stadtentwicklung, Studie der Begleitforschung des Förderprogramms Modellprojekte Smart Cities, im Erscheinen. Weitere Informationen 

Aufzeichnung Webinar "KI in Smart Cities" von Lutz Eichholz, Fraunhofer-Institut für Experimentelles Software Engineering IESE

Mehr aus dem Smart City Blog

Von Chatbots bis zur Stadtplanung: Generative KI in der Verwaltung

#2 Wissenssnack: Künstliche Intelligenz (KI) in Stadtentwicklung und Verwaltung

#3 Wissenssnack: KI in der Verwaltung – Leitlinien im Überblick

Autorinnen und Autoren

Lutz Eichholz

Fraunhofer-Institut für Experimentelles Software Engineering IESE
Smart City Design; Blog- und Studienautor