#265 | KI versus Demokratie

Entscheidend für die Demokratie ist nicht, was KI kann – sondern was sie darf.

Ausgabe #265 | 30. Januar 2025

KI versus Demokratie

Vor einigen Jahren führte die Stadtverwaltung von Amsterdam ein KI-gestütztes System ein, um Anträge für soziale Leistungen effizienter zu bearbeiten. Was als innovativer Schritt gefeiert wurde, stellte sich bald als problematisch heraus.

Die Algorithmen bevorzugten unbewusst Antragsteller mit niederländischen Namen und benachteiligten Menschen mit Migrationshintergrund.

Viele ihrer Anträge wurden häufiger abgelehnt oder verzögert bearbeitet. Der Öffentlichkeit wurde erst verspätet klar, dass diese KI auf historischen Daten basierte, die bestehende Ungleichheiten widerspiegelten.

Ein Bericht der Stadtverwaltung enthüllte, dass die Fehlerquote bei bestimmten Gruppen signifikant höher war.

Ein öffentlicher Aufschrei folgte. Menschenrechtsorganisationen forderten eine sofortige Überarbeitung des Systems. Die Stadtverwaltung musste den Algorithmus überarbeiten, um mehr Transparenz und Fairness zu gewährleisten.

Ob wir es wollen oder nicht: Künstliche Intelligenz beeinflusst bereits heute viele unserer Lebensbereiche – oft, ohne dass wir es bewusst wahrnehmen. Sie trifft Vorentscheidungen für uns, filtert Informationen und automatisiert Prozesse.

Doch was bedeutet das für die Demokratie? Warum sollten wir KI aktiv in die Bürgerbeteiligung einbeziehen?

Algorithmen bestimmen mit, was wir lesen, welche Nachrichten wir sehen und welche Produkte wir empfohlen bekommen. Sie können aber auch Entscheidungsprozesse in Politik und Verwaltung beeinflussen – etwa durch Datenanalysen, die Prognosen für Stadtplanung oder Sozialpolitik liefern.

Die große Frage: Wer programmiert diese Systeme? Nach welchen Regeln arbeiten sie? Und wie können wir als Gesellschaft mitbestimmen?

KI kann eine Bereicherung sein – aber nur, wenn sie fair und transparent eingesetzt wird. Wenn Bürgerinnen und Bürger nicht verstehen, wie Entscheidungen zustande kommen, leidet das Vertrauen in politische Prozesse.

Umso wichtiger ist es, dass über KI nicht nur in Expertengremien diskutiert wird, sondern in breiten, öffentlichen Beteiligungsformaten. So können Regeln und Grenzen gemeinsam definiert werden.

Es gibt zahlreiche Beispiele dafür, dass KI ungewollt diskriminierende Entscheidungen trifft. In den USA wurde ein KI-gestütztes System zur Kriminalitätsprognose eingeführt. Es stufte bestimmte Bevölkerungsgruppen häufiger als potenzielle Täter ein.

Das Problem: Die KI orientierte sich an alten Verhaftungsdaten, die bereits bestehende Vorurteile enthielten.

Dieses Beispiel zeigt: Künstliche Intelligenz spiegelt die Daten und Vorurteile wider, mit denen sie gefüttert wird. Sie kann helfen, gerechtere Entscheidungen zu treffen – oder bestehende Ungleichheiten weiter verstärken.

Wer legt fest, was „fair“ ist? Und welche gesellschaftlichen Werte sollen in die Entwicklung einfließen? Ohne Bürgerbeteiligung droht, dass diese Fragen nur von Tech-Konzernen oder Regierungen entschieden werden.

Wenn Bürgerinnen und Bürger frühzeitig in Debatten über KI einbezogen werden, entstehen bessere und gerechtere Systeme. Beteiligungsprozesse können helfen, Transparenz zu schaffen und den Dialog zwischen Expertinnen und der Gesellschaft zu fördern.

Nur so kann verhindert werden, dass Künstliche Intelligenz in einer „Blackbox“ entwickelt wird, deren Mechanismen sich später als problematisch herausstellen.

KI ist kein abstraktes Zukunftsthema, sondern eine real existierende Technologie mit enormer gesellschaftlicher Sprengkraft. Damit sie demokratisch genutzt wird, braucht es eine offene Diskussion – und vor allem Beteiligung.

Bürgerbeteiligung kann hier Brücken bauen: zwischen Technik und Gesellschaft, zwischen Innovation und Verantwortung. Denn eines ist sicher: Künstliche Intelligenz wird unsere Demokratie verändern – die Frage ist nur, in welche Richtung.

Wie kann Bürgerbeteiligung konkret aussehen?

Bürgerforen könnten regelmäßig über den Einsatz von KI in öffentlichen Institutionen beraten und Empfehlungen aussprechen.

Bürgerhaushalte könnten Mittel für KI-Projekte demokratisch verteilen und so über deren Priorisierung mitbestimmen.

Transparente Online-Plattformen könnten es allen ermöglichen, sich über laufende KI-Projekte zu informieren und Feedback zu geben.

Workshops und Bildungsangebote könnten das Verständnis für KI fördern und Bürgerinnen und Bürger befähigen, informierte Entscheidungen zu treffen.

Schließlich könnten ethische Leitlinien für KI durch partizipative Prozesse entwickelt werden – damit nicht nur Technikexperten, sondern die gesamte Gesellschaft über die Regeln entscheidet, die unser digitales Zusammenleben prägen.

Übrigens: Ist es Ihnen aufgefallen?

Kamen Ihnen einige Formulierungen heute merkwürdig vor? Haben Sie einige Begriffe irritiert?

Wenn ja, waren Sie auf der richtigen Spur.

Dieser Text wurde – bis hierhin – vollständig von ChatGPT verfasst. Komplett. Mit nur vier Prompts, in insgesamt sieben Minuten und ohne eine einzige manuelle Änderung.

Das ist beindruckend.

Denn es zeigt, dass KI bereits heute in der Lage ist, komplexe Themen strukturiert aufzubereiten. Aber eben auch ganz eigene Schwerpunkte zu setzen, einige Argumente zu forcieren, andere wegzulassen, dabei eloquent zu erscheinen, aber hin und wieder auch Unsinn zu produzieren.

Ach ja: Und Beispiele bei Bedarf schlicht zu erfinden.

Das macht auch deutlich, warum menschliche Kontrolle und Beteiligung entscheidend sind. Ob und wie dies tatsächlich zukünftig möglich sein wird, steht auf einem anderen Papier.

Klar ist jedoch bereits heute: KI ohne Kontrolle kann uns manipulieren.

In der Bürgerbeteiligung kann KI eine Unterstützung sein – aber sie darf nicht die letzte Instanz der Entscheidung sein. Nicht einmal unhinterfragte Entscheidungsgrundlage.

Transparenz, Reflexion und gemeinschaftliche Diskussion bleiben unverzichtbar. Technische Innovationen oder sogar Disruptionen müssen demokratischer Kontrolle unterliegen.

Und deshalb wird KI auf absehbare Zeit auch keine Grundlage für folgende Newsletter sein. Weder in der Recherche noch in der Formulierung.

Versprochen.

Abonnieren
Benachrichtige mich bei

0 Kommentare
Inline Feedbacks
View all comments
You May Also Like