Als Mary Shelley als 20-jährige ihren Roman ‘Frankenstein’ schrieb, traf sie den Nerv der Zeit. Das Phänomen der Elektrizität, das tote Froschbeine zu wilden Zuckungen brachte, hatte die Vorstellungskraft der Menschen angeregt. Im Nachhinein erscheint es wenig verwunderlich, dass phantasievolle Dichter sich dem Phänomen annehmen würden und eine Romanfigur erschaffen, der durch diese geheimnisvolle Kraft Leben eingehaucht würde.
Jede neue Technologie verleitet uns dazu, natürliche Systeme oder Technologie durch andere Technologie zu beschreiben. Als mechanischen Maschinen in unsere Welt traten, erklärten wir die Bahnen der Planeten und Sterne in mechanischer Weise. Mit Elektrizität verglichen wir die Funktionsweise des Gehirnes. Das Internet wurde von einem US-Senator mit der Funktionsweise von Rohren und Leitungen in einer Abflussinstallation beschrieben.
Mit künstlicher Intelligenz kommt nun eine weitere Technologie auf uns zu, die Laien, ähnlich wie schon Elektrizität zu Zeiten Mary Shelleys, nur wenig verstehen und der fast schon mythische Kräfte angedichtet werden. Wie schon das eigentlich falsch verstandene Monster aus Frankensteins Schöpfung die Verkörperung der Elektrizität darstellte, so symbolisiert der bedrohliche Terminator die KI.
Dabei eignen sich die Grundlagen der künstlichen Intelligenz, wie das Maschinenlernen, andere Prozesse zu beschreiben. Solche Analogien erlauben uns gelegentlich einen anderen Blick auf einen vermeintlich gut bekannte Tatsache zu werfen. Im vorliegenden Fall können wir die Demokratie einer solchen Analogie mit der KI unterziehen. Und wie sich herausstellt, sind einige der Ähnlichkeiten verblüffend. Doch analysieren wir dazu mal die einzelnen Komponenten der KI.
Maschinenlernen
Beim aktuellen Stand des Maschinenlernens (ML) sind große Mengen an Daten als Information notwendig, die in den einzelnen, mehrschichtig und parallel angeordneten Knoten des neuronalen Netzes durch Algorithmen in den einzelnen Knoten aus den Daten Informationen filtern, umwandeln, und an andere Knoten zur Verarbeitung weiterreichen. Sind sie einmal durch alle Knoten durch spuckt das Maschinenlernsystem ein Ergebnis aus, das dann von menschlichen Testern bewertet wird. Jede Bewertung des Ergebnisses durch Menschen dient dem System als Feedback, das damit durch ein neuerliches Bearbeiten dieser und neuer Daten die Parameter in den Algorithmen der einzelnen Knoten anpasst und damit das Ergebnis Schritt-für-Schritt besser machen soll.
Mit diesem Ansatz sind heute große Mengen an Daten (Informationen) notwendig, um das System entsprechend einzustellen, oder, wie es genannt wird, zu trainieren. Er eignet sich deshalb dort gut, wo bereits große Datenmengen vorliegen, wie beispielsweise große Mengen an Katzenbildern im Internet, sofern man das System auf die Erkennung von Katzen trainieren will, oder sie erzeugen kann, wie beispielsweise durch das Fahren mit autonomen Testfahrzeugen auf Teststrecken oder öffentlichen Straßen im regulären Verkehr.
Zur Bewertung, wie gut das Maschinenlernsystem trainiert ist, dient beispielsweise die Erkennungsrate von Objekten in Bildern. In wie viel Prozent der Fällen hat die KI die Katze richtig erkannt? Und wie steht diese Erkennungsrate zu menschlichen Vergleichswerten? Dabei sind beim Training des System für die KI-Experten mehrere Klippen zu umschiffen.
Das beginnt mit den Daten, die entsprechend ausgewählt und kuratiert werden müssen, um alle Eventualfälle mit einer ähnlich hohen Rate zu erkennen. Sind beispielsweise in den Trainingsdaten für die Gesichtserkennung überproportional viele Gesichter mit heller Hautfarbe vertreten, dann liegt die Erkennungsrate bei dunkelhäutigen Gesichtern üblicherweise unter dem Durchschnitt. In der Branche wird das als ‘Bias’, also als Verzerrung oder Vorurteil bezeichnet. Die Bezeichnung ist nicht zufällig gewählt, kommt dieser Begriff doch in der Psychologie und Verhaltensforschung zum Einsatz, wenn von den verschiedensten Arten von kognitiven Bias, auf deutsch kognitive Verzerrung, gesprochen wird. Unser eigenes fehlerhaftes Denken, Wahrnehmen, Erinnern und Urteilen fließt automatisch und für viele unbewusst in die Daten ein, mit denen KI-System trainiert werden.
Die schlechte Nachricht dabei ist, dass wir Bias nie aus einem KI-System kriegen werden. Wir können ihn zwar reduzieren, aber haben damit immer die Gefahr, dass wir ihn dadurch woanders verstärken.
Andere Schwierigkeiten ergeben sich darin, wie stark das Maschinenlernsystem die Parameter in den Algorithmen der einzelnen Knoten anpassen darf. Darf es zu wenig ändern, dann wird das System starr und kann auf bereits leichte Änderungen in den Informationen aus dem Tritt gebracht werden. Das System wurde ‘overfitted’, also sehr auf bestimmte Daten optimiert. Der umgekehrte Fall tritt auf, wenn die Parameter zu viel automatisch angepasst werden dürfen. Dann kann die Bandbreite des Verhaltens bei denselben oder sehr ähnlichen Daten zu groß ausfallen, und das System reagiert nicht mehr vorhersehbar und zu überraschend.
Die Gemeinsamkeiten mit der Demokratie
Maschinenlernen und Demokratie haben somit gewisse Ähnlichkeiten. Beide haben eine große Zahl an Akteuren, die Informationen weiterreichen und beeinflussen. Entscheidungen geschehen durch die Zusammenarbeit der vielen Teilnehmer. Im Maschinenlernen sind das die Knoten, in der Demokratie die Wähler und Entscheidungsträger, aber auch Institutionen und andere Organisationen. Beide Systeme sind verhältnismäßig wenig hierarchisch und sie leiden unter denselben Schwächen. Wie die Informationen weitergereicht werden, und wie flexibel oder starr sie darauf reagieren, machen sie mehr oder weniger wirksam. Die Anpassung der Parameter in den neuronalen Knoten entspricht dem natürlichen Ab- und Zugang in demokratischen Institutionen. Geschieht kein Austausch, keine Anpassung, dann wird das System zu starr und kann mit neuen und abweichenden Informationen nur mehr beschränkt effektiv umgehen. Sind zu viele Ab- und Zugänge, dann geht das Institutionelle Wissen und Netzwerk verloren, das auch wieder zu Ineffizienzen führt.
Das sind die eher technischen Aspekte, in denen sich Maschinenlernen und Demokratie ähneln. Wo sie aneinander geraten ist der Moment, wo künstliche Intelligenz in demokratische Prozesse eingreift. KI-Systeme mit Bias – und der ist wie schon erwähnt nie völlig auszumerzen – kann Wähler benachteiligen oder vom demokratischen Prozess abhalten. Wenn beispielsweise Minderheiten nach Hautfarbe, Geschlecht oder ethnischer Herkunft durch solche Systeme stärker kriminalisiert oder sonst wie benachteiligt werden, dann wirkt sich das negativ auf den demokratischen Prozess und deren Repräsentation aus, und damit auch die Behandlung solch systemischer Benachteiligungen durch Bias.
Diktaturen, die zumeist hierarchisch aufgebaut sind, können in stabilen Umgebungen sehr effizient Informationen verarbeiten und Entscheidungen treffen. Es müssen nicht alle Gruppen in den Entscheidungsprozess eingebunden werden. Diese Art entspricht der deterministischen KI, wie sie in der Anfangszeit bis vor zwei Jahrzehnten entwickelt worden war. Man gab sie aber auf, weil die Entscheidungsbäume zu komplex und zu krisenanfällig wurden. Jede Entscheidung war von den KI-Experten vorgedacht worden. Information, die nicht im Baum vorgedacht worden war, führte zu einem Problem.
Diktaturen werden bei der Konfrontation mit Unsicherheit rasch ineffizient, wie beispielsweise die Fünfjahrespläne der Sowjetunion zeigten. Neue Technologien und Nachfragen konnten nicht vorhergesehen werden und führten zu einem Versorgungsmangel, der sich kaskadierend auf alle Bereiche des Systems ausweitete. Auch tendieren solch hierarchische Systeme wie eben Diktaturen dazu, zwar sehr wohl an Information interessiert zu sein – immerhin bespitzelt man gezielt alles und jeden und baut dafür einen riesigen Apparat auf – doch wird unliebsame, nicht in die Ideologie passende Information ignoriert oder der Lieferant solcher Information vernichtet.
Die Gegensätzlichkeiten
Der Vorteil der KI, wie wir sie heute erleben, ist zugleich auch ihr größter Nachteil. In Bereichen, wo keine ausreichenden Datenmengen vorhanden sind oder geschaffen werden können, funktioniert sie suboptimal. Auch tendieren wir Menschen dazu, Informationen und Muster aus den Informationen, die wir als außerhalb unser Erwartungen oder Erfahrungen liegend erkennen, durch neue Denkrahmen oder Modelle von einer anderen Seite zu betrachten. Wir hinterfragen die Daten, indem wir versuchen Kausalitäten, also die Gründe für deren Abweichung, zu erkennen. Die heutige KI ist nicht imstande, solche Kausalitäten zu erkennen, neue Denkmodelle zu entwickeln, oder selbst solche Analogien zu erstellen, wie sie selbst kleine Kinder spielerisch im Pretend-Play machen können. Ein Holzstückchen wird schnell mal zum Auto, eine Himmelserscheinung zum UFO mit Außerirdischen. Eine KI, die nur Katzen erkennen kann, weiß nicht mal, was eine Katze ist und wozu sie dient. Geschweige denn hat sie Ahnung von Hunden, Blättern, der Sonne oder dem Wind.
Die Denkrahmen und die Analogien, die somit KI-Systeme verwenden, sind von Menschen vorgegeben. Und Menschen füttern sie mit den von Menschen erzeugten und ausgewählten Daten. Demokratische Systeme hingegen können dank der menschlichen Akteure genau diese Anpassungen an den Denkrahmen und Modellen vornehmen, und neue Informationen heranschaffen, wenn die vorhandenen Daten und die Ergebnisse die Herausforderungen nicht mehr bewältigen können.
Demokratien sind darin besonders gut, jedenfalls besser als Diktaturen. Abweichende Meinungen, Erfahrungen und Informationen werden in Diktaturen unterdrückt, und in Demokratien wenn schon nicht gefördert, so doch geduldet. Damit bleiben wichtige Perspektiven und Erfahrungen dem System erhalten, die bei Änderungen und Unsicherheiten in den Umgebungsbedingungen vom Rand in die Mitte gespült werden und dank ihrer Eigenschaften Ansätze für die neuen Herausforderungen beinhalten können. Eine Demokratie erhält solche Art von Informationen und Denkrahmen, wenn auch oft eher zufällig, Diktaturen hingegen versuchen sie aktiv zu zerstören. KI selbst weiß nicht mal über diese Konzepte Bescheid.
Die Optimierung der Demokratie
Nun versuchen vor allem Mathematiker Ansätze zu schaffen, die die Schwächen der demokratischen Systeme durch entsprechende Algorithmen wenn schon nicht ausmerzen, so doch optimieren sollen. So wird an der Harvard University seit diesem Jahr ein solcher Kurs von der School of Engineering and Applied Sciences angeboten. Waren schon in den ersten Demokratien in Athen männliche und erwachsene Bürger der Stadt zu Wahlen zugelassen, die dabei auch noch anwesend sein mussten, und Frauen oder Sklaven nicht mit entscheiden konnten, so war auch die US-Demokratie zuerst mal auf Männer beschränkt. Und die erhielten dann nach je nach der Zahl Sklaven in ihrem Eigentum beziehungsweise in ihrem Bundesstaat, entsprechende Wahlanteile.
Nun ist Demokratie allerdings kein Optimierungsproblem wie in der Mathematik. Viele demokratischen Systeme sind ganz bewusst mit bestimmten Bias aus unterschiedlichsten Gründen konstruiert worden. Das Wahlmännersystem in den USA, wie auch schon in Großbritannien gibt einer Mehrheitspartei größere Stimmenanteile, mit dem Wunsch, rascher eine funktionsfähige Regierung zu schaffen. In den einzelnen Wahlkreisen erhalten die Gewinner dann alle Mandate. In anderen Ländern herrscht eine stärkere Repräsentation auf Stimmen, die öfter zu Koalitionen und damit zu einer Kompromissnotwendigkeit führen soll. Damit werden. Weitere Möglichkeiten des demokratischen Bias sind vorstellbar und eingesetzt. So werden gewisse Regionen oder Metropolen aufgrund ihrer Wirtschaftskraft oder nicht wahlberechtigten Bevölkerungsanteilen, wie beispielsweise eine große Anzahl von Kindern, stärker bevorzugt als andere.
Conclusio
Wir sehen schon, Maschinenlernen und KI erlauben uns, einen frischen Blick auf die Funktionsweise von demokratischen Systemen zu werfen. Das Zusammenspiel der demokratischen Akteure ähnelt an manchen Stellen dem neuronaler Netzwerke. Die Methoden, die ML/KI-System verbessern, könnten einen Ansatz für Demokratien bilden. Und sie schärfen dank der Unzulänglichkeiten heutiger KI unseren Blick auf die eigentlichen Stärken von Demokratien und was umgekehrt KI und ML von Demokratien lernen können.
Podcast Tipp
Der theoretische Physiker Sean Carroll sprach mit seinem Gast Henry Farrell im Mindscape-Podcast über dieses Thema und hat diese Beitrag inspiriert