Zuerst gewinnt AlphaGo gegen den regierenden Go-Weltmeister. Dann büchst ein maschinenlernender Roboter aus, und das gleich zweimal. Und die künstliche Intelligenz in einem Online-Videospiel beginnt systematisch die menschlichen Spieler zu eliminieren. Ein Chatbot wird rassistisch. Ein künstliches System besiegt einen erfahrenen Kampfpiloten bei einem simulierten Luftkampf. Und nun verursacht der Tesla-Autopilot einen tödlichen Unfall.
Einzelfälle? Zufälle? Nicht mehr! Künstliche Intelligenz ist nicht nur verbreiteter als wir meinen, sie ist auch fortgeschrittener als wir denken. Apples Siri, Amazons Vorschlagsalgorithmen, Googles Suchmaschine, Microsofts Chatbot. Sie alle basieren auf KI-Systemen mit denen wir bereits heute interagieren ohne uns es bewusst zu werden. Noch besetzen sie Nischen, aber dort sind sie bereits besser als Menschen. Und bringen diese auf ein kognitiv höheres Niveau.
Für uns Menschen bedeutet das, dass uns Maschinen lehren, aber dass wir nicht mehr alles verstehen. Vor allem wie sie zu manchen Entscheidungen kommen. Oxford-Philosophieprofessor Nick Bostrom zitiert in seinem Buch Superintelligenz mehrere Beispiele aus der Wissenschaft, die uns unsere Grenzen aufzeigen, zugleich aber wie KI-Systeme uns darüber hinweghelfen können.
Beispiel 1: In einem Beispiel aus dem Elektronikbereich wurde ein KI-System dazu verwendet Hardwaredesigns zu optimieren. Dabei schlug das System ein Design vor, das ohne einer internen Uhr auskam. Normalerweise ist eine Uhr ein absolut notwendiges System für ein Frequenzunterdrückungssystem. Ohne der Uhr war der Schaltkreis um Faktor eins oder zwei kompakter als bisherige Entwürfe. Das System nutzte dabei physische Eigenschaften in recht unorthodoxer Art und Weise aus, indem üblicher als Störungen betrachtete Effekte wie beispielsweise elektromagntische Kupplungen dazu verwendet wurden, die Uhr zu ersetzen.
Beispiel 2: Ein Oszillator musste ohne den an sich notwendigen Kondensator auskommen. Als das KI-System den Wissenschaftlern die Lösung präsentierte, verwarfen sie diese als unmöglich. Erst bei näherer Betrachtungen erkannten sie, dass die Lösung aus den bestehenden Teilen einen Radioempfänger kreiiert hatte, bei dem die Schaltkreise Signale aufnehmen und verstärken konnten, die von anderen elektronischen Geräten in der Umgebung (wie Computer) ausgesandt wurden. Das KI-System konnte diese Signale verwenden, um das gewünschte oszillierende Signal zu erzeugen.
Beispiel 3: In diesem Fall schlug das System ein Design vor bei dem es erkennen konnte, ob die Platine von einem Oszillator überprüft wurde, oder ob ein Lötkolben eingeschalten war.
Was uns als ungeahnte neue Möglichkeiten erscheinen mag, ruft bei anderen aber Bedenken hervor. Unsere Verständnis für und die Akzeptanz von Entscheidungen beruht in vielen Fällen auf der Nachvollziehbarkeit von Schlussfolgerungen. Was sind die Regeln und welche Entscheidungen werden getroffen und führen zu welchen Endergebnissen?
Einfach gesagt funktioniert Künstliche Intelligenz wie Stille Post. Man flüstert dem Nachbarn etwas ins Ohr. Der Nachbar wiederum flüstert das was er verstanden hat seinem nächsten Nachbarn ins Ohr bis der Letzte laut ausspricht, was er glaubt dass ihm gesagt wurde. Zum Vergnügen aller kommt am Ende oftmals etwas vollständig anderes heraus als vom ersten geflüstert wurde. Mit Künstlicher Intelligenz wird Stille Post etwas komplizierter. Jedem Teilnehmer in der Reihe wird nicht nur von einer Person etwas eingeflüstert, sondern von mehreren gleichzeitig. Aus dem Gesagten muss der Empfänger Sinn machen und entscheiden, was er nun wiederum weitersagt und wem seiner Nachbarn. Man erhöhe die Anzahl der beteiligten Personen auf tausend oder gar eine Million, und es wird beinahe unmöglich vorherzusagen, was am Ende raus kommen wird.
Ein maschinell lernendes System trifft Entscheidungen aufgrund von Wahrscheinlichkeiten. Von vielen Wahrscheinlichkeiten. Jeder Knotenpunkt hat einen kleinen, aber eventuell wichtigen Einfluss. Wie schon beim Schmetterlingseffekt in der Chaostheorie, wo der Flügelschlag eines Schmetterlings auf der anderen Seite des Globus einen Wirbelsturm auslösen kann, wird es für uns unverständlich, wie sich die einzelnen Knotenwahrscheinlichkeiten auf das Endresultat auswirken. Menschen fällt es schwer das zu akzeptieren, basiert doch die ganze Wissenschaft oder das öffentliche auf nachvollziehbaren Entscheidungen.
Wie aber reagieren wir, wenn ein autonomes Fahrzeug eine Entscheidung trifft, die wir nicht verstehen, und die möglicherweise Menschen gefährdet? Die Trolley-Problematik fällt uns selbst schon schwer genug zu lösen, und unter Umständen erwarten wir klare Regeln und Entscheidungskriterien, um uns rechtlich abzusichern. Die Gesetzgebung kann für vorhersehbare Fälle Vorschriften erlassen, die eindeutige Entscheidungen zulassen. Wie wir aber schon mit der Rentnerin im Elektrorollstuhl die eine Entenfamilie verjagt gesehen haben, ist die Wirklichkeit viel komplexer und unvorhersehbarer. Ein von künstlicher Intelligenz gesteuertes autonomes Fahrzeug muss darauf reagieren und Entscheidungen treffen können.
Genau diese Befürchtungen hindern Automobilbauer an der zügigen Entwicklung von selbstfahrenden Fahrzeugen. Berichte von selbst beschleunigenden Fahrzeugen trafen in der Vergangenheit unter anderem Audi und Toyota. Immerhin ist ein Auto die größte bewegliche und nach dem Eigenheim die zumeist zweitteuerste Anschaffung, die Menschen tätigen. Man stelle sich nun einen zweitonnigen Roboter vor, der autonom unterwegs ist und solch ein Verhalten zeigt. Gepaart mit der Klagefreudigkeit und den potenziellen hohen Schadenersatzforderungen gehen die traditionellen Hersteller extrem vorsichtig vor.
Dem gegenüber stehen Unternehmen wie Tesla und Google, deren Wurzeln in der Digitalbranche liegen, wo es gang und gäbe ist Verbesserungen und Funktionserweiterungen über die Zeit nachzuliefern. Das erklärt auch die Vorgehensweise von Tesla, die mittels Over-the-air-Update an tausende bereits ausgelieferte Fahrzeuge die Autopilotfunktionalität übermittelte.
Europäische Unternehmen hingegen sind nicht nur hinten nach, weil sie nur sehr langsam die Möglichkeiten erfassen, Gesetzesvorlagen könnten Anstrengungen für die kommerzielle Nutzung von KI-System massiv einschränken. In einem Entwurf vom April 2016 limitieren die Gesetzgeber sogenanntes ‘automatisierte, indivituelle Entscheidungsfindung’. Diese Gesetzestexte zielen vor allem auf Internetgrößen wie Facebook und Google, die heute bereits solche Algorithmen für die Platzierung von Werbung benutzen. Dabei übersehen die EU-Gesetzgeber aber wieder einmal die Chancen und fokussieren sich messerscharf vor allem auf die Nachteile.
Wie auch immer unsere Ängste und Hoffnungen zu KI-Systemen lauten, sie sind bereits hier und sie werden nicht mehr weggehen.
2 Gedanken zu “Denkende Maschinen sind weiter als Du denkst”