Viele große und Jedes noch so kleine Unternehmen im Silicon Valley scheint mit nichts anderem beschäftigt zu sein, als die KI-Revolution voranzutreiben. Fast täglich kommen neue große Sprachmodelle mit noch erstaunlicheren Fähigkeiten auf den Markt, nur um schon weniger später von den nächsten Weiterentwicklungen wie alter Hut zu wirken.
Nur ein ganz großer Player scheint da nicht mitzumachen. Weil sie nicht wollen? Oder weil sie es nicht können? Ich spreche von Apple, aktuell immerhin mit 3,5 Billionen Dollar Marktbewertung die wertvollste Firma der Welt. Bislang konnte Apple kein eigenes Sprachmodell vorweisen, und auch Apple Intelligence ist bislang von Problemen geplagt. Ebenso kann Apple GPU-mäßig wenig vorweisen und mit der Einstellung der Entwicklung von autonomen Autos im vergangenen Jahr wurde die größte KI-verwandte Eigeninitiative sang- und klanglos beendet.
Doch Apple glänzte nicht immer damit, der First Mover zu sein uns als Erster mit einem Produkt oder einer Produktkategorie auf den Mark zu kommen. Doch sobald Apple ein Produkt vorstellt, verändert es zumeist die Art und Weise, wie wir sie bislang betrachtet haben.
Genau dieses Gefühl erlaubt uns ein erster Blick auf einen ausdrucksstarken und niedlichen Lampenroboter, den Apple-Maschinenlernforscher in einem Paper vorstellen. Unter dem bezeichnenden Titel ELEGNT: Expressive and Functional Movement Design for Non-Anthropomorphic Robot („ELEGNT: Ausdrucksstarkes und funktionales Bewegungsdesign für nicht-menschenähnliche Roboter„) beeindruckt das beigestellte, vierminütige Video einer Lampe, die stark angelehnt an die allseits bekannte Lampe des Animationsstudios PIXAR, mit den Benutzern interagiert, auf Gesten reagiert und sich entsprechend bewegt. Nicht nur das, die Lampe wirkt ausgesprochen menschlich und niedlich, was durch ihre ausdrucksstarken Reaktionen hervorgerufen wird.
Die Lampe selbst ist mit mehreren Aktuatoren ausgestattet, sodass sie sich drehen und ihren Arm dort hinbewegen kann, wo Licht benötigt wird. Auch hat sie eine Kamera eingebaut, um Objekte zu erkennen, sowie ein Mikrophon und Lautsprecher, mit dem sie dank einem Chatbot auch mit Menschen sprechen zu können. Das LED-Licht selbst kann auch als Projektor dienen, aber dazu komme ich gleich noch.
Im Video werden mehrere Szenarien gezeigt, wie die Lampe ihren Lichtstrahl abhängig von den erkannten Aufgaben der Benutzerin dorthin richtet, wo Licht benötigt wird. In einem Szenario erkennt sie, dass ein Objekt mit dem iPhone fotografiert werden soll und beleuchtet das Objekt. Die Lampe erkennt aber auch, wenn sie eine Aufgabe nicht ausführen kann, wenn sie sich dazu außerhalb ihrer Reichweite bewegen müsste. Sie kann auch die Benutzerin daran erinnern, dass sie ein Glas Wasser trinken soll, wenn sie zu lange gelesen hat. Nachdem die Benutzerin den Becher wieder abgestellt hat, richtet die Lampe ihr Licht wieder auf das Buch aus. In einem weiteren Beispiel hilft die Lampe der Benutzerin bei einer Aufgabe, indem sie ein Tutorial mit einer Anleitung an die Wand projiziert. Im letzten „sozialen“ Beispiel spielt die Lampe Musik ab und bewegt sich rhythmisch dazu.
Diese Lampe erinnert ein anderes Video, bei der die Interaktion einer Fotografin mit ihrem Fotoapparat gezeigt wird. Dieser ist auf einem Gimbal montiert, bewegt sich frei, folgt ihren Gesten, nickt zustimmend oder dreht sich um und wirkt dabei ebenfalls sehr menschlich und ausdrucksstark.
Wir sehen aus diesen Beispielen, dass verkörperte KI nicht unbedingt immer eine humanoide Roboterform annehmen müssen, sondern sich fast alle Objekte in unserem Haushalt und Arbeitsplatz eignen könnten, KI-gesteuert animiert zu werden. Das Bügeleisen und die Waschmaschine sind nur zwei Anwendungen, von denen ich schon in diesem Beitrag gesprochen habe.
Apple fügt mittels KI nicht nur wirklich nützliche Funktionen in einen uns so alltäglich erscheinenden Gegenstand wie der Lampe hinzu, ihr werden auch noch ausdrucksstarke und niedliche Eigenschaften ermöglicht. Diese erleichtern den Menschen mit solchen Alltagsgegenständen umzugehen und fügen zugleich ein Entzücken bei deren Benutzung hinzu.
Wir dürfen gespannt sein, welche anderen alltäglichen Gegenstände Apple und andere mit KI in ähnlich nützlicher und ausdrucksstarker Weise erweitern werden.

