Sprachmodelle als Commodity, Hardware als Gatekeeper

Wenn uns die lang erwartete WWDC-Konferenz vor zwei Wochen eines klar gemacht hat, dann Folgendes: Hardwarehersteller wie Apple werden die Gatekeeper für Sprachmodelle sein, während die Sprachmodelle wie ChatGPT, Claude oder Gemini zur austauschbaren Commodity werden.

Klang OpenAI-CEO Sam Altman noch optimistisch, als Apple die Partnerschaft mit dem jungen Startup aus San Francisco angekündigt hatte, so war diese Meldung für Altman gleich getrübt durch die Nachrichten, dass Apple auch mit Meta und Anthropic in Verhandlung stand, um deren Sprachmodelle ebenso zu integrieren. Apple Intelligence ist für Apple somit nicht mit OpenAI gleichzusetzen.

Der Grund ist logisch: auch wenn heute ChatGPT das mächtigste Sprachmodell ist, so folgen die anderen in den Fußstapfen. Für die Endbenutzer werden die Unterschiede kaum mehr wahrnehmbar sein und eher von persönlichen Vorlieben und Gewohnheiten geprägt sein. So wie manche heute Google, Bing oder DuckDuckGo verwenden, oder die einen Google Office und die andere Microsoft Office wählen.

Viel wichtiger wird werden, welche dieser Sprachmodelle die Hardwareanbieter als Standard vorgeben und welche Zugriff auf Apple-Geräte-Daten und Apps haben werden. Bei Suchmaschinen haben wir nun gelernt, dass Google jährlich zwanzig Milliarden Dollar an Apple zahlt, damit Google auf den Apple-Geräten die Standardsuchmaschine ist.

Die Gatekeeperfunktion wird Apple noch mehr Marktmacht übergeben, und sie müssen gar nicht ihre eigenen Sprachmodelle entwickeln. Diese sind nämlich nicht nur mit viel Aufwand zu erstellen und betreiben, sie bedrohen durch ihre Halluzinationen auch schnell mal die eigene Reputation, wie Google und OpenAI lernen mussten.

Apple hingegen kann sich als neutraler Schiedsrichter positionieren, der allen Sprachmodellanbietern die Möglichkeit gibt, unter bestimmten Voraussetzungen auf ihren Geräten betrieben zu werden. Sollten Verstöße wahrgenommen werden, also ein Sprachmodell den eigenen Regeln zuwiderhandeln, dann kann das Sprachmodell schnell ausgeschlossen werden. In etwa so, wie wir das bereits bei mobilen Apps im App-Store erleben.

Natürlich macht es Sinn, wenn Apple auch sein eigenes Sprachmodell entwickelt, das für spezielle Aufgaben designt ist und Zugriff auf alle Daten der Apple-Geräte haben wird. Dieses wird eher im Hintergrund laufen und nahtlos integriert sein und könnte als eine Art „Zwischenmodell“ zu anderen Modellen und Apps dienen.

Auch andere Hardwareanbieter wie Tesla mit den Autos oder dem kommenden Tesla Bot Optimus, oder ein Startup wie Figure, werden in eine ähnliche Position kommen. Denn sie bestimmen, welche KI-Software in ihren Robotern zum Einsatz kommen werden. Und deren Roboter werden eine neue Kategorie an Produkten für Endkonsumenten werden.

Einige Softwarefirmen werden auch in eine ähnliche Rolle wie die Hardwareanbieter treten. Nämlich solche wie SAP, die weitverbreitete Unternehmensoftware bei ihren Kunden installiert haben. SAPs KI-Strategie sieht die Neutralität bei Sprachmodellen vor, die Unternehmen einsetzen können, wie es der deutsche Softwaregigant das schon bei Datenbanken oder Betriebssystemen vorgemacht hat. Auch wenn eine neutrale Position eingenommen wird, die eigene Software wird oft zuerst und vorrangig auf einigen wenigen Datenbanken und Betriebssystem erstellt und optimiert, die anderen folgen erst später.

Die Marktmacht wird bei den Hardwareanbietern bleiben, die Anbieter von Sprachmodellen werden die Rolle von Commodity-Anbietern einnehmen, in der sie ständig gefordert sein werden, sich von den anderen abzugrenzen.

Kommentar verfassen