Konkurrenz für ChatGPT: Warum Elon Musk den Quellcode von Grok freigibt
"Diese Woche wird @xAI den Quellcode von Grok veröffentlichen", schrieb Elon Musk am Montag auf seiner Social-Media-Plattform X. Im Klartext: Entwickler:innen werden eigene Versionen des Chatbots erstellen und Anpassungen am Code vornehmen können. Im Gegensatz dazu bietet OpenAI eine Version von ChatGPT und das Sprachmodell dahinter kostenlos an, hält den Code aber geheim.
Musk hatte sich zuvor kaum zum Geschäftsmodell von Grok oder xAI geäussert, und der Chatbot wurde nur Premium-Abonnenten von X zur Verfügung gestellt. Nachdem er seinen OpenAI-Mitbegründern Anfang des Monats vorgeworfen hatte, ein Versprechen, die künstliche Intelligenz des Unternehmens zu verschenken, gebrochen zu haben, war Musk möglicherweise der Meinung, er müsse seinen eigenen Chatbot als Open Source zur Verfügung stellen, um zu zeigen, dass er sich dieser Vision verpflichtet fühlt.
OpenAI verklagt
Bekanntlich hat Elon Musk OpenAI kürzlich verklagt. Er wolle erreichen, dass sich die Macher:innen von ChatGPT wieder an die Gründungsvereinbarung halten und "AGI zum Wohle der Menschheit zu entwickeln und nicht zum persönlichen Vorteil" einzelner, heisst es in der Klageschrift. Der Besitzer von X und Tesla war im Jahr 2015 Mitbegründer von OpenAI. Musk steckte mehr als 40 Millionen Dollar in OpenAI, bevor er sich 2018 von dem Projekt trennte. In der milliardenschweren Zusammenarbeit mit Microsoft sieht Musk die Ursache für das Abweichen vom ursprünglichen Kurs.
OpenAI reagierte auf Musks Klage vergangene Woche mit der Veröffentlichung von E-Mails zwischen Musk und anderen, in denen er die Idee zu unterstützen schien, die Technologie des Unternehmens abzuschotten, wenn sie leistungsfähiger wird. Und am Montag hat OpenAI Musks Behauptungen als "verworren" und "inkohärent" bezeichnet.
Nicht übermässig parteiisch
Als Musk die Entwicklung von Grok ankündigte, versprach er, dass es weniger politisch voreingenommen sein würde als ChatGPT oder andere KI-Modelle, die er und andere mit rechtsgerichteten Ansichten als zu liberal kritisiert haben. Tests haben gezeigt, dass Grok zwar einen provokanten Stil an den Tag legen kann, aber nicht übermässig parteiisch ist - was vielleicht die Herausforderung verdeutlicht, KI-Modelle konsequent auf einen bestimmten Standpunkt auszurichten.
Empfohlen von LinkedIn
Die Freigabe von Grok könnte Musk helfen, das Interesse an der KI seines Unternehmens zu wecken. Die Beschränkung des Zugangs zu Grok auf zahlende Abonnent:innen von X, einer der kleineren globalen sozialen Plattformen, bedeutet, dass es noch nicht die Zugkraft von ChatGPT von OpenAI oder Gemini von Google hat. Die Freigabe von Grok könnte Entwickler:innen anlocken, das Modell zu nutzen und darauf aufzubauen, und könnte letztlich dazu beitragen, dass es mehr Endnutzer:innen erreicht. Das könnte xAI Daten liefern, die es zur Verbesserung seiner Technologie nutzen kann.
Vorbild Meta
Mit seiner Entscheidung schliesst sich Musk dem Ansatz von Meta zur generativen KI an. Metas Open-Source-Modelle wie Llama 2 sind bei Entwickler:innen sehr beliebt, da sie vollständig angepasst und für verschiedene Zwecke eingesetzt werden können. Eine ähnliche Strategie könnte Musk jedoch weiter in eine wachsende Debatte über die Vorteile und Risiken des Zugangs zu den leistungsfähigsten KI-Modellen für jedermann hineinziehen.
Viele KI-Expert:innen argumentieren, dass das Open-Sourcing von KI-Modellen erhebliche Vorteile mit sich bringt, z. B. mehr Transparenz und einen breiteren Zugang. "Offene Modelle sind sicherer und robuster, und es ist grossartig, mehr Optionen von führenden Unternehmen in diesem Bereich zu sehen", sagt etwa Emad Mostaque, Gründer von Stability AI, einem Unternehmen, das verschiedene Open-Source-KI-Modelle entwickelt.
Schwer zu kontrollieren
Manche KI-Forschenden sind jedoch der Meinung, dass es mit zunehmender Leistungsfähigkeit der KI notwendig sein könnte, den Zugang zu bestimmten Modellen zu beschränken. Einige Expert:innen befürchten nicht nur, dass künftige KI-Modelle widerspenstig und trügerisch werden könnten, so dass sie schwer zu kontrollieren sind, sondern vermuten auch, dass selbst heutige Modelle dazu beitragen können, gefährliche Desinformationen zu erzeugen oder chemische oder biologische Waffen herzustellen.
Eine im Februar veröffentlichte Studie von Forschenden aus Wissenschaft und Industrie, die verschiedene Risikobewertungen von KI-Modellen überprüft haben, kommt allerdings zu dem Schluss, dass solche Befürchtungen möglicherweise verfrüht sind. Die Forscher erklärten, dass es noch keine zuverlässigen und systematischen Methoden zur Messung der von KI-Modellen ausgehenden Gefahren gibt.