Das neue Zielpublikum für APIs ist die KI
Paradigmenwechsel beim Interneteinstieg: Wie LLMs die Karten neu mischen
Die Art und Weise, wie wir ins Internet einsteigen, hat sich im Laufe der Jahre weiterentwickelt. In den frühen Tagen des Internets waren Verzeichnisse wie Yahoo! die primäre Methode, um Websites zu finden. Benutzer durchsuchten hierarchisch organisierte Listen, um relevante Inhalte zu entdecken. Mit der steigenden Anzahl der Webseiten wurde das bald unübersichtlich. Dies Verhalf den Suchmaschinen wie Google zum Durchbruch und der Einstieg änderte sich grundlegend. Nun hatte man die Möglichkeit direkt nach Informationen zu suchen mit Schlüsselwörtern. Dies revolutionierte den Zugang zu Webseiten und deren Informationen und machte das Internet allgemein zugänglicher. Es oblag dann jedoch dem Benutzer die gelieferten Webseiten zu analysieren und daraus eine Synthese zu bilden. Um in diesem Umfeld relevant zu bleiben, mussten (und müssen) Unternehmen ihre Auffindbarkeit optimieren, daraus entstand eine ganze Industrie: SEO (Search Engine Optimization).
Heute befinden wir uns in der Anfangsphase der nächsten Revolution: Die rasche Adaption der Large Language Models (LLMs) wie ChatGPT. Diese Modelle ermöglichen es den Nutzern, in natürlicher Sprache zu kommunizieren und direkt Antworten auf komplexe Fragen zu erhalten statt nur eine Liste von Webseiten auf Basis von ein paar Schlüsselwörtern. Der Benutzer muss die einzelnen Webseiten somit gar nicht mehr aufrufen und analysieren. Dies verändert die Art und Weise, wie wir mit dem Internet interagieren fundamental und es zeichnet sich ab, dass LLMs zu unserem primären Einstiegspunkt ins Internet werden. Folglich hat diese Verhaltensveränderung das Potential die Karten neu zu mischen bei den Internetgiganten.
Aber nicht nur die Internetgiganten müssen sich Gedanken machen über diese Paradigmenwechsel - alle welche Dienstleistungen und Produkte auf digitalen Kanälen anbieten, müssen sich überlegen, wie sie in dieser Veränderung relevant bleiben oder gar relevanter werden können. Die Optimierung für Suchmaschinen muss sich nun weiterentwickeln zu einer Optimierung für KI. In diesem Blog fokussiere ich mich auf die Bedeutung für publizierte APIs.
Wie ist das relevant für publizierte APIs?
Die Reise startet für die antwortsuchende Person neu mit einer Frage an die KI. Wir möchten nun folglich erreichen, dass unsere API, falls relevant, in der Antwort enthalten ist. In einer einfachen Antwort soll die KI den relevanten Endpunkt unserer API nennen. Es geht aber weiter, die KI kann auch automatisch den nötigen Integrationscode erstellen. Abhängig vom Anwendungsfall kann ich diesen Code dann in meine Anwendung integrieren – oder, heute noch als Vision, kann die KI den Code gleich selbständig ausführen. Dies, um Informationen zu beziehen, um mir meine Antwort zu liefern oder gleich eine Aufgabe für mich zu erledigen wie z.B. eine Buchung oder Bestellung vorzunehmen. Wenn wir unterstützen können, dass dieser Code von guter Qualität ist, haben wir eine höhere Adaptionsrate und weniger Supportaufwand. Schlussendlich hat die Integration unserer API durch automatisch generierten Code potenziell auch Auswirkungen auf den Betrieb der API, auch darauf sollten wir uns vorbereiten. In den folgenden Abschnitten leite ich die Anforderungen auf diese Themen ab.
Design von APIs für LLMs als Interneteinstieg
Der Einsatz von LLMs als Einstiegspunkt ins Internet bedeutet eine Verschiebung von einer Positionierung von Webinhalten auf ein Thema zu einer Positionierung für Anwendungsfälle. Bis jetzt hat es genügt eine API z.B. als API für Pensionskassendaten zu positionieren, denn in der Suche via Suchmaschine wird z.B. mit den Schlüsselwörtern "API" "Daten" "Pensionskasse" gesucht. An ein LLM wird hingegen eine Frage gestellt, welche oft bereits einen konkreten Anwendungsfall vorsieht wie z.B. "Wie kann ich die Daten von Schweizer PK-Vorsorgeausweisen in meine Anwendung importieren?" oder "Wie kann ich das individuelle Potential eines Kunden an Wohneigentumsförderung in meine Finanzberatungsanwendung einlesen?". Daraus können wir drei wichtige Vorgaben ableiten:
Empfohlen von LinkedIn
Optimierung von APIs für die Codeerstellung durch LLMs
Die LLMs werden auch immer häufiger genutzt, um gleich auch den nötigen Integrationscode in der gewünschten Programmiersprache auszugeben. Geübte Entwickler nutzen diesen generierten Code als Basis für ihre Integration und sind natürlich dankbar für eine möglichst hohe Grundqualität. Die direkte Verfügbarkeit von generiertem Code kombiniert mit dem Fachkräftemangel führt jedoch vermehrt dazu, dass Personen mit weniger Programmierwissen solchen Code unverändert in ihre Anwendungen einbauen werden. Respektive, dass das LLM den Code direkt selbst ausführen wird ohne menschliche Qualitätsprüfung. Wir möchten deshalb die Qualität des automatisch generierten Codes mit folgenden Massnahmen unterstützen:
Implementierung der APIs für die Nutzung durch LLM erzeugten Code
Die Sicherheitsanforderungen an publizierte APIs auf Anbieterseite waren immer schon hoch. Der Druck auf diese APIs wird aber noch weiter steigen. Folgend die wichtigsten Gründe dafür:
Fazit
Die zunehmende Bedeutung von LLMs als Einstiegspunkt ins Internet hat auch Auswirkungen auf das Design und die Implementierung von APIs. Die Best Practices für das Design von APIs ändern sich zwar im Kern nicht, aber die Anwendung dieser Best Practices wird deutlich wichtiger. Damit ihre angebotenen APIs relevant bleiben, müssen Unternehmen sicherstellen, dass ihre APIs so gestaltet sind, dass sie von LLMs erkannt und effektiv genutzt werden können. Dies erfordert eine sorgfältige Spezifikation, klare Strukturierung und umfassende Dokumentation der APIs. Unternehmen, die diese API-Governance wirkungsvoll leben, können ihre Position im digitalen Raum stärken.
Gerne unterstützen wir Sie bei der Vorbereitung auf eine Zukunft mit KI. Acrea – Making Digital Work.
Im Loop bleiben: www.acrea.com/newsletter
Insights Research & Communication
5 MonateWichtiger Punkt bei der Entwicklung von Agenten bzw. Function Calls. Dazu ein Gedanke: Wäre es nicht am einfachsten, wenn die LLM-Intelligenz auf die Seite der API (bzw. einer Zwischenschicht) verlagert würde? Das Chatmodell könnte die Anforderung an die API in natürlicher Sprache stellen; die parametrische Umsetzung dieser Anfrage macht die KI-Logik der API selbst. Denn die API Entwickler kennen die Anforderungen, Use Cases und Parameter ihrer API am besten. Also könnten sie auch am besten die Übersetzung natürlichsprachlicher Anfragen in API-Calls programmieren. Nur so ein Gedanke🙂