Das neue Zielpublikum für APIs ist die KI
Bild generiert von OpenAIs DALL-E

Das neue Zielpublikum für APIs ist die KI

Paradigmenwechsel beim Interneteinstieg: Wie LLMs die Karten neu mischen

Die Art und Weise, wie wir ins Internet einsteigen, hat sich im Laufe der Jahre weiterentwickelt. In den frühen Tagen des Internets waren Verzeichnisse wie Yahoo! die primäre Methode, um Websites zu finden. Benutzer durchsuchten hierarchisch organisierte Listen, um relevante Inhalte zu entdecken. Mit der steigenden Anzahl der Webseiten wurde das bald unübersichtlich. Dies Verhalf den Suchmaschinen wie Google zum Durchbruch und der Einstieg änderte sich grundlegend. Nun hatte man die Möglichkeit direkt nach Informationen zu suchen mit Schlüsselwörtern. Dies revolutionierte den Zugang zu Webseiten und deren Informationen und machte das Internet allgemein zugänglicher. Es oblag dann jedoch dem Benutzer die gelieferten Webseiten zu analysieren und daraus eine Synthese zu bilden. Um in diesem Umfeld relevant zu bleiben, mussten (und müssen) Unternehmen ihre Auffindbarkeit optimieren, daraus entstand eine ganze Industrie: SEO (Search Engine Optimization).

Heute befinden wir uns in der Anfangsphase der nächsten Revolution: Die rasche Adaption der Large Language Models (LLMs) wie ChatGPT. Diese Modelle ermöglichen es den Nutzern, in natürlicher Sprache zu kommunizieren und direkt Antworten auf komplexe Fragen zu erhalten statt nur eine Liste von Webseiten auf Basis von ein paar Schlüsselwörtern. Der Benutzer muss die einzelnen Webseiten somit gar nicht mehr aufrufen und analysieren. Dies verändert die Art und Weise, wie wir mit dem Internet interagieren fundamental und es zeichnet sich ab, dass LLMs zu unserem primären Einstiegspunkt ins Internet werden. Folglich hat diese Verhaltensveränderung das Potential die Karten neu zu mischen bei den Internetgiganten.

Aber nicht nur die Internetgiganten müssen sich Gedanken machen über diese Paradigmenwechsel - alle welche Dienstleistungen und Produkte auf digitalen Kanälen anbieten, müssen sich überlegen, wie sie in dieser Veränderung relevant bleiben oder gar relevanter werden können. Die Optimierung für Suchmaschinen muss sich nun weiterentwickeln zu einer Optimierung für KI. In diesem Blog fokussiere ich mich auf die Bedeutung für publizierte APIs.

Wie ist das relevant für publizierte APIs?

Die Reise startet für die antwortsuchende Person neu mit einer Frage an die KI. Wir möchten nun folglich erreichen, dass unsere API, falls relevant, in der Antwort enthalten ist. In einer einfachen Antwort soll die KI den relevanten Endpunkt unserer API nennen. Es geht aber weiter, die KI kann auch automatisch den nötigen Integrationscode erstellen. Abhängig vom Anwendungsfall kann ich diesen Code dann in meine Anwendung integrieren – oder, heute noch als Vision, kann die KI den Code gleich selbständig ausführen. Dies, um Informationen zu beziehen, um mir meine Antwort zu liefern oder gleich eine Aufgabe für mich zu erledigen wie z.B. eine Buchung oder Bestellung vorzunehmen. Wenn wir unterstützen können, dass dieser Code von guter Qualität ist, haben wir eine höhere Adaptionsrate und weniger Supportaufwand. Schlussendlich hat die Integration unserer API durch automatisch generierten Code potenziell auch Auswirkungen auf den Betrieb der API, auch darauf sollten wir uns vorbereiten. In den folgenden Abschnitten leite ich die Anforderungen auf diese Themen ab.

Design von APIs für LLMs als Interneteinstieg

Der Einsatz von LLMs als Einstiegspunkt ins Internet bedeutet eine Verschiebung von einer Positionierung von Webinhalten auf ein Thema zu einer Positionierung für Anwendungsfälle. Bis jetzt hat es genügt eine API z.B. als API für Pensionskassendaten zu positionieren, denn in der Suche via Suchmaschine wird z.B. mit den Schlüsselwörtern "API" "Daten" "Pensionskasse" gesucht. An ein LLM wird hingegen eine Frage gestellt, welche oft bereits einen konkreten Anwendungsfall vorsieht wie z.B. "Wie kann ich die Daten von Schweizer PK-Vorsorgeausweisen in meine Anwendung importieren?" oder "Wie kann ich das individuelle Potential eines Kunden an Wohneigentumsförderung in meine Finanzberatungsanwendung einlesen?". Daraus können wir drei wichtige Vorgaben ableiten:

  1. Spezifikationsstandard: Die API muss gemäss einem verbreiteten Standard spezifiziert werden, damit die LLMs diese korrekt interpretieren können. Hier hat sich OpenAPI (ehemals Swagger) klar etabliert.
  2. Strukturierung der Endpunkte: Die Endpunkte sollten logisch und nach Anwendungsfällen strukturiert sein, die relevanten Anwendungsfälle sollten eigene Endpunkte erhalten. Eine klare Hierarchie und gute Benennungskonventionen sind hierbei entscheidend. Dies erleichtert es LLMs, die API und deren Endpunkte einzuordnen und in Antworten wiederzugeben.
  3. Beschreibung: Die API als Ganzes aber auch die einzelnen Endpunkte, Parameter und Properties müssen klar und präzise dokumentiert sein, damit LLMs sie effektiv nutzen können. Dies umfasst detaillierte Beschreibungen der Endpunkte, inklusive der zugrunde liegenden Geschäftslogik, und die fachliche Einordnung der erwarteten Eingabe- und Ausgabewerte.

Optimierung von APIs für die Codeerstellung durch LLMs

Die LLMs werden auch immer häufiger genutzt, um gleich auch den nötigen Integrationscode in der gewünschten Programmiersprache auszugeben. Geübte Entwickler nutzen diesen generierten Code als Basis für ihre Integration und sind natürlich dankbar für eine möglichst hohe Grundqualität. Die direkte Verfügbarkeit von generiertem Code kombiniert mit dem Fachkräftemangel führt jedoch vermehrt dazu, dass Personen mit weniger Programmierwissen solchen Code unverändert in ihre Anwendungen einbauen werden. Respektive, dass das LLM den Code direkt selbst ausführen wird ohne menschliche Qualitätsprüfung. Wir möchten deshalb die Qualität des automatisch generierten Codes mit folgenden Massnahmen unterstützen:

  1. Validierungsregeln: Starke Validierungsregeln sind unerlässlich, um sicherzustellen, dass die Eingaben den fachlichen Erwartungen entsprechen. Zum einen helfen diese den LLMs die API besser zu verstehen und so besseren Code zu generieren zum anderen fallen Fehler beim Testen früher auf und der Code kann durch den Entwickler oder das LLM in dieser Phase nachgebessert werden.
  2. Beispielwerte: Es ist wichtig, dass die API-Dokumentation gute Beispielwerte enthält. Diese Beispiele helfen den LLMs, die API richtig zu verstehen und zu verwenden. Auch helfen diese Beispiele bei der (automatischen) Generierung von Testfällen.

Implementierung der APIs für die Nutzung durch LLM erzeugten Code

Die Sicherheitsanforderungen an publizierte APIs auf Anbieterseite waren immer schon hoch. Der Druck auf diese APIs wird aber noch weiter steigen. Folgend die wichtigsten Gründe dafür:

  1. Schlechtere Input-Qualität: Da der aufrufende Code vermehrt automatisch erstellt wird, müssen wir von einer tendenziell schlechteren Qualität der Eingabedaten ausgehen. Diese unerwarteten oder fehlerhaften Eingaben erfordern robuste Validierungs- und Fehlerbehandlungsmechanismen in der API anbietenden Applikation, um die Integrität und Sicherheit der API zu gewährleisten.
  2. Erhöhte Angriffe auf APIs: Durch die LLMs wird auch die Erstellung von Bots vereinfacht und beschleunigt. Diese Bots führen eine steigende Anzahl von automatisierten Angriffsversuchen auf APIs durch. Die hoffentlich bereits bestehenden Sicherheitsmassnahmen gewinnen dadurch an Bedeutung. Dies umfasst unter anderem die Implementierung von Ratenlimitierungen, Authentifizierungsmechanismen und kontinuierlichem Monitoring.

Fazit

Die zunehmende Bedeutung von LLMs als Einstiegspunkt ins Internet hat auch Auswirkungen auf das Design und die Implementierung von APIs. Die Best Practices für das Design von APIs ändern sich zwar im Kern nicht, aber die Anwendung dieser Best Practices wird deutlich wichtiger. Damit ihre angebotenen APIs relevant bleiben, müssen Unternehmen sicherstellen, dass ihre APIs so gestaltet sind, dass sie von LLMs erkannt und effektiv genutzt werden können. Dies erfordert eine sorgfältige Spezifikation, klare Strukturierung und umfassende Dokumentation der APIs. Unternehmen, die diese API-Governance wirkungsvoll leben, können ihre Position im digitalen Raum stärken.

Gerne unterstützen wir Sie bei der Vorbereitung auf eine Zukunft mit KI. Acrea – Making Digital Work.

Im Loop bleiben: www.acrea.com/newsletter

Jan Strasser

Insights Research & Communication

5 Monate

Wichtiger Punkt bei der Entwicklung von Agenten bzw. Function Calls. Dazu ein Gedanke: Wäre es nicht am einfachsten, wenn die LLM-Intelligenz auf die Seite der API (bzw. einer Zwischenschicht) verlagert würde? Das Chatmodell könnte die Anforderung an die API in natürlicher Sprache stellen; die parametrische Umsetzung dieser Anfrage macht die KI-Logik der API selbst. Denn die API Entwickler kennen die Anforderungen, Use Cases und Parameter ihrer API am besten. Also könnten sie auch am besten die Übersetzung natürlichsprachlicher Anfragen in API-Calls programmieren. Nur so ein Gedanke🙂

Zum Anzeigen oder Hinzufügen von Kommentaren einloggen

Ebenfalls angesehen

Themen ansehen