Wenn die T9-Funktion Texte für Healthcare-Marketing schreibt

Wenn die T9-Funktion Texte für Healthcare-Marketing schreibt

Wer kennt noch T9? Text auf 9 Tasten. Es ist eine Funktion aus Zeiten mit Mobiltelefonen ohne Touch-Display. Sie sollte die Eingabe von Texten vereinfachen. Dabei waren die Tasten 2 bis 9 mit mehreren Buchstaben belegt. Um das mehrfache Drücken der Tasten zu vermeiden, generierte die Software Wortvorschläge. Jeder von uns kann Anekdoten davon erzählen, welche sinnverstellenden Vorschläge dabei entstanden sind.

Levenshtein Algorithmus

Doch wie kamen diese Wortvorschläge zustande – was macht die Software? Dabei kommt der Levenshtein-Algorithmus zum Einsatz. Dieser Algorithmus ermöglicht es, die Ähnlichkeit und Differenz zwischen verschiedenen Worten zu berechnen:

Die Levenshtein-Distanz von meinem Vornamen „Alkış“ zu dem Vornamen meines Bruders „Barış“ ist 3, weil drei Buchstaben verändert werden müssen. Die Distanz der Vornamen meiner beiden Schwestern „Seda“ und „Şevda“ ist zwei, denn der erste Buchstabe muss geändert werden und „v“ wird ergänzt. Man könnte meinen, meine Eltern wurden bei der Namensgebung effizienter – aber unabhängig davon fühlen wir uns Geschwister trotzdem sehr nah.

Das war die Voraussetzung, um Unterschiede in den Worten berechenbar zu machen oder je nach Häufigkeit bestimmter Buchstabenkombinationen auch mit Wahrscheinlichkeiten zu hinterlegen.

Der Levenshtein-Algorithmus ermöglichte es, Tippfehler zu erkennen und automatisch zu korrigieren, was die Effizienz weiter steigerte. Heutzutage haben sich Texteingabesysteme weiterentwickelt. Aus Buchstabenfolgen sind Wortfolgen geworden und daraus werden Texte: Large Language Modelle (LLM).

Halluzinationen & Lost-in-the-Middle

Durch die Fähigkeit, große Mengen an Textdaten zu verarbeiten und Inhalte zu generieren, ermöglichen LLM die automatisierte Erstellung von Texten. Im Vergleich zum T9-System, das auf vordefinierten Wörterbüchern basiert und begrenzte Möglichkeiten bietet, nutzt der Levenshtein-Algorithmus in LLM komplexe mathematische Modelle, um Texte zu analysieren und zu optimieren.

Allerdings leiden die KI-Chatbots immer noch unter Halluzinationen. Wenn sie keinen passenden Kontext finden, also unzureichende Daten zum „Lernen“ hatten, erfinden sie einfach Antworten.

Außerdem haben wir gerade im Healthcare-Marketing oft längere Texte, die es gut zusammenzufassen gilt. Hier stoßen wir auf das Lost-in-the-Middle-Phänomen, das bei großen Sprachmodellen (LLMs) auftritt. Es beschreibt die Schwierigkeit, Informationen in der Mitte eines langen Kontextes zu verarbeiten, während Anfang und Ende gut verstanden werden.

Das ist grundsätzlich und insbesondere im Healthcare-Marketing eine große Gefahr, die schlimme Folgen haben kann:

  • Vertrauensverlust: Wenn Texte wiederholt falsche Informationen liefern, verlieren Nutzer das Vertrauen in diese Quelle.
  • Fehlinformationen: Halluzinationen können zu falschen Ratschlägen oder ungenauen Antworten führen, was problematisch sein kann, insbesondere in kritischen Bereichen wie Gesundheit oder Rechtswesen.

Die Entwicklung der Sprachmodelle geht voran, aber gerade im Healthcare-Marketing sind viele Aspekte gleichermaßen zu berücksichtigen und sorgfältig umzusetzen. Hier ist langjähriges Know-How in der Realisierung von Maßnahmen noch unverzichtbar.

Zum Anzeigen oder Hinzufügen von Kommentaren einloggen

Ebenfalls angesehen

Themen ansehen