🤖 2024 könnte das Jahr sein, in dem generative KI aufhört, Dinge zu erfinden. Klingt gut, oder? Aber was, wenn, nicht?
KI-Modelle sind – zumindest im öffentlichen Diskurs – berüchtigt für ihre Unzuverlässigkeit. Sie wurden anhand von Internetdaten trainiert, was an sich schon eine Fehlerquelle darstellt. Und sie arbeiten mit Wahrscheinlichkeiten als Basis für das jeweils nächste Wort. So weit, so bekannt, so langweilig.
Gordon Crovitz, Co-CEO von NewsGuard und ehemaliger Verleger des The Wall Street Journal glaubt, dass KI-Modelle nächstes Jahr Fortschritte machen, und ihre Genauigkeit verbessern.
Im Gegensatz zu sozialen Medien, für die Fehlinformationen, die Engagement und somit Werbeeinnahmen maximieren, ein Feature und kein Bug sind, besteht eine wichtige Einnahmequelle für KI-Modelle darin, in Unternehmen oder der Verwaltung benutzt zu werden. Die bestünden darauf, dass diese Modelle vertrauenswürdige Informationen produzieren, so Crovitz.
Er hofft, dass alle KI-Modelle im Jahr 2024 ihre Neigung zur Verbreitung von Falschinformationen eliminieren oder zumindest erheblich reduzieren.
🤔 Die Frage bleibt jedoch: Was tun, wenn nicht?
Antwort: Generative KI ist ein Werkzeug, kein Inhalts-Drucker. Wer auf Knopfdruck fertige Inhalte erwartet, kann noch lange warten.
Viel wichtiger wird sein, dass Verlage und Unternehmen herausfinden, wie sie KI Qualität abtrotzen können – und zwar zuverlässig.
➡️ Spoiler: Das geht schon heute, aber nur mit perfekten KI-unterstützten, durchdachten Content-Workflows. Und die benötigen wiederum die passende Werkbank: https://dcio.app/de/
Lest Crovitz' Artikel beim Nieman Journalism Lab: https://lnkd.in/gzzq_Ked
---
🔔 Folge uns für mehr Informationen zum Thema Digitale Transformation, KI, Content-Workflows und Strategie: https://lnkd.in/eAzJFuRx
#ki #künstlicheintelligenz #journalismus #verlag #gpt