Wischi-Waschi
Guten Tag. Heute wird es ein wenig mathematisch. Aber wirklich nur ein wenig. Also lassen Sie sich nicht abschrecken. Zumindest dann nicht, wenn Sie etwas besser begreifen möchten, warum es bei der #digitalenGrundbildung und dem #datengetriebenenManagement oft hakt.
Die Welt ist außerordentlich komplex. Und um mit dieser #Komplexität als Menschen mit Steinzeitgehirn im Digitalzeitalter auch nur ansatzweise umgehen zu können, bedarf es einiger Hilfsmittel. Eines, wenn nicht gar das wichtigste Hilfsmittel ist unsere Fähigkeit, #Gedankenmodelle zu entwickeln und uns so zu erklären, wie die Welt funktioniert. Tun wir das sehr akribisch und genau, dann betreiben wir in der Regel Wissenschaft: Hypothesen aufstellen, durch Experimente prüfen und dadurch Theorien festigen oder widerlegen. Aber da hört es ja nicht auf. Wir betreiben ständig #Modellbildung, und bezeichnen das im Alltag auch mal ganz gerne als gesunden Menschenverstand.
Das funktioniert in vielen Fällen auch erstaunlich gut. In anderen dagegen ... nicht.
Wissen Sie zum Beispiel, wie die Fitnessapp Ihre Schritte zählt? Wie das Paket in die Packstation kommt? Oder versuchen Sie auf Basis Ihres eigenen Erfahrungsschatzes nur zu einem Modell zu kommen, dass das Beobachtete für Sie erklärt?
Gedankenmodelle – die Balance zwischen gesundem Menschenverstand und gefährlichem Halbwissen.
Die Modelle, die wir uns tagtäglich zurechtlegen, sind oft falsch. Und das liegt (zumindest in begrenztem Maße) daran, dass es uns am Wissen über die Funktionsweise von Dingen fehlt. Stattdessen erlauben wir uns, in solchen Fällen zu spekulieren (im Übrigen eine witzige Parallele zu dem, was man bei KI-Sprachmodellen als halluzinieren bezeichnet). Insbesondere, wenn wir versuchen, möglichst einfache Modelle für komplexe Zusammenhänge zu finden (siehe Literaturtipp 1).
So kommt man dann im Extremfall zu lustigen Aussagen darüber, dass die Politik in einem Land ja wohl total fehlgeleitet ist oder dass KI uns alle vernichten wird – oder uns zumindest die Arbeitsplätze wegnimmt, falls das nicht vorher schon die da oben oder die da drüben gemacht haben. Das Feld für derartige Modellbildung, gepaart mit schwarzer Rhetorik, sollten wir vielleicht eher Menschen überlassen, die es mit der Wahrheit eh nicht so genau nehmen.
Damit aber nicht genug, selbst wenn wir uns alle Regeln der Kunst (oder in diesem Fall der Wissenschaft) auf die Fahnen schreiben, macht das nicht automatisch unsere Modellbildung besser. Wir können natürlich anfangen, unsere Problemstellungen und unsere Umwelt wissenschaftlich (und das heißt in diesem Fall mathematisch) zu beschreiben. Das geht recht gut, mündet aber leider auch rasch in mathematische Formeln, die man nicht mehr einfach ausrechnen kann.
Wir sind zwar mittlerweile ziemlich gut darin, lineare Zusammenhänge (also etwas, was in der einfachsten Form etwa f(x) = ax + b entspricht) auszurechnen (LLMs, wie sie in der generativen KI vorkommen, berechnen etwa lineare Gleichungssysteme mit vielen Milliarden Parametern), vor nicht linearen Zusammenhängen müssen wir aber oft noch kapitulieren. Selbst bei einer einfachen quadratischen Gleichung wie einer Parabel, haben wir hier ein Problem, sobald wir viele Parameter haben, also unser x nicht mehr nur eine Zahl, sondern ein hochdimensionaler Vektor ist. Diese Gleichungssysteme können wir mit Computerhilfe nur schrittweise lösen und sind auch auf eine Menge Tricks angewiesen, um mit der hohen Zahl von Parametern umgehen zu können. Hinzu kommt, bringt man noch den Faktor der Zeit mit ins Spiel, dann verhalten sich diese Systeme hochdynamisch, je nach Parameterwahl auch völlig chaotisch. Da wir das Chaos aber immerhin Schritt für Schritt ausrechnen können, nennen wir es deterministisches Chaos – wir haben keine Ahnung, wo es hinführt, aber wir können es in Trippelschritten ausrechnen. Immerhin etwas!
Nicht lineare mathematische Probleme mit vielen Parametern zu lösen ist sehr aufwendig. Und unsere reale Welt ist voll davon! Da draußen in der Realität ist nichts linear! Also müssen wir zwangsläufig Dinge vereinfachen, um überhaupt zu nützlichen Modellen zu kommen. Und das bedeutet in der Praxis, dass wir versuchen, möglichst viele für unsere Fragestellung unwichtige Parameter wegzulassen. Und das, was übrig bleibt, vielleicht auch noch sinnvoll zusammenzufassen und in eine Form zu bringen, mit der man (oder der Computer) gut umgehen kann. Man spricht hier oft von dimensionaler Reduktion – denn üblicherweise fassen wir also unsere Parameter in einem Vektor der Dimension n (für n Parameter zusammen), und wir wollen zu einem deutlich kleineren Vektor der Dimension m (mit m << n) kommen.
Beispiel gefällig? Falls Sie sich noch an Ihren Physikunterricht erinnern – da haben wir in der Mechanik gerne die Bewegung von Punkten beschrieben – weil uns die Bewegung von Katzen, Autos oder fallen gelassenen Smartphones dann doch etwas zu kompliziert war.
Und – um das mal in Beziehung zu setzen – um die Entwicklung der Bewegung so eines Punktes beschreiben zu können, muss ich seine Position und seinen Impuls kennen. Das sind für unseren geliebten 3-dimensionalen Raum bereits 6 Parameter (also sechs Dimensionen. Stellen Sie sich das mal vor! Oder, vielleicht besser auch nicht). Für einen ollen Punkt! Welchen Aufwand bedeutet das wohl erst, wenn Sie echte Maschinen wirklichkeitsgetreu abbilden wollen? (Ich denke da zum Beispiel gerne an den Marketinggag des digitalen Zwillings) Selbst für einen Stein bräuchten wir hier schon tausende Parameter, um ihn halbwegs wirklichkeitsgetreu abzubilden – und hätten dann auch nur seine mechanischen Eigenschaften beschrieben.
Ich kann natürlich auch versuchen, Dinge statistisch zu beschreiben. Das erspart mir in der Regel eine ganze Menge aufwendige Mathematik. Aber auch hier komme ich schnell an dieselben Grenzen. Statistische Schätzer benötigen zudem eine Stichprobe, aus der ich sie ableiten kann (und idealerweise habe ich auch noch weitere Stichproben, mit denen ich ihre Güte validieren kann). Und die besteht aus Daten und die wiederum bestehen aus sehr, sehr vielen Parametern. Also müssen wir uns auch hier entscheiden: Welche Parameter von jedem einzelnen Messpunkt sind eigentlich wichtig?
Was hier erschwerend hinzukommt: wir gehen solche Wege gerne zu Fuß – sind aber leider auch absolut miserable intuitive Statistiker, die gerade besonders niedrige Wahrscheinlichkeiten viel zu hoch (und in gleichem Maße hohe Wahrscheinlichkeiten viel zu niedrig) ansetzen. Tatsächlich sind wir sogar oft dermaßen schlecht, dass es uns selbst mit hochtrabenden Denkmodellen oft kaum gelingt, statistisch besser als ein Münzwurf abzuschneiden (siehe Literaturtipp 2).
Empfohlen von LinkedIn
Güte und Verwendbarkeit von Modellen
Wir beschränken uns in der Simulation und Vorhersage gerne auf das Wichtigste. Das heißt, wir nehmen Abstriche in Kauf, und dessen müssen wir uns bewusst sein:
Eingedampfte Modelle kann ich dann deterministisch (also durch vielleicht aufwendige, aber auf jeden Fall klare, immer wieder wiederholbare Rechenschritte) oder probabilistisch (also unter der Annahme, eine Wahrscheinlichkeitsverteilung vor mir zu haben, zufällig ein Ergebnis auswählen) auswerten. Beides ist sogar kombinierbar, und das ist heutzutage sogar meistens der Fall (auch hier ist KI wieder ein besonders prominentes Beispiel).
Jetzt aber endlich zum Kern der Sache
Je einfacher ein Modell ist (egal, was es modelliert), desto spezifischer muss die zugehörige Fragestellung sein. #ScientificManagement und datengetriebenes Management setzen zum Beispiel sehr gerne auf #Kennzahlen. Und mit etwas Glück auch auf deren zeitlichen Verlauf und nicht nur auf Momentaufnahmen. Nun sind 10 bis 20 (es dürfen auch 100 oder 1000 sein) #KPI s vielleicht ganz gut, um einen allgemeinen Überblick zu bekommen – über die tatsächlichen Probleme und Möglichkeiten eines Unternehmens sagen sie jedoch herzlich wenig aus. KPIs sind keine Parameter der Realität – sie sind durch starke dimensionale Reduktion zusammengefasste Modellparameter, die maximal in der Lage sind, #Symptome aufzuzeigen. Sie zeigen keine #Ursachen. Und es ist nicht sinnvoll, sie (schon gar nicht einzeln für sich genommen) optimieren zu wollen.
Ebenso wenig ergibt es Sinn, auf Ihrer Basis zu handeln, wenn ich sie nicht statistisch verorten kann; wenn es keine sinnvolle und unabhängige Stichprobe gibt, an der ich messen kann, ob sie gut oder schlecht sind.
Sie sind, wie der Name schon sagt, Indikatoren dafür, dass etwas passiert. Ihr zeitlicher Verlauf kann mir Hinweise darauf geben, dass etwas besonders gut oder eben eher mau läuft. Was genau stimmt oder nicht stimmt, das kann ich nur herausfinden, wenn ich an bestimmten Stellen tiefer bohre – und für meinen Informationsgewinn auch andere Modelle nutze, die besser zu diesen anders gelagerten Fragestellungen passen.
Modellbildung – der Skill fürs Digitalzeitalter
Wir müssen uns der Tatsache bewusst sein, dass wir die Realität ständig durch Modelle abbilden. Wir müssen uns bewusst machen, wie wir das tun. Und auf welche Informationen wir dabei verzichten. Welche Zusammenhänge in den Vordergrund treten, und welche verblassen. Und natürlich, ob wir mit unserer Modellierung tatsächlich zu brauchbaren Antworten auf unsere Fragen kommen.
Das ist das Fundament für Teilhabe im Digitalzeitalter. Ob sozial, technisch, gesellschaftlich oder wirtschaftlich. Wer nicht abgehängt werden will, wird sich die dafür notwendigen Fähigkeiten erarbeiten müssen. Denn auf diesen Fähigkeiten fußt letztlich alles: Was wir glauben, wie wir handeln und wie wir unser Zusammenleben gestalten wollen.
Lesetipps? Aber gerne. Wie immer handelt es sich um fundierte, aber für den meiner Meinung nach für Laien (je nach Thema wie mich) gut aufbereitete Sachtexte:
- Wie Gedankenmodelle entstehen und vor welche Probleme das Produktdesigner stellt: Donald Norman – The Design of Everyday Things.
- Was für schlechte intuitive Statistiker wir alle sind und warum der Homo oeconomicus ein Mythos ist: Daniel Kahnemann – Thinking, fast and slow.
- Datenanalyse und -methoden, auch für nicht Datenwissenschaftler: Brian Godsey – Think like a Data Scientist
Geschäftsführer/Partner bei HRpeople/MeWeKom OHG – Zukunftsfaktor Belegschaft: 85% ungenutztes Potential
1 Jahrkurz und knapp auf den Punkt gebracht 😉