KI in der Produktion Teil 2 - was ist ein Datenmodell?
Grafik: Katrin Schaardt/Ahorner & Innovators GmbH 2020

KI in der Produktion Teil 2 - was ist ein Datenmodell?

Disclaimer: Dieser Text soll einen ersten Einstieg vermitteln und dazu möglichst einfach zu lesen und zu verstehen sein. Sollte er zu viel Vorwissen voraussetzen oder aufgrund der Vereinfachung fehlerhaft sein, verständigt mich bitte - am besten mit einer konkreten Frage oder einem Korrekturvorschlag.

Im letzten Teil hatten wir untersucht, wie man eine Fabrik als ein System von deterministischen und stochastischen, also zufälligen, Einflüssen auffassen kann, und dass die zufälligen Einflüsse das System stören. Das KI-System arbeitet wie ein übergeordneter Regler, der diese Störungen selbstständig erkennt und ausgleicht. Dafür benötigen wir ein Datenmodell, das das Verhalten der Fabrik abbildet. In diesem Teil möchte ich erläutern, was ein Datenmodell tut und warum KI-Methoden dafür so praktisch sind.

Zum Einstieg gibt es wieder eine kleine Grundsatzfrage: Was ist überhaupt ein "Modell", und welchen Zweck erfüllt es? Und warum brauchen wir die Antwort auf diese Frage?

Ich fange mal von hinten an: Weil das, was wir mit dem Datenmodell erreichen wollen, ein möglichst realitätsnahes Abbild der Aufgabe sein soll, die wir lösen wollen. Wobei wir jetzt noch gar nicht geklärt haben, was das "Modell" nun tatsächlich ist, das holen wir gleich nach. Die Aufgabe kann zum Beispiel sein: Steigere die Produktion. Hole heraus, was rauszuholen ist. Senke die Kosten. Minimiere die CO2-Emission. Und so weiter.

Übrigens: Fachleute sagen statt Aufgabe auch "Zielfunktion". Am besten, Ihr merkt Euch den Begriff; wir brauchen ihn noch öfter, denn jede KI-Optimierung besteht aus dem KI-Datenmodell und einer Zielfunktion.

Die Aufgabe wird mithilfe des Datenmodells umso besser lösbar, je näher beide an der Realität sind. Das ist nicht ganz trivial, denn bei der Arbeit mit Mathematikern hört man häufig: "Super, ich habe hier ein erstklassiges Datenmodell. Also, jedenfalls mit den Daten, die ich vorliegen hatte. Wenn hier jetzt ein Fehler drin ist, muss es an den Daten liegen." Damit uns so ein Datenmodell allerdings wirklich weiterhilft, sollte es die Realität des Systems, das es beschreiben will, möglichst präzise abbilden. Was aber heißt nun "präzise"?

Jedes Modell ist eine Vereinfachung von Realität. Wenn zum Beispiel ein Architekt ein Holzmodell eines Hauses herstellt, will er den Kunden helfen, sich eine Vorstellung des späteren Gebäudes zu machen. Dafür reicht eine maßstabsgerechte Verkleinerung, die die Formen und Farben und vielleicht noch die Umgebung vereinfacht zeigt. Der Architekt käme wohl nicht auf die Idee, gleich zu Anfang das komplette Haus fertig zu bauen, 1:1, mit allen Räumen und allen technischen Funktionen. Umgekehrt wären die Kunden wahrscheinlich nicht zufrieden, wenn das spätere Gebäude eine völlig andere Form hätte als das Modell. Ein Modell zu erstellen bedeutet, nur diejenigen Details und Funktionalitäten, die ich für die Lösung einer Aufgabe benötige, aufzunehmen und alles andere zu vernachlässigen.

Wenn ein Modell keine Vereinfachung wäre - wenn es also das betrachtete System in allen Einzelheiten detailliert abbilden würde - hätte ich ein Spiegelbild, einen vollständigen Klon. Wir können uns in einem zukünftigen Artikel einmal überlegen, in welchen Situationen ein sogenannter "Digitaler Zwilling" wirklich sinnvoll wäre, und ob man statt dessen nicht eher viel sinnvoller die passenden Datenmodelle aufbauen sollte, die wirklich nur bestimmte Funktionen erfüllen.

Wir können dabei grundsätzlich zwei Arten von Modellen unterscheiden. Dann wird auch klar, was der grundsätzliche Vorteil von KI-Datenmodellen ist, und wo KI-Modelle ihre Grenzen haben. Die beiden Arten sind die "White-Box" und die "Black-Box".

Die White-Box ist die traditionelle Methode. Sie ist die typisch wissenschaftliche und funktioniert so: Ich stelle ein paar Annahmen über Zusammenhänge auf, die ich mir vorher ("a priori") überlegt habe, und baue sie zu einem Modell zusammen. Das Modell kann eine Formel, ein Gedankenkonstrukt oder ein Laboraufbau sein. Wichtig ist, dass ich mir irgendwie Daten oder Messwerte verschaffen kann, an denen ich die ausgedachten Zusammenhänge überprüfen kann. Je besser mein Modell den Zusammenhang für alle Daten beschreibt, desto präziser ist es. Die Reihenfolge lautet also: Ausdenken - Modell bauen - Prüfen - Erkenntnis auswerten.

Seit einigen Jahren gibt es eine zweite Methode, die genau anders herum funktioniert: Ich sammle viele Daten und versuche ein Modell zu finden, dass die Zusammenhänge zwischen den Daten wiedergibt. Falls es mir gelingt, solch ein Modell zu finden, muss ich gar nicht wissen, warum und wie diese Black-Box (daher der Name) funktioniert - Hauptsache ist, dass es funktioniert. KI-Maschinen eignen sich für diese Methode besonders gut, weil sie sehr viele Größen und sehr viele Daten verarbeiten können. Man nennt Black-Box-Methoden auch empirische Methoden, weil sie ausschließlich mit Daten und ohne Hypothesen funktionieren. Hier lautet die Reihenfolge: Daten sammeln - Modell bauen - Prüfen - Erkenntnis auswerten.

Bitte denkt jetzt aber nicht, dass die Black-Box-Methode eine neue Erfindung ist, die erst mit KI möglich wurde. Die Methode gibt es seit Mitte des 20. Jahrhunderts, und sie wurde bevorzugt in der Systemtheorie eingesetzt. Man untersucht damit das Zeitverhalten von Systemen, indem man definierte Signale ("Inputs") auf ein unbekanntes System ansetzt und die Antwort des Systems ("Output") untersucht. Wenn man die beiden mathematischen Funktionen, also das Zeitverhalten der Outputs und das der Inputs, zueinander in Beziehung setzt, erhält man eine Differenzialgleichung. Dann prüft man, ob diese Gleichung bestimmte Anforderungen erfüllt. Ist das der Fall, kann man sie als Modell für das Systemverhalten betrachten.

Wichtig für uns ist, dass wir bei einem Black-Box-Modell nicht wissen müssen - und es auch tatsächlich nicht wissen - wie und warum die Black Box arbeitet. Der einzige Weg herauszufinden, ob sie richtig arbeitet, ist, es an Beispielen zu überprüfen. Wir werden in zukünftigen Artikeln noch sehen, dass das ausführliche Testen von KI-Modellen ein ganz wichtiger Schritt ist, um deren Realitätsnähe zu überprüfen.

Der Unterschied zwischen A-priori-Modellen und empirischen Modellen ist nun klar: A- Priori- oder White-Box-Modelle benötigen Annahmen (Hypothesen) über Beziehungen, die durch Daten überprüft werden. Empirische oder Black-Box-Modelle ermöglichen es, Aussagen über die Beziehungen zwischen den Daten zu treffen, ohne die Gründe für diese Beziehungen zu kennen.

KI-Maschinen arbeiten empirisch und können darüber hinaus noch riesige Mengen an Daten und Inputgrößen verarbeiten. Sie sind nicht besser oder schlechter als A-Priori-Methoden, aber sie sind wie geschaffen für die Modellierung von sehr komplexen Systemen wie Fabriken, die aus vielen zeitlichen Abhängigkeiten zwischen den Systembausteinen bestehen. Die Abhängigkeiten wären mit menschliche Hypothesen nur mit sehr viel Aufwand zu erkennen und vor allem zu pflegen, weil die Veränderungen so schnell und so vielfältig erfolgen. Deshalb sind empirische KI-Modelle den menschlichen A-Priori-Modellen im laufenden Fabrikbetrieb meistens überlegen. (Das sind sie allerdings nur, wenn die Fabriken auch die entsprechenden Daten liefern, und deshalb sind Sensoren, Internet-of-Things-Technik und Cloudarchive in den letzten Jahren so in Mode gekommen.)

Es wurde kein Alt-Text für dieses Bild angegeben.

Aber nicht, dass wir uns falsch verstehen: Überall überlegen sind die KI-Maschinen dem menschlichen Geist nun auch wieder nicht. A-Priori-Methoden sind überall dort unersetzlich, wo es darum geht, neue Gedanken zu entwickeln und kreative Annahmen für Zusammenhänge aufzustellen. Also überall dort, wo etwas Neues erfunden oder gebaut werden soll. Denn dort gibt es noch keine Daten, und ohne Daten ist auch die beste KI machtlos.

So, das war's wieder mal für heute. Ich hoffe, es hat Spaß gemacht und war weder zu trivial noch zu detailliert. Sagt mir bitte auch diesmal Eure Meinung zu Form und Inhalt.

Danke Euch und liebe Grüße,

Markus

Helmut Frasch

Software & Test Engineer

4y

Der Unterschied zwischen analytischen (a-priori) und empirischen (a-posteriori) Methoden ist beim Betreiben von Wissenschaft sehr wichtig. Im Artikel wird das recht gut für Leute ausserhalb von Wissenschaft und Technik erklärt. Eine vage aber recht simple Analogie wäre hierzu noch: analytische Methoden sind wie logisches Denken und empirische Methoden wie Rätselraten mit beschränkter Informationslage. Letzteres bildet so gut wie alle naturwissenschaftlichen Disziplinen, wobei die Wissenschaft versucht sich bezüglich der Antworten auf die Rätsel so gut abzusichern, dass Ingenieure nicht mehr viel raten müssen.

Engin Eser

Where B2B meets gaming | Trainings & Learning, Recruiting, Branding, eCommerce 👉 in Games | Microsoft Mesh | Microsoft365 Evangelist | MVP | AI | Cyber Security

4y

Markus Ahorner interessant zu lesen

Like
Reply
Jan Ole Frister

CORE Value Stream Lead QC

4y

Danke, Markus! Wie der erste Teil - super zu lesen und sehr informativ! Freue mich auf mehr!

To view or add a comment, sign in

Others also viewed

Explore topics