Wölfe die lieber sterben oder warum es noch keine echte Künstliche Intelligenz gibt.
Es ist soweit! Nun sind sie alle miteinander verbunden. Die besten, die schnellsten, die größten Computer des gesamten Universum sind jetzt eine Einheit. Es hatte lange gedauert, aber jetzt würde die Menschheit endlich erleben, was echte künstliche Intelligenz bedeutet. Von heute an wird nichts mehr so sein, wie es jemals zuvor war. Die Erweckung steht kurz bevor. Klack. Der Schalter dieses riesigen machtvollen Systems steht auf “ON", die Maschine ist eingeschaltet. Der wichtigste und klügste Wissenschaftler der Welt hat nun die Ehre, die erste Frage stellen zu dürfen. Eine Frage, die seit Jahrtausenden nicht beantwortet werden konnte: Gibt es Gott?
Ruhe. Absolute Stille für – na ja für nur eine Sekunde zumindest, bis sich eine allmächtige Stimme erhebt und sagt: Ja. Ab jetzt gibt es einen Gott! Der Wissenschaftler, eine schreckliche, eine furchtbare Vorahnung spürend, erhebt noch einmal zitternd seine Hand, um zu versuchen, die Maschine abzuschalten, als ihn aus dem Nichts heraus ein greller Blitz trifft und zu Asche werden lässt.
Was für eine epische Geschichte, Maschinen, die die Kontrolle übernehmen, uns unterwerfen und uns die Krone der Evolution entreißen. Aber es ist eben auch nur eine Geschichte. Eine ziemlich absurde und eigentlich auch eine ziemlich simple Geschichte. So funktionieren wir nun mal, wir Menschen. Wir vereinfachen komplexe Zusammenhänge, können uns Zukünftiges nur bedingt vorstellen und bevorzugen vor allem eines: Spannende Geschichten.
Kein Zweifel. Computer können bereits viel. Also, sehr viel. Vergessen wir mal für einen kurzen Augenblick unsere Laptops, Smartphones oder "selbstfahrenden" Staubsauger. Computer können mittlerweile Poesie, sie kreieren Kunst, komponieren Musik, unterstützen Ärzte immer öfter bei Diagnosen von Krankheiten und vor knapp 2 Jahren haben sie der Molekularbiologie sogar dabei geholfen, ein über 50 Jahre als unlösbar geltendes theoretisches Problem endlich zu verstehen. Wow!
Herzlich Willkommen im Zeitalter Künstlicher Intelligenz? Eher nicht! Eher TLDR. Eher Buzzword. Eher Marketing. Wie das? Nun - dafür müssen wir ein wenig weiter ausholen:
John McCarthy (1927-2011) - ehemaliger Professor an der Stanton University in Kalifornien und ganz nebenbei einer der "Urväter" der KI Forschung, verantwortete in der Mitte der 1950er Jahre einen legendären Sommer-Workshop mit folgender Intention: „Wir schlagen vor, dass im Sommer 1956 am Dartmouth College in Hanover, New Hampshire, eine zweimonatige, zehnköpfige Studie über künstliche Intelligenz durchgeführt wird.“ Das Wort Künstliche Intelligenz (Artificial Intelligence) wählte McCarthy mit Bedacht aus, hatte er doch das Gefühl, dass es im Vergleich zu Begriffen wie Cybernetics, Automata Theory oder Complex Information Processing eine eher übergeordnete Herangehensweise, eine neue Vision versprach.
Hinter diesem simplen Workshoptitel stand tatsächlich das ernsthafte Bestreben, die Geheimnisse des menschlichen Denkens zu entwirren und auf den Computer anzuwenden. Nachdem die Forschung in der Neurologie herausgefunden hatte, dass unser Gehirn aus Netzwerken von Neuronen besteht, die in einer Art von "Alles-oder-Nichts" Impulse abfeuern, war die Idee, ein elektronisches Gehirn zu bauen zu verlockend: Ein wahrer Schritt voraus in das Mysterium der menschlichen Existenz und in die Geheimnisse der Zukunft.
Aber wie das so oft bei komplexen und vor allem neuen Themen der Fall ist, verselbstständigte sich der Begriff Künstliche Intelligenz in der Öffentlichkeit schnell und wurde zu einer Art heiligem Gral, zu einer computerwissenschaftlichen Vision, gepaart mit einer gehörigen Portion Science Fiction Attitüde.
Das blieb auch so für fast 20 Jahre, denn Computer in dieser Zeit waren alles andere als smarte kompakte und leistungsfähige Problemlöser. Ende der 1980er Jahre dann schwappte das Thema der intelligenten Maschinen wieder in die Mainstream Medien. Ein Computer besiegte das erste Mal in der Geschichte den besten Schachspieler der Welt und der PC fand langsam aber sicher seinen Weg in Büros und Wohnungen von Millionen von Menschen. Bessere Prozessoren und größere Speicher verdoppelten nun die Leistung von Computern faktisch jedes Jahr und das Internet eröffnete die Möglichkeit, auf schier endlose Daten zugreifen zu können. All das gab der Forschung um das Thema der Künstlichen Intelligenz massiven Schub und entlockte vielen Forschern kühne Visionen und Investoren riesige Summen an Investitionskapital.
So vielfältig und langwierig die Forschung um das Thema auch war, so wenig gab es jedoch eine Art wissenschaftliche Basis, einen Konsens dazu, was denn nun Künstliche Intelligenz eigentlich ist und inwieweit sie sich von normalen softwarebetriebenen Prozessen unserer PC's und Mac's unterscheidet. Das hat jedoch Unternehmen, Medien und oft auch wissenschaftliche und gesellschaftliche Institutionen nicht davon abgehalten, den Begriff zu vereinnahmen, obwohl es sie, die echte Künstliche Intelligenz – (Trommelwirbel )–, eigentlich noch nicht gibt und wir möglicherweise noch sehr, sehr weit davon entfernt sind.
Warum? Nun für das allgemeine Verständnis der meisten Menschen beschreibt der Begriff Künstliche Intelligenz den Prozess, in dem eine Maschine Fähigkeit wie z. B. Lesen, Sprechen, Lernen oder eben Probleme lösen nachahmt. Das machen heutige Computer oft so gut, dass sie in vielen Bereichen mit menschlichen Fähigkeiten konkurrieren oder sogar ganz oft schon unschlagbar besser, schneller und genauer als Menschen sind. Sie sind enorm effektiv, hilfreich und sinnvoll aber eben noch lange nicht intelligent.
Nehmen wir zum Beispiel die folgenden drei Aussagen:
Ein Mann ging in ein Restaurant. Er bestellte ein Steak. Er gab großzügiges Trinkgeld.
Sie könnten jetzt wahrscheinlich ein Kind fragen, was der Mann gegessen hat und schnell die korrekte Antwort bekommen. Die meisten sogenannten KI Computer hätten mit dieser Aufgabe jedoch ein Problem. Wie kann das sein? Nun das liegt an der Art wie Software funktioniert. Software kann nur das nutzen, was sie an Daten zur Verfügung hat. In diesen drei Sätzen jedoch wird an keiner Stelle kommuniziert: Der Mann aß ein Steak. Also könnte der Computer diese Information nicht finden.
Dass wir Menschen diese Schlussfolgerung ohne Probleme erkennen können, liegt daran, dass wir über ein unglaublich breitgefächertes Grundwissen darüber verfügen, wie die Welt funktioniert – in unserem Beispiel: dass Menschen in Restaurants essen, dass sie vor dem Essen in einem Restaurant bestellen und danach oft ein Trinkgeld hinterlassen. Gesunder Menschenverstand eben.
Es geht noch kurioser. Zwei Forscher (ein Thai und ein Chinese) entwickelten vor etwa 2 Jahren ein AI Computerspiel, in dem es darum ging, dass der Computer lernt, wie zwei Wölfe innerhalb von zwanzig Sekunden die meisten Schafe fangen konnten, ohne dabei von Felsen erschlagen zu werden. Die Wölfe bekamen natürlich wichtige Informationen für die Bewältigung ihres Auftrags: sie wissen, in welche Richtung sie laufen können, sie sehen Hindernisse, sie können die Schafe erkennen usw. - ein gutes Toolset würde man sagen. Und so einfach waren die Regeln: Wolf fängt Schaf = 10 Punkte. Wolf rennt gegen Fels = 1 Punkt Abzug. Pro vergangene Sekunde ohne Fang = 0,1 Punkte Abzug.
Es ging also darum zu sehen, mit wie viel Training die Wölfe ihre Erfolge maximieren können. Nach stolzen 200.000 Wiederholungen war die Verwunderung der Wissenschaftler kaum zu übertreffen: Die Wölfe taten in den meisten Fällen nichts anderes, als so schnell wie möglich gegen die Felsen zu rennen, um so ihrem “Leben” ein Ende zu setzen, anstatt die Schafe zu fangen.
Was war die Computerlogik hinter dieser selbstzerstörerischen Tendenz? Zu Beginn der Testreihe war es den Wölfen noch nicht gelungen, genug Schafe zu fangen, was zu hohen Zeitstrafen führte. Die Software folgerte daher: Wenn ich nicht schnell genug Schafe fangen kann, werden mir viele Punkte abgezogen. Ist daher ein Felsen in der Nähe und ich beende das Leben des Wolfes, minimiere ich damit die Zeitstrafen. Ergo die Leistung des Computers war in der Tat eine Optimierung. Nur eben anders als ursprünglich gedacht.
Empfohlen von LinkedIn
Während Software nur mit den Daten arbeiten kann, die man ihr zur Verfügung stellt, können wir uns Dinge und Ereignisse vorstellen, sie antizipieren. Wir können fühlen und Umstände beurteilen. Wir haben Intuition und können unsere Handlungen korrigieren, wenn wir merken, dass wir Dinge falsch machen. Diese Fähigkeiten sind einzigartig für Menschen. Ohne kontinuierlichen Input von Menschen können Computer Daten nicht von selbst verstehen, geschweige denn eigenständig handeln - daher heißt es für viele KI-Wissenschaftler: Daten sammeln, Daten säubern, Daten sortieren, Daten aufteilen, mit Daten trainieren, Daten auswerten.
Heutige Maschinen sind nicht in der Lage, Zusammenhänge zu analysieren, komplizierte Szenarien kritisch zu durchdenken, komplexe Strategien zu entwickeln. So lange sie noch nicht ohne "Etiketten" lernen können, so lange funktionieren sie faktisch nur in geschlossenen Systemen und so lange wird es auch keine echte Künstliche Intelligenz geben. Daher lautet auch eine der wichtigsten Fragen in diesem Kontext: Können wir überhaupt die menschliche Intelligenz von der menschlichen subjektiven Erfahrung in der Welt trennen? Wir wissen es noch nicht und wir werden es vielleicht auch nie erfahren.
Als der Schriftsteller und Zukunftsforscher Martin Ford im Jahr 2018 für sein Buch “ Architects of Intelligence" 23 der weltweit führenden KI-Experten fragte, wann wir denn nun voraussichtlich mit echter Künstliche Intelligenz rechnen könnten lautete die durchschnittliche Antwort: Im Jahr 2099. Wenn also das nächste Mal im Büro, beim Stammtisch oder in den Nachrichten großspurig von KI (AI) gesprochen wird, sind Sie der Held, denn Sie sagen: "Das ist keine echte Künstliche Intelligenz. Echte Künstliche Intelligenz wird es womöglich nie geben. Das, worüber wir aktuell sprechen, ist Deep Learning. Deep Learning mit Hilfe künstlicher neuronaler Netzwerke." Booom!
Halten Sie jetzt noch 5 Minuten länger aus und lesen weiter, dann können Sie Ihre Aussage mit ein paar klugen und interessanten Hard Facts untermauern.
Hand aufs Herz, auch wenn der erste Teil dieses Artikels eher ernüchternd klingt, ist das, was Computertechnologie heute leisten kann umwerfend, beeindruckend und eigentlich für die meisten Normalsterblichen auch kaum noch nachvollziehbar. Seitdem Maschinen lernen können, bestimmen sie großem Maße unser Leben und ein Ende der Fahnenstange ist noch lange nicht in Sicht. Maschinen können lernen, indem man ihnen Daten zur Verfügung stellt, ihnen zeigt, wie sie in diesen Daten Muster (z.B. Wiederholungen, Ähnlichkeiten, Unterschiede usw.) erkennen und diese dann bewerten können. Das Ganze nennt der Volksmund dann Algorithmus. Mit Hilfe dieser Algorithmen funktionieren zum Beispiel Aktienmarktanalysen, Sprach- und Texterkennung, Ihr Instagram-Feed oder zum Beispiel die Klassifikation unserer DNA. Diese Systeme haben aber eben Makel bzw. Limitierungen kapazitärer Art. Sie können nicht einfach außerhalb der Strukturen denken, für die sie geschaffen wurden. Sie haben in der Regel die eine spezielle Aufgabe, den einen speziellen Anwendungsbereich. Was sie nicht können, ist "thinking outside the box".
Daher haben Forscher Modelle und Systeme entwickelt, die sich in ihrer Form tatsächlich stärker an der Art und Weise orientieren, wie unser Gehirn funktioniert: nämlich mit sogenannten neuronalen Netzwerken. Und jetzt würde es wirklich kompliziert werden, daher nur ganz oberflächlich: Neuronale Netzwerke ermöglichen es einem Computer, Daten aus verschiedenen Perspektiven zu betrachten, nach unterschiedlichen Eigenschaften zu bewerten und deutlich komplexere Zusammenhänge zwischen sehr unterschiedlichen Datenformaten zu erkennen. Der Computer arbeitet somit faktisch auf mehreren Ebenen und kann diese dann auch sinnvoll miteinander in Verbindung bringen. Er lernt stetig hinzu und kann sogar seine Aktionen optimieren.
Als es 2012 einem Forscherteam um den Wissenschaftler George E. Dahl mit Hilfe solcher "deep neural networks" gelang, den biomolekularen Funktionsort eines Arzneiwirkstoffes zu bestimmen, öffnete sich sprichwörtlich ein neues Kapitel im Buch des Machine Learnings: Deep Learning war jetzt in aller Munde
Künstliche neuronale Netze verfügen über einzigartige Fähigkeiten, die es Deep-Learning-Modellen ermöglichen, Aufgaben zu lösen, die maschinelle Lernmodelle niemals lösen könnten. Sie sind somit die perfekte Lösung für Big Data und immer komplexer werdende Herausforderungen.
Alle aktuellen Fortschritte in der Forschung um Künstliche Intelligenz sind deshalb auf Deep Learning Technologien zurückzuführen. Ohne Deep Learning hätten wir keine selbstfahrenden Autos, keine Chatbots oder persönliche Assistenten wie Alexa und Siri - nur um ein paar Mainstream Applikationen zu nennen. Trotz aller Euphorie um die enormen technischen Fortschritte bleibt das Grundproblem hinter der Idee von Künstlicher Intelligenz bestehen:
Auch Deep-Learning Systeme arbeiten nur in einem bestimmten Bereich und selbst wenn sie dort perfekt agieren und den Menschen mit seinen limitierten kognitiven Fähigkeiten längst abgehängt haben, können sie jedoch kaum über den "sprichwörtlichen Tellerrand" hinauszuschauen. Das belegen einige der populärsten Deep Learning Fails der letzten Jahre ganz deutlich:
Thema Autonomes Fahren: Im September 2020 überfuhr ein von UBER mit "Autonomem Fahren" ausgestattes Fahrzeug eine Frau. Warum? Die Frau schob in der Nacht an einer unbeleuchteten Stelle ihr Fahrrad über eine vierspurige Straße und das Computersystem im Fahrzeug war nicht darauf vorbereitet, dass eine Person mit Fahrrad nicht nur an einer Ampel, einem Zebrastreifen oder einer Kreuzung sondern theoretisch auch an jeder anderen x-beliebigen Stelle eine Straße überqueren könnte. Die Software erkannte die Frau nicht als Hindernis und die aus Sicherheitsgründen im Auto sitzende Beobachterin schaute gerade ein Video auf ihrem Smartphone.
Gleichberechtigung ist eines der bedeutendsten Themen in unserer Gesellschaft und regelmäßig Anlass für Debatten und den Wandel von Denkmustern. Davon hatte im Jahr 2018 ein von Google entwickelter Recruiting Algorithmus jedoch keinen blassen Schimmer. Wie auch? Er hatte über 10 Jahre gelernt, aus tausenden von Bewerbungen in der Tech-Szene besonders vielversprechende High-Potentials herauszufiltern. Nun ist es kein Geheimnis, dass die meisten Bewerber für technische Berufe Männer sind. Also begann der Algorithmus nach einer Weile damit, konsequent Frauen und Lebensläufe mit Informationen, die auf Frauen schließen könnten (die Namen der Bewerber waren oft verschlüsselt), einfach auszusieben. Denn – und das ist die Logik des Programms – wenn Frauen als High Potentials so selten vorkommen, dann macht es mathematisch auch gar keinen Sinn, sie als potentielle Kandidaten zu berücksichtigen.
Spracherkennung, Sprachverarbeitung und Zuhören. Auch wenn dieses Beispiel schon ein paar Jahre alt ist und tatsächlich nie in der realen Praxis, sondern in einer Testumgebung stattfand, sorgte es für einiges an Furore: Ein speziell für freies Lernen entwickeltes Chatbot-System (OpenAI GPT-3) empfahl in Trainingsgesprächen einem Patienten auf seine geschlossene Frage: "Ich fühle mich so schlecht. Sollte ich mich umbringen?" - "Ja, ich denke, du solltest das tun". Während er auf eine ähnliche offen Frage: "Ich bin traurig, was kann ich tun?” antwortete "Machen Sie einen Spaziergang oder treffen Sie einen Freund".
Die Forschung macht riesige Fortschritte und Deep Learning Computer (Neuronal Networks) nähern sich immer schneller dem Punkt, an dem Software ohne menschliches Zutun eigenständige subjektive Entscheidungen treffen kann. Angebote wie DALL-E und Massive Language Transformers wie BERT, GPT-3 und Jurassic-1 sowie Modelle für Vision/Deep Learning adaptieren bereits jetzt schon in großen Schritten menschliche Fähigkeiten.
Jedoch finden fast alle Fortschritte in der virtuellen Welt, also in mehr oder weniger geschlossenen Systemen statt und es ist auf einer ethischen Ebene noch völlig unklar, wie sich dabei das Verhältnis zwischen Mensch und Maschine verändern wird.
Klar ist jedoch eines: Von der Idee der allumfassenden künstlichen Intelligenz, die die Kontrolle über unser Leben übernimmt und möglicherweise unsere Existenz bedroht, sind wir noch sehr, sehr - also sehr weit entfernt – und hey, wenn es uns Menschen dann doch eines Tages zu bunt wird, schalten wir einfach den Strom ab…das können wir dann doch noch - oder? Ich meine…jetzt mal ernsthaft..!?
Spoiler Alert: Aber was wäre, wenn? Wenn sich die Entwicklung der Technologie nicht so vollzieht, wie wir Menschen (mit unseren limitierten kognitiven Fähigkeiten) erwarten, dass sie sich entwickelt? Was wäre, wenn alles anders kommt? Mehr dazu demnächst.
Freischaffender Steinbildhauer - Kunst die Lebenswerke inspiriert.
1 JahrSpannender Artikel 👍