Wichtige Meilensteine auf dem Weg zur KI

Die künstliche Intelligenz – in Form einer schwachen KI – gehört zu den aktuell wohl wichtigsten digitalen Gegenwartstechnologien überhaupt. Betrachtet man jedoch den Zeitstrahl, so stehen wir heute am Ende einer für manche verblüffend langen Kette von Ereignissen, Forschungsergebnissen und Erfindungen. Auf den folgenden Zeilen zeichnen wir den Weg der modernen KI anhand einer der wichtigsten dahinterstehenden Meilensteine nach.

Es war unter anderem der irisch-englische Naturwissenschaftler Robert Boyle (1627-1692). Im Versuch, die seinerzeit in den Anfängen steckende Wissenschaft inmitten der Aufklärung begreifbarer zu machen, hing er, wie viele seiner Zeitgenossen, einem mechanistischen beziehungsweise mechanischen Weltbild an.

Diese damals recht populäre These, die sich an Newtons Gesetzen orientierte, ging davon aus, das Universum und alles, was sich darin befindet, funktioniere ähnlich einem Uhrwerk oder einer anderen komplexen Maschine– ebenso täte es der Mensch und sein Denken. Und wenn der Mensch wie eine Maschine „tickt“, wäre es natürlich möglich, dies nachzubilden.

Hinter diesen Anfängen verbirgt sich einer der großen menschlichen Träume: Etwas erschaffen, das seine Denk- und Handlungsmuster kopiert. Vor allem die neuere Vergangenheit ist deshalb voll von Versuchen, Maschinen und Literatur, die sich alle um einen wie auch immer gearteten künstlichen Menschen drehen.

Doch während sich Maschinen schon frühzeitig ziemlich leicht menschenähnlich gestalten ließen, war das Denken und Problemlösen immer das große Mysterium, das sich sämtlichen Versuchen widersetzte. Nun, zumindest bis fast in unsere Gegenwart. Denn künstliche Intelligenz ist keine Zukunftsmusik mehr. Doch selbst wenn man sämtliche unwissenschaftlichen Herangehensweisen ignoriert, spannt sich die Vorgeschichte bis vor den Zweiten Weltkrieg zurück.

Disclaimer: Zum besseren Verständnis der Hintergründe und Unterschiede von KI sei ein sehr guter Text der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt empfohlen.

Der Grundgedanke eines neuronalen Netzwerks

Von den Zeiten Boyles und Newtons war es ein weiter Weg. Denn obschon der Wunsch nach KI seit Jahrhunderten bestand, reifte erst im 20. Jahrhundert durch Fortschritte in Technik und Theorie das Verstehen, wie der Mensch überhaupt denkt und wie sein Gehirn funktioniert – und wie dementsprechend eine KI verfahren müsse.

Videos von YouTube werden aus Gründen des Datenschutzes erst angezeigt, wenn die Entsprechenden Cookies akzeptiert wurden. Bitte akzeptiere statistics, marketing cookies, um das Video zu sehen.


Ein Blick hinter die Kulissen

Nach dem Ersten Weltkrieg hatten die Neurowissenschaften enorme Fortschritte gemacht. Erstmals bekam man einen Einblick, wie das Gehirn als Kaskade von Neuronen, davon gebildeten Netzwerken und elektrischen Signalen arbeitet – eine Arbeitsweise, die durch die ein/aus-Schaltweise der Neuronen selbst faktisch digital ist.

Insofern ist die Geschichte der KI untrennbar mit derjenigen der Hirnforschung und der Digitalisierung als solcher verbunden. Vor allem der Brite Alan Turing mit seiner bahnbrechenden Grundlagenarbeit über Algorithmen und Berechnungen leistete hier unsagbar Wichtiges. Das Universalgenie gilt deshalb heute vielfach als einer der Väter (theoretischer) künstlicher Intelligenz. Nicht zuletzt ersann er 1950 den sogenannten Turing Test, der in der Retrospektive als der erste umfassende Qualitätsnachweis für die Leistungsfähigkeit künstlicher Intelligenz gilt.  

Während und kurz nach dem Zweiten Weltkrieg wurden zudem durch die beiden Amerikaner Warren McChulloch und Walter Pitts Neuronen und ihre Arbeitsweise unter anderem mathematisch untersucht. Ein Zögling der beiden, Marvin Minsky, war 1951 zusammen mit dem Ingenieur Dean Edmons der erste, der dies praktisch umsetzte: Sein SNARC (Stochastic Neural Analog Reinforcement Calculator) war ein auf Vakuumröhren basierendes Netzwerk von 40 künstlichen Neuronen. Dieses „Tier“ sollte und konnte das Denken einer Ratte in einem Labyrinth nachahmen.

Daddeln auf dem Ferranti Mark 1

Anfang der 1950er Jahre waren verschiedene wissenschaftliche Disziplinen darin vertieft, bislang nur theoretische Ansätze in Sachen Denken und Computerisierung Wirklichkeit werden zu lassen. Doch obschon SNARC für die damalige Epoche extrem fähig gewesen war, mangelte es nach wie vor an einer leichtverständlichen Demonstration praktischer Anwendbarkeit – nicht zuletzt enorm wichtig, um Geldgeber für die Forschung zu überzeugen.

Nicht unerheblich für diesen Mangel war die erst 1947 erfolgte Erfindung des Transistors. Erst durch ihn wurde der Weg frei für Rechenleistungen, die es ernsthaft ermöglichten, sehr komplexe Muster zu verarbeiten. Allerdings fand eine wichtige KI-Stufe noch auf einem röhrenbetriebenen Vorgänger statt.

Videos von YouTube werden aus Gründen des Datenschutzes erst angezeigt, wenn die Entsprechenden Cookies akzeptiert wurden. Bitte akzeptiere statistics, marketing cookies, um das Video zu sehen.

Ein Blick hinter die Kulissen

1951 hatte die britische Universität von Manchester den ersten Ferranti Mark 1 erhalten – eine kommerzialisierte Version des von der Universität zuvor selbst entwickelten Manchester Mark 1. Und damit der zweite digital arbeitende Großrechner, der für allgemeine Zwecke zu gebrauchen war – nach dem Zuse Z4.

Der britische Computer war aus verschiedenen Gründen wichtig für die Geschichte der Digitalisierung im Allgemeinen. Was jedoch KI anbelangt, war seine Bedeutung wahrhaft enorm. Denn frühzeitig entwickelten Computerpioniere wie Christopher Strachey, Dietrich Prinz und Arthur Samuel Spielprogramme für den Ferranti. Namentlich Dame und Schach.

Dadurch erschufen sie die im Rückblick erste angewandte Form von künstlicher Intelligenz: Game-AI. Vor allem das Dame-Programm von Arthur Samuel, das in der zweiten Hälfte der 1950er ent- und weiterentwickelt wurde, war bahnbrechend, da es in der Lage war, erfahrene Amateurspieler zu besiegen.

Das dahinterstehende Prinzip war theoretisch einfach, praktisch angewandt jedoch atemberaubend: Samuel schrieb einen Algorithmus, der anhand verschiedener Faktoren jederzeit seine eigenen Gewinnchancen berechnen und somit die aus seiner Sicht besten Züge vorhersagen konnte. Unter anderem standen dahinter Prinzipien, die bis heute eine Anwendung finden – allerdings dank dramatisch gestiegener Rechenleistungen deutlich komplexer – bei sogenannten Zufallszahlengeneratoren, die speziell bei Glücksspielen und in der Statistik benötigt werden.

Seit diesen Tagen bis heute blieb Game-AI deshalb ein extrem wichtiges Eichmaß, um KI-Entwicklungserfolge zu beziffern.

Übrigens: Der Ferranti-Computer war zudem der erste, der komplett synthetische Musik spielen konnte.

DSRPAI: Der Beginn eines neuen Zeitalters

1956 bekam eine Handvoll Wissenschaftler eine Einladung aus der Dartmouth-Eliteuniversität in New Hampshire. Mathematik-Professor John McCarthy lud zu einem achtwöchigen Workshop:

  • Dr. Marvin Minsky (SNARC-Erfinder),
  • Dr. Julian Bigelow (Computeringenieur),
  • Prof. Donald MacCrimmon MacKay (Physiker und Neurowissenschaftler),
  • Ray Solomonoff (Mathematiker),
  • John Henry Holland (Psychologe, Elektro- und Computeringenieur),
  • Dr. Claude Shannon (Mathematiker und Kryptograph),
  • Nathaniel Rochester (Mathematiker und Chef-Designer des IBM 704 Computers),
  • Oliver Selfridge (Mathematiker),
  • Allen Newell (Physiker, Kognitionswissenschaftler und Mitglied der RAND Corporation) sowie
  • Prof. Herbert Simon (Sozialwissenschaftler und späterer Nobelpreisträger)

wurden mit dem Versprechen geladen „[…] jeder Aspekt des Lernens oder anderer Formen von Intelligenz kann prinzipiell so präzise beschrieben werden, dass eine Maschine gefertigt werden kann, die ihn simuliert. […]“.

Zwischen 18. Juni und 17. August arbeitete dieses elfköpfige Team zusammen mit 36 anderen an den Themengebieten Computertechnik und -theorie, linguistische Sprachverarbeitung, neuronale Netzwerke, Abstraktion und Kreativität.

unsplash..com © Wei Zeng

Ein Blick hinter die Kulissen

Dieses Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI) war aus verschiedenen Gründen die Geburtsstunde eines holistischen Ansatzes bezüglich KI. Einige der fähigsten Köpfe der damaligen Epoche bündelten ihre Kompetenzen, diskutierten, theoretisierten und erschufen – unter anderem den Begriff der Artificial Intelligence höchstselbst. Zuvor hatte es verschiedene Begriffe gegeben, die je nach Background des Wissenschaftlers mehr in die maschinelle, computerisierte oder psychologische Richtung tendierten.

Heute gilt das DSRPAI deshalb als singulär wichtigstes Ereignis, das KI auf ein gemeinsames Fundament mehrerer wissenschaftlicher Disziplinen stellte und ausdefinierte. Zudem sorgte das Projekt für einen enormen Ideenschub, der sich in den kommenden Jahren multiplizierte. So lassen sich verschiedene Computerprogramme direkt auf den Workshop zurückführen. Sie lösten algebraische Probleme, konnten bislang unbewiesene Theorien be- oder entkräften und nicht zuletzt lernen, Sprachen zu sprechen – menschliche Sprachen.

ELIZA: Der weltweit erste Chatbot

Der Turing-Test sollte es Menschen anhand einiger Fragen ermöglichen, von einem unbekannten Gegenüber herauszufinden, ob es sich um einen Menschen oder einen Computer handele.

Bis in die 1960er hinein gab es jedoch keinen Fall, bei dem selbst der laienhafte Fragesteller nicht wirklich eindeutig unterscheiden konnte. Zwischen 1964 und 1966 allerdings wurde am amerikanischen MIT ein Programm entwickelt, das erstmalig eine gewisse Herausforderung darstellte – und in seinen Grundzügen direkt auf den Dartmouth Workshop zurückgeht.

Videos von YouTube werden aus Gründen des Datenschutzes erst angezeigt, wenn die Entsprechenden Cookies akzeptiert wurden. Bitte akzeptiere statistics, marketing cookies, um das Video zu sehen.

in Blick hinter die Kulissen

Informatiker Joseph Weizenbaum schrieb ELIZA. Ein Tool, das verschiedene Skripte nutzte, um dadurch Gesprächspartner zu simulieren – unter anderem einen Psychiater. Dazu griff ELIZA auf einen Thesaurus zurück. Gab das Gegenüber ein Wort ein, konnte das Programm basierend auf dazugehörigen Synonymen Antworten erzeugen.

Zwar war es spätestens mithilfe des Turing-Tests möglich, ELIZA als Computer zu entlarven. Dennoch war nicht nur die reine technische Grundlage gelegt, sondern überdies ein wichtiger Modus Operandi: ELIZA gab „menschlich wirkende“ Antworten, selbst wenn diese thematisch nicht exakt dem entsprachen, was der Mensch eingegeben hatte:

            Mensch: Mein Freund brachte mich dazu, hierher zu kommen.

            ELIZA: Ihr Freund brachte Sie dazu, hierher zu kommen?

            Mensch: Er sagt, ich wäre depressiv.

            ELIZA: Tut mir leid, dass Sie depressiv sind.

            Mensch: Es stimmt, ich bin unglücklich.

ELIZA: Glauben Sie, hierher zu kommen, wird Ihnen helfen, weniger unglücklich zu sein? Auf diese Weise konnte ELIZA wenigstens Laien glauben lassen, mit einem Menschen zu schreiben – obwohl die Antworten des Programms sich nur an vorherigen Sätzen und enthaltenen Signalwörtern orientieren. Übrigens ist dies bis heute gängige Praxis bei deutlich höherentwickelten Chatbots. Es nennt sich sogar ELIZA-Effekt und ist nach Ansicht mancher Wissenschaftler mitverantwortlich dafür, dass wir KI als intelligenter wahrnehmen als sie es eigentlich ist.

AI Winter: Eine niederschmetternde Phase

In den folgenden Jahren bis weit in die 1970er hinein wurden viele weitere Lösungen derartiger künstlicher Intelligenz erarbeitet. Vor allem in den 1960ern befand sich die Welt in einer diesbezüglich extrem zukunftsgläubigen Phase. Nicht unschuldig daran waren Aussagen durch verschiedene KI-Experten persönlich.

Unter anderem Allen Newell und Herbert Simon behaupteten bereits 1958, binnen zehn Jahren sei ein Computer Schachweltmeister und würde eine Maschine eine bedeutende neue mathematische Theorie aufstellen. Zehn Jahre später war Herbert Simon der Ansicht, Maschinen würden in 20 Jahren sämtliche menschlichen Arbeiten übernehmen können.

Das Problem an all solchen Aussagen: Sie waren viel zu optimistisch. Damalige KI war ausschließlich symbolische künstliche Intelligenz, Eine solche kann nur mit mathematischen, logischen Regeln arbeiten – und orientiert sich deshalb zu sehr an niedrigschwelligen menschlichen Verhaltensmustern. Ein Problem, denn damit können keine komplexeren Herausforderungen „freier“ gelöst werden. Seit dem Dartmouth Workshop wurden sowohl von staatlichen Stellen als auch privaten Unternehmen riesige Geldmengen in die Erforschung von künstlicher Intelligenz investiert. Schließlich waren die Erwartungen durch die Wissenschaftler selbst äußerst hochgeschraubt worden.

Videos von YouTube werden aus Gründen des Datenschutzes erst angezeigt, wenn die Entsprechenden Cookies akzeptiert wurden. Bitte akzeptiere statistics, marketing cookies, um das Video zu sehen.

Ein Blick hinter die Kulissen

Mit Beginn der 1970er wurde jedoch immer klarer, wie weit sich diese Erwartungen von der Realität abhoben. Nicht nur, weil die prognostizierten Ergebnisse ausblieben, sondern weil die Wissenschaft immer häufiger an einigen grundlegenden Schwierigkeiten hängenblieb:

  • Die Leistungsfähigkeit von Computer war schlicht zu gering, sowohl was Speicherkapazität als auch Rechengeschwindigkeit anbelangte.
  • Man erkannte, dass viele Computerprobleme nur in exponentiellen Zeiträumen zu lösen waren.
  • Die Neurowissenschaft deckte immer stärker auf, wie gigantisch menschliches Wissen selbst schon im kindlichen Stadium ist – viel größer, als man zuvor vermutet hatte.
  • Computer sind sehr gut darin, mathematische und geometrische Probleme zu lösen. Ungleich schwieriger ist es jedoch, typische menschliche Herausforderungen zu meistern – etwa das Erkennen eines Hindernisses samt Signal, es zu umsteuern.
  • Viele Probleme ließen sich nicht lösen, ohne fundamentale Änderungen an der bisherigen (monotonen) Logik vorzunehmen.

1973 hatte der sogenannte Lighthill Report die offensichtlichen Lücken in Großbritannien gnadenlos offengelegt. Ein Jahr später fühlte sich die US-DARPA-Behörde betrogen, als ein versprochenes Programm, das Sprachbefehle von Piloten in Steuerungssignale umwandeln sollte, nicht vorankam – das sogenannte SUR Debacle.

1974 hatten deshalb in Großbritannien und den USA, als den wichtigsten KI-entwickelnden Nationen, sämtliche staatlichen Stellen die zuvor üppig fließenden Forschungsgelder komplett gestrichen. In der zuvor so zukunftsgläubigen Wissenschaft machte sich extreme Ernüchterung breit.

Diese Phase hielt die gesamten restlichen 1970er über an und wurde nur von einer kurzen Tauwetterperiode Anfang/Mitte der 1980er abgelöst, die unter anderem durch die ersten LISP-Maschinen definiert wurde. Weiter spielten die extremen Rüstungsanstrengungen der USA unter Ronald Reagan eine wichtige Rolle. Jedoch wurden diese Hoffnungen ebenfalls enttäuscht.

Der Begriff AI-Winter wurde zwar erst 1984 geprägt und eigentlich handelt es sich um zwei getrennte Zeitspannen. Tatsächlich jedoch dauerte dieser Winter von 1974 bis ungefähr 1993 an. Erst nach diesem Zeitpunkt stiegen sowohl das Interesse als auch die theoretischen und praktischen Machbarkeiten wieder an – nicht zuletzt ausgelöst durch die stark angestiegenen Computerleistungen, das Aufkommen des Internets und eine völlig andere, weniger blind-optimistische Herangehensweise der Wissenschaft.

Ein „Body“ für die KI: Nouvelle AI

Über lange Zeit war die Forschung der Ansicht gewesen, die wichtigste menschliche Fähigkeit, die es nachzubilden galt, sei abstraktes Denken (abstract Reasoning) gewesen. Ende der 1980er befanden jedoch immer mehr Wissenschaftler, tatsächlich sei gesunder Menschenverstand (commonsense Reasoning) viel bedeutsamer. Man argumentierte, eines der Grundprobleme bisheriger KI sei es gewesen, am falschen Ende begonnen zu haben.

Besonders der Brite David Marr tat sich hierbei hervor. Er verwarf sämtliche Ansätze von Minsky und McCarthy und befand, KI müsse eher damit beginnen, sehen zu beherrschen (Computer Vision). Dies fand viel Zustimmung, vor allem bei anderen Forschern, die aus der Robotik stammten. Man befand, sensomotorische Fähigkeiten seien das Grundgerüst, auf dem ernsthafte KI erschaffen werden müsse; ähnlich wie es beim menschlichen Lernen der Fall sei. Einig war sich zudem die Fachwelt, der bisherige Ansatz über die physikalische Symbolhypothese sei nicht zielführend. Vielmehr müsse ein gänzlich anderer Ansatz gegangen werden.

Videos von YouTube werden aus Gründen des Datenschutzes erst angezeigt, wenn die Entsprechenden Cookies akzeptiert wurden. Bitte akzeptiere statistics, marketing cookies, um das Video zu sehen.

Ein Blick hinter die Kulissen

Es entstand deshalb der Trend der Nouvelle AI: Teils höchst einfache Roboter, die ebenso einfache künstliche Verhaltensmuster wie das Umgehen von Hindernissen beherrschten. Dadurch kam die Wissenschaft dem bisher vernachlässigten, gar streckenweise verworfenen Ziel nahe, KI einen „Body“ zu geben. Also nicht einfach nur menschliches Denken innerhalb eines Computers nachzubilden, sondern dieses Denken in einen Körper einzupflanzen. Die Argumentation dahinter: Wenn KI weiterkommen solle, müsse der Prozess ähnlich wie das Aufwachsen eines Kindes vollzogen werden – nicht gleich mit abstrakten Aufgabenstellungen wie Schachspielen. Nicht zuletzt, weil die Hardware entsprechende Fortschritte gemacht hatte, konnte dieser Ansatz guter Erfolge feiern.

Die letzten Hürden fallen

Ab Mitte der 1990er befand sich KI wieder in einem Aufwind, der in wissenschaftlichen Kreisen der Zeit in den 1950ern und den frühen 1960ern ähnelte. Hierbei kamen mehrere Dinge zusammen, die ein Erfolgsrezept aufstellten:

  • Die Wissenschaft konzentrierte sich darauf, Probleme isoliert zu behandeln und zu lösen, statt breite Ansätze zu verfolgen.
  • Mit der Tech-Branche entstand ein extrem potenter wirtschaftlicher Player, der sowohl als Geldgeber als auch als Entwickler, Auftraggeber und Abnehmer für praxistaugliche Lösungen infrage kam.
  • Rechengeschwindigkeiten und Speicherkapazitäten erreichten allmählich ein Level, das den Anforderungen vieler KI-Anwendungen entsprach.
  • Mit dem Ende des Kalten Krieges begannen zwar viele Regierungen Sparprogramme. Gleichsam konnte sich jedoch die Entwicklung von künstlicher Intelligenz von mehr oder weniger stark militärischen Nutzungszielen wegbewegen.

Was jedoch letztendlich den wissenschaftlichen Disziplinen besonders nachhaltig half, war die Erfüllung einiger seit den Frühtagen gehegten Wünsche. Sie dienten quasi als Erfolge und Machbarkeitsnachweise, auf die die Forscher so lange hatten vergeblich warten müssen.

Videos von YouTube werden aus Gründen des Datenschutzes erst angezeigt, wenn die Entsprechenden Cookies akzeptiert wurden. Bitte akzeptiere statistics, marketing cookies, um das Video zu sehen.

Ein Blick hinter die Kulissen

Einer der diesbezüglich vielleicht wichtigsten Momente in der Geschichte künstlicher Intelligenz geschah am Nachmittag des 11. Mai 1997. Nachdem das seit 1985 entwickelte System Deep Blue in einem von IBM gebauten Supercomputer ein Jahr zuvor Schachweltmeister Garry Kasparov unterlag, geschah in der sechsten Runde dieses Rematches das Unfassbare: Erstmalig besiegte ein Computerprogramm einen Schachweltmeister in einem Match unter offiziellen Wettkampfbedingungen.

Für die Medien war dies allein der ausschlaggebende Punkt. Für die Fachwelt war hingegen noch etwas ganz anderes von Bedeutung. Die Washington Post von damals beschrieb es folgendermaßen:

„Deep Blue, which can evaluate 200 million possible moves each second,
was expected to play a brute-force sort of game, like a tennis player smashing
only powerful shots across the court. Instead, the computer dazzled spectators – and Kasparov himself – with its ability to develop strategies as a human player would.
It was akin to surprising Kasparov with volleys and drop-shots across the chessboard.

To make matters worse for him, Kasparov said his efforts to change his playing style – sometimes trying to trick the computer and other times substituting his usual aggressive style for a more measured approach – essentially backfired. “I was playing against myself and something I couldn’t recognize,” he said.”

Obwohl Kasparov also seinen Stil änderte, konnte er die KI nicht überlisten. Sie besiegte ihn deshalb nicht nur, sondern war in jeder Hinsicht „besser“.

In den darauffolgenden Jahren fuhren autonome Fahrzeuge dank KI durch Wüsten und Städte, 2011 besiegte IBMs Watson zwei Jeopardy!-Gewinner. Und als schließlich die Suchmaschine Google entwickelt wurde und sich Konzepte wie Deep Learning, Data Mining und Spracherkennung durchsetzen, war der Siegeszug für KI perfekt.

Nun, zumindest für schwache KI. Denn bis eine KI entwickelt wird, die jedes Problem ohne Grenzen lösen kann, wird wohl noch einige Zeit verstreichen.

Fazit

Dass die Menschheit heute nicht nur in Science-Fiction-Medien über selbstfahrende Fahrzeuge staunen kann und Schachcomputer längst besser sind als der Mensch und es völlig normal geworden ist, mit einem Bot zu chatten, der kaum noch als solcher erkennbar ist, ist keine Entwicklung von jetzt auf gleich.

Vielmehr ist die Geschichte der KI unverbrüchlich mit der Entwicklung der Digitalisierung als solcher verbunden und daher wesentlich älter als mancher vermutet. Betrachtet man allerdings, in welch kurzen Zeiträumen Bahnbrechendes geleistet wurde, darf schon die nähere Zukunft mit Spannung erwartet werden.


Bildnachweise:

Ähnliche Beiträge

Rückmeldungen