
Ereignisse von menschheitsgeschichtlicher Relevanz werden oft erst viel später als solche erkennbar. Als zum Beispiel Antonio Meucci Mitte des 19. Jahrhunderts den Fernsprechapparat erfand, weil seine Frau aufgrund einer Krankheit nicht mehr ihr Zimmer verlassen konnte, erfuhr die Welt zunächst nichts davon. Dass das Telefon Wirtschaft, Gesellschaft, das menschliche Zusammenleben insgesamt völlig umkrempeln würde, war vermutlich nicht einmal Meucci selbst klar. Anderes schien wichtiger damals.
Im Oktober 2017 wird in Deutschland um eine nie dagewesene Koalition gerungen, in den USA twittert sich Donald Trump immer weiter ins historische Abseits, Recep Tayyip Erdogan lässt ausländische Gäste nach Gutdünken einsperren oder freilassen. Auch da kann ein Ereignis von menschheitsgeschichtlicher Relevanz von der breiten Öffentlichkeit schon mal fast übersehen werden.
Nützlichkeit wächst in gewaltigem Tempo
Aber was ist denn passiert? Googles Künstliche-Intelligenz-Tochter Deepmind hat mal wieder einen Forschungsbericht über ein System veröffentlicht, dass toll Go spielen kann. Wenn Sie sich mit dem Themengebiet auskennen, werden Sie jetzt vielleicht sagen: "Na und, alter Hut, da war doch schon dieses AlphaGo vor eineinhalb Jahren, das einen der damals weltbesten Spieler mit 4:1 vom Platz fegte."
Für alle, für die auch das noch Neuigkeiten sind, hier noch mal die Kurzfassung: Go galt bis zu diesem Sieg als das Spiel, das Computer noch viele Jahre nicht so gut spielen können würden wie Menschen. Es gibt zu viele Kombinationsmöglichkeiten, um mit schierer Rechenleistung besser zu sein als ein Mensch. Gute Go-Spieler brauchen das, was wir Menschen Intuition nennen.
AlphaGo aber ist nicht einfach ein Computer, es bestand aus mächtiger Hardware und drei Hand in Hand arbeitenden Softwaresystemen. Zwei davon waren sogenannte neuronale Netze.
Diese neuronalen Netze gibt es schon seit Jahrzehnten, aber in den letzten paar Jahren ist ihre Nützlichkeit in gigantischem Tempo gewachsen. Noch immer sind Rechner am Werk, aber die Art, wie sie die Welt simulieren, ist bei neuronalen Netzen fundamental anders als bei herkömmlicher Software. Was sie besonders gut können, so wie menschliche Gehirne, ist Lernen.
Zuerst 60:0, dann 100:0
AlphaGo lernte damals mit zwei unterschiedlichen Methoden: Es wurde mit Zehntausenden historischen Go-Partien gefüttert - und es spielte gegen sich selbst. Auf diese Weise trainierten seine Schöpfer es binnen weniger Monate von einem System, das den europäischen Go-Champion schlagen konnte - in der Go-Szene nicht gerade eine Legende - bis hin zu dem mächtigen Werkzeug, das das weltweit verehrte Go-Genie Lee Sedol demütigte.
Danach hat Deepmind nicht aufgehört, was dann nicht mehr so viel Aufmerksamkeit erregte. Anfang 2017 veranstaltete die Firma noch ein Go-Event. Eine neue Version von AlphaGo mit dem Beinamen "Master" trat darin gegen eine ganze Reihe der besten Go-Spieler der Welt an - und gewann sechzig zu null. Auch dieses System war zu Beginn mit geballtem menschlichem Go-Wissen gefüttert worden.
Und jetzt das.
Am 19. Oktober erschien in "Nature" ein Fachartikel über das jüngste Kind der AlphaGo-Familie, dieses trägt den Beinamen Zero. Es läuft auf deutlich einfacherer Hardware als das Monster, das 2016 Lee Sedol schlug, und es kommt mit nur einem neuronalen Netz aus, das im Konzert mit einem anderen KI-System arbeitet.
Der Emporkömmling ist Autodidakt
AlphaGo Zero bekam keinerlei Hinweise auf gute Strategien. Man brachte ihm lediglich die Spielregeln bei (siehe Bilderstrecke oben). Binnen drei Tagen spielte AlphaGo Zero 4,9 Millionen Partien gegen sich selbst. Anfangs noch zufällig und dann immer besser. Es lernte aus seinen Fehlern - und zwar auf beiden Seiten des virtuellen Spielbretts. So ähnlich wie der von den Nazis eingesperrte Dr. B. in Stefan Zweigs "Schachnovelle".
Nach diesen ersten drei Tagen trat AlphaGo Zero gegen seinen älteren Bruder an, das System, das im März 2016 das Go-Genie Lee Sedol geschlagen hatte. Der Autodidakt AlphaGo Zero schlug das ältere, auch auf Basis menschlicher Inputs trainierte System mit 100 zu 0.
Danach trainierte AlphaGo Zero weiter, biblische 40 Tage lang, und trat anschließend gegen seinen anderen älteren Bruder an, AlphaGo Master. Das System also, das noch Monate zuvor gleich mehrere der weltbesten Spieler vernichtend geschlagen hatte. Wieder gewann der Emporkömmling, der ohne menschlichen Input Go trainiert hatte, diesmal mit 89 zu 11.
"Wie ein Gott"
Menschen spielen seit etwa 2500 Jahren Go. Schon nach dem ersten Sieg von AlphaGo gegen Lee Sedol war klar, dass künftig Menschen von Maschinen lernen könnten. Nun aber, eineinhalb Jahre später, hat ein in Sachen Hardware und Software weniger aufwendiges System binnen drei Tagen eine noch vergangenes Jahr unerreichte Meisterschaft in dem Spiel erlangt. Und das, ohne eine einzige Information über von Menschen erdachte Strategien zu bekommen.
Auf neuronalen Netzen basierende Systeme können nicht nur Go spielen, sie lassen sich für eine Vielzahl von Problemstellungen einsetzen: von Bilderkennungüber Übersetzungen bis hin zur Krebserkennung oder der Entwicklung neuer Werkstoffe oder Medikamente. Sie werden in naher Zukunft Probleme lösen, an denen die Menschheit seit Jahrhunderten scheitert. Und zwar, wenn sich das Problem ausreichend exakt beschreiben lässt, ohne unsere Hilfe. Wir werden diese Lösungen womöglich nicht mehr verstehen, auch wenn sie funktionieren.
Als Ke Jie, der derzeitige Go-Weltmeister, im Mai gegen AlphaGo Zeros Vorgängerversion verlor, sagte er hinterher, die Software habe noch 2016 wie ein Mensch gespielt, nun aber habe sie sich in einen "Go-Gott" verwandelt. Aber eben einen Gott mit menschlichen Lehrmeistern.
Der neue Go-Gott brauchte keine mehr.