Künstliche Intelligenz (KI) beziehungsweise Artificial Intelligence (AI) und maschinelles Lernen werden zur Zeit in den Medien breit diskutiert. Auch von Deep Learning wird viel gesprochen. Doch was versteht man unter diesen Begriffen und wo sind die Unterschiede? Wo wird AI bereits angewendet, und welche Entwicklung zeichnet sich ab? Werden Roboter unsere Jobs übernehmen?
Vor wenigen Tagen, am 11. Mai 2017, fand die Konferenz Rise of AI im Deutschen Technikmuseum in Berlin statt. An einem Ort, wo so viel Geschichte der technischen Entwicklung bewahrt wird, sollte es an diesem Tag über die Zukunft gehen.
Eine Reihe von Experten aus unterschiedlichen Bereichen waren eingeladen, Einblicke in das komplexe Thema „Künstliche Intelligenz“ zu geben und die Diskussionen unter den zahlreichen Besuchern aus unterschiedlichen Branchen anzuregen.
Künstliche Intelligenz gibt es noch nicht
Es gab Präsentationen über unterschiedliche Aspekte von AI, so wie sie zur Zeit existiert, und wie sie sich zukünftig entwickeln könnte, doch in einem Punkt sind sie sich einig - künstliche Intelligenz im wahrsten Sinne des Wortes (artificial general intelligence), also eine Maschine, die menschliche oder übermenschliche Intelligenz aufweist, gibt es noch nicht. Man kann auch nur spekulieren, ob und wann diese kommen wird.
Dennoch gibt es Maschinen, die in bestimmten Aufgaben (narrow artificial intelligence) den Menschen längst übertroffen haben. Das klingt nach einem Widerspruch, doch es gibt einen wichtigen Punkt, der noch nicht erreicht ist - die Erkenntnisse aus der Lösung eines Problem auf ein anderes Problem zu übertragen, um auch dieses damit zu lösen. Das ist auch der entscheidende Meilenstein, der - wenn gelöst - zu einer Superintelligenz, der so genannten Singularität, führen kann. Und das wesentlich schneller, als man glaubt.
Maschine schlägt Mensch
Künstliche Intelligenz, die in einer bestimmten Aufgabe den Menschen übertrifft, gibt es schon länger. Einige Disziplinen wurden als viel zu komplex erachtet, als dass eine Maschine mit dem Menschen konkurrieren kann. Doch künstliche Intelligenz hat schon mehrmals beeindruckende Ergebnisse in eben solchen Aufgaben erzielt. „Deep Blue“ von IBM hat es 1996 und 1997 geschafft, in einigen Partien den damaligen Schach-Weltmeister Garry Kasparov zu schlagen. „Watson“ (ebenfalls von IBM) hat es geschafft, 2011 gleich zwei der Gewinner der amerikanischen Show „Jeopardy!“ zu besiegen.
Und 2016 hat „AlphaGo“ von Google einen der weltbesten Spieler des Brettspiels Go dominiert - etwas, das Experten für die nächsten 10 Jahren als unmöglich erachtet hatten. Google hat diese Aufgabe mit Hilfe von großen neuronalen Netzen gelöst, einem Teilbereich von Machine Learning, auch bekannt als „Deep Learning“. Das Programm lernt mit Hilfe dieser Technik selbst, wie das Spiel funktioniert und wie es gewonnen werden kann. Es wäre tatsächlich unmöglich, es mit festen Programmregeln zu lösen, da die Zahl der möglichen Züge in diesem Spiel viel zu groß ist, um ohne „Intuition“ auszukommen.
In einem spannenden Talk erzählte Dr. Damian Borth über Meilensteine in der Entwicklung von Deep Learning und gab Ausblicke. Als einen der entscheidendsten Erfolge auf dem Gebiet nennt er die Anwendung von Deep Learning auf Bild-Erkennung, womit ein Forscherteam alle anderen Methoden deutlich übertroffen hat. Damals war das Netz noch viel kleiner. Heute nutzen Unternehmen wie Google und Tesla ungeheure Datenmengen, um Aufgaben wie das autonome Fahren zu lösen.
Mit der steigenden Rechenkraft haben sich die tiefen neuronalen Netze in den letzten Jahren als ein Werkzeug erwiesen, mit dem man unzählige Probleme mit erstaunlicher Genauigkeit lösen kann. Diese Netze sind vom menschlichen Gehirn inspiriert. Sie bestehen aus Knoten, Neuronen genannt, die miteinander verbunden werden, so dass Information durchfließen kann. Wenn eine Verbindung das Endergebnis verbessert, dann wird diese gestärkt. Und umgekehrt: wenn sich dadurch das Ergebnis verschlechtert, wird diese Verbindung geschwächt.
Das Interessante dabei ist, dass das System in der Lage ist, selbst zu lernen, und sich zu verbessern, indem es unterschiedliche Lösungswege für das Problem ausprobiert und sich selbst „modifiziert“, bis es sich selbst nicht mehr übertreffen kann. Im Falle von AlphaGo hat die Software irgendwo auf dieser Reise der Selbstverbesserung die besten menschlichen Spieler übertroffen.
Doch nochmal - das System wird nur in derjenigen Problemlösung gut, auf die es trainiert wurde. Bei einem neuen Problem fängt das Ganze wieder bei Null an.
Auswirkungen auf die Arbeitswelt
Einen interessanten Punkt sprach Trent McConaghy in seiner Präsentation an - eine künstliche Intelligenz muss nicht den Status von artificial general intelligence oder Singularität erreichen, um in unserem Leben vergleichbare Sichtbarkeit zu erreichen.
Punkt eins: viele Jobs heutzutage erfordern keine Superintelligenz. Sie sind jetzt schon von der Automatisierung bedroht, was erhebliche wirtschaftliche Konsequenzen hätte.
Punkt zwei: mit Hilfe der Blockchain - einer Art verteilter Datenbank, die nicht retrospektiv modifiziert werden kann - ist man bei Kopplung mit AI heute schon in der Lage, ein System zu schaffen, das sich immer weiter verbessert und neu konfiguriert, das nicht angehalten werden kann und das niemand besitzt. Wenn die Aufgabe dieser Maschine ist, auf eine bestimmte Art Geld zu verdienen (z. B. Bilder erstellen und diese dann verkaufen), dann wird dieses System dies unermüdlich und blitzschnell tun und den Gewinn akkumulieren. Sofern der Markt das hergibt, sind also die ersten AI-Millionäre in Sicht.
Durch die Medien entsteht jedoch auch viel Hype um das Thema Künstliche Intelligenz. Die steigende Erwartungshaltung an die Systeme muss nicht unbedingt erfüllt werden. In seiner Präsentation warnt Dr. Danko Nikolic, dass das zu einem neuen „AI-Winter“ führen kann, also das Verlassen oder Abschwächen der Forschungsbemühungen in dieser Richtung. Es wäre nicht das erste Mal, dass so etwas passiert. Im Falle von Deep Learning existieren die Technologien, auf denen es beruht, schon seit den Neunzigern. Doch damals hatten sie die Erwartungshaltung nicht erfüllt und es hat lange gedauert, bis sie wieder in den Fokus der breiten Masse gerückt sind.
Ethische Betrachtungen
Die Frage, ob künstliche Intelligenz unsere Zukunft negativ oder positiv beeinflussen wird, ist eher philosophisch, aber wichtig. In unserer heutigen Welt, die von Information getrieben wird, und in der wir von Daten überschwemmt werden, stellt sie ein Werkzeug dar, ohne das wir kaum in der Lage wären, diese „Flut“ zu bewältigen. Die Automatisierung unserer Jobs ist auch nichts Neues, sondern die Fortsetzung eines Prozesses, der schon lange im Gange ist. Betrachten wir die moderne Landwirtschaft oder Produktionsstrecken im Automobilbereich, so wird schnell ersichtlich, dass Maschinen uns längst die schwere und „langweilige“ Arbeit abgenommen haben. Wir erreichen nun ein Stadium in unserer Geschichte, in dem auch analytische und sogar kreative Arbeit von Maschinen übernommen werden kann.
Manch einer sieht darin eine Gefahr, andere sehen darin neue Möglichkeiten und eine Zukunft, in der wir neue Jobs haben, die unsere „Menschlichkeit“ zelebrieren. Eins ist sicher - es ist längst keine Science Fiction mehr. Wir müssen uns alle an der Diskussion beteiligen, um die unausweichliche Weiterentwicklung der künstlichen Intelligenz in eine positive Richtung zu treiben.