Was kann Künstliche Intelligenz?
Wie funktionieren Systeme Künstlicher Intelligenz? Und warum werden sie dem Menschen auf absehbare Zeit nicht den Rang ablaufen? Ein Überblick.
Lesedauer: 6 Minuten
Künstliche Intelligenz ist ein Teilgebiet der Informatik, das sich mit der Entwicklung und Anwendung intelligenter Systeme befasst. „Intelligent“ heißt in diesem Fall, dass sie selbstständig Probleme lösen können. Darunter lassen sich sehr unterschiedliche Ansätze fassen, von herkömmlicher Programmierung bis hin zum Deep Learning, das auf sogenannten neuronalen Netzwerken basiert – Systemen, die der Funktionsweise des Gehirns nachempfunden sind.
Paradigmenwechsel im Programmieren
Der fortwährende Hype um KI ist eine direkte Folge eines Paradigmenwechsels. Die Erstellung von Software wurde seit ihren Anfängen primär vom Paradigma des Programmierens dominiert: Zeile für Zeile, Befehl für Befehl wird dabei der Lösungsweg vom Entwickler festgelegt. Noch immer basiert der Großteil von Software auf diesem Prinzip. Es hat das Rückgrat der Digitalisierung und Automatisierung gebildet, und sein Potenzial zur Produktivitätssteigerung ist auch heute noch nicht ausgeschöpft.
Allerdings sind die Möglichkeiten solcher „manuell“ erstellter Programme begrenzt: Sie können Probleme nur in festgelegter Reihenfolge lösen – und immer mit der gleichen Effektivität. Geht es zum Beispiel um die Erkennung von Objekten auf Fotos, stoßen sie schnell an ihre Grenzen. Katze oder Hund? Menschen haben mit dieser Frage keine Probleme. Doch die dabei im Gehirn ablaufenden Vorgänge sind äußerst komplex und auch uns selbst kaum bewusst zugänglich: Sie sind nicht in klare Regeln überführbar.
Heutige KI-Systeme können daher mehr als nur Regeln auszuführen. Sie erkennen Zusammenhänge und Muster und entwickeln selbstständig Lösungsansätze. Dafür benötigen sie eine zentrale Fähigkeit: Sie müssen lernen können.
Machine Learning
Die Theorien des maschinellen Lernens oder Machine Learning reichen bis in die 1940er-Jahre zurück. Doch erst seit wenigen Jahren sind lernende Systeme in der Breitenanwendung angekommen. Ermöglicht wurde dies im Wesentlichen durch drei Faktoren: die sich stetig steigernde Leistungsfähigkeit von Computerhardware, bessere Algorithmen – und die riesigen Mengen kollektiv verfügbarer Daten (Big Data), die im Zuge der fortschreitenden Vernetzung der Welt generiert werden. Zudem ermöglicht die Open-Source-Bewegung, dass immer mehr Menschen auf immer mehr Tools und Datensätze zugreifen können.
Milliarden Fotos auf Social-Media-Plattformen, Tausende Stunden an Videomaterial, die täglich auf Plattformen wie YouTube hochgeladen werden, die sensorischen Daten von unzähligen Wetterstationen, Satelliten oder Kameras zur Verkehrsüberwachung, aber auch Informationen in Textform, von Wikipedia und Online-Newsportalen bis hin zu Nutzerbeiträgen in Kommentarspalten und Facebook-Likes: Das digitale Abbild der analogen Welt wird von Tag zu Tag reicher und detaillierter. Und je mehr Details die digitale Sphäre anreichern, umso mehr wird das in ihnen enthaltene implizite Wissen für lernende Maschinen verfügbar.
Als besonders effizient bei dessen Erschließung haben sich neuronale Netzwerke erwiesen. Ihre Funktionsweise hat man sich beim menschlichen Gehirn abgeschaut: Dort bildet ein wandelbares Geflecht von sich selbstorganisierenden Hirnzellen, den Neuronen, die Grundlage der menschlichen Intelligenz. Solche neuronalen Verschaltungen lassen sich in vereinfachter Form auf Computern simulieren und können dann mit Daten trainiert werden. Während der Trainingsprozess dabei sehr lange dauert und riesige Mengen an Daten benötigt, kann ein einmal trainiertes Netz auch sehr rechenaufwendige Aufgaben in kürzester Zeit lösen.
Deep Learning
Beim Deep Learning werden die Neuronen, ähnlich wie im Gehirn, hierarchisch angeordnet: Eine Input-Schicht erfasst die Rohdaten, zum Beispiel die Pixel eines Bildes, anschließend filtern nachfolgende Schichten nach und nach abstraktere Informationen aus den Daten. So werden bei einer Gesichtserkennung auf den unteren Schichten zunächst einfache geometrische Muster erkannt, während die tieferen Schichten darauf aufbauend immer komplexere Objekte erfassen, von Augen, Nase und Mund bis hin zum ganzen Gesicht. Die letzte Schicht, der Output-Layer, gibt dann zum Beispiel den Namen der Personen aus, die das System durch Lernerfahrung bereits erkennen kann.
Die mittleren Schichten des Netzes werden auch als „Hidden Layers“ bezeichnet: Sie formen untereinander selbstständig Verbindungen, sind aber nicht ohne Weiteres beobachtbar. Das macht neuronale Netzwerke zu einem ebenso mächtigen wie schwer durchschaubaren Werkzeug. Hinzu kommt, dass in der Regel für jedes neue Problem eine neue Architektur entwickelt werden muss: Wie viele Schichten hat das Netz? Wie viele Neuronen müssen die Schichten jeweils beinhalten? Dafür wurden bislang noch keine allgemeingültigen Gesetzmäßigkeiten entdeckt. Außerdem reichen für komplexe Aufgabenstellungen einzelne neuronale Netze nicht aus, oft müssen mehrere unterschiedliche Systeme miteinander kombiniert werden. Die Entwicklung von KI bleibt eine Tüftelarbeit.
Viele Menschen haben Angst vor neuen Technologien und versuchen diese zu meiden. Doch möchte man das beste der Menschheit rausholen, muss man Technologien einsetzen und diese für uns nutzen. Man muss mit ihnen und nicht gegen sie arbeiten. Der Schauspieler Garri Kasparow veranschaulicht diese Wichtigkeit in einem TED Talk:
Strategien des maschinellen Lernens
Im Kern lassen sich sechs Strategien des maschinellen Lernens unterscheiden:
1. Supervised Learning:
Beim überwachten Lernen werden dem System bereits kategorisierte Daten vorgelegt. Das können zum Beispiel Bilder sein, die Hunde zeigen und bereits als solche beschriftet wurden. Anhand von zahlreichen Beispielen beginnt das System, sich spezifische Merkmale zu erschließen, es entwickelt sein eigenes Modell vom zu erkennenden Objekt und kann danach im Idealfall zielsicher Hundebilder identifizieren.
2. Unsupervised Learning:
Beim unüberwachten Lernen wird der KI kein Ziel vorgegeben. Stattdessen wird sie mit Rohdaten gefüttert und soll in ihnen selbstständig Strukturen entdecken. So kann eine KI etwa selbst herausfinden, dass es eine Kategorie „Hund“ gibt, nachdem sie eine große Zahl von Tierbildern analysiert hat. Sie kann aber auch zu ganz anderen Ergebnissen kommen, etwa zu den Kategorien „helle Tiere“ und „dunkle Tiere“.
3. Self-Supervised Learning
Eng verwandt mit dem unüberwachten Lernen ist das selbstüberwachte Lernen: das autonome Lernen mit Hilfe künstlicher neuronaler Netzwerke, ohne Rückgriff auf Beispieldaten, die zuvor menschlich klassifiziert wurden. Damit eignet sich die Methode besonders dann, wenn nur wenige Beispieldaten vorliegen. Häufig wird ein Teil der Trainingsdaten zurückgehalten, den die KI dann vorhersagen muss, etwa das nächste Wort in einem Satz. Die Methode wird unter anderem zur automatisierten Spracherkennung genutzt.
4. Semi-Supervised Learning
Beim teilüberwachten Lernen, einer Kombination aus überwachtem und unüberwachtem Lernen, ist nur ein kleiner Teil der Daten bereits gelabelt. Durch das Training mit diesen Daten erstellt die KI ein Modell, mit dem sie Zusammenhänge erkennen und die noch nicht deklarierten Daten in eine passende Kategorie einordnen kann.
5. Reinforcement Learning:
Das bestärkende Lernen hat sich für bestimmte Anwendungen als besonders wirkungsvoll herausgestellt. Hier wird die KI durch ein Belohnungssystem zur fortwährenden Optimierung ermutigt. So sind etwa Spiele erlernbar, indem man der KI das Ziel vorgibt, eine möglichst hohe Punktzahl zu erreichen. Die meisten Spielautomatenklassiker der 1970er- und 1980er-Jahre, aber auch hochkomplexe Brettspiele wie das ostasiatische „Go“ sind für solche Systeme längst kein Problem mehr. Der Lernprozess startet in der Regel mit zufälligen Steuerbefehlen oder Zügen. Wird ein Punkt erzielt, merkt sich die KI, welche Handlungen dazu geführt haben. In sehr vielen Durchläufen wird sie schließlich zu einem versierten Spieler – der dem Menschen oft überlegen ist.
Was auf den ersten Blick wie der heilige Gral der KI-Forschung wirkt, hat jedoch auch Schwächen: Ein reines Ausprobieren auf Zufallsbasis ist zwar zum Erlernen simpler Mechanismen effektiv, doch je komplexer das virtuelle Umfeld ist und je mehr Möglichkeiten und Lösungswege es gibt, desto länger braucht das System – und findet vielleicht auch gar keine Lösung.
6. Generative Adversarial Networks (GAN):
GAN bestehen aus zwei neuronalen Netzwerken, die ein Nullsummenspiel durchführen. Das eine Netz, der Generator, erzeugt Kandidaten, zum Beispiel Bilder, und präsentiert dem anderen Netz, dem Diskriminator, entweder das generierte oder ein wirkliches Bild aus einem festgelegten Datenpool. Der Diskriminator versucht zu klassifizieren, ob es sich bei dem Bild um ein generiertes oder ein wirkliches Bild handelt. So werden beide Netze verbessert, da der Generator lernt, ein möglichst perfektes Bild zu erzeugen, und der Diskriminator, das generierte Bild immer besser zu erkennen. Berühmtheit erlangten die generative Netzwerke 2018, als ein von einem GAN erstelltes Kunstwerk bei dem Auktionshaus Christie’s für 380.000 Euro versteigert wurde. Das gleiche Prinzip funktioniert auch für Text oder Ton.