„Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“ – Arthur C. Clarke

Vorbemerkung: Dieser Artikel ist stark von einem Artikel von Oren Etzioni auf Wired beeinflusst und der Erkenntnis geschuldet, dass ein solcher Artikel auch auf Deutsch sehr nützlich wäre.

Der Hype um “Künstliche Intelligenz” (KI) ist längst im Mainstream angekommen. Beim WDR gibt es Thementage zu KI, Non-Profits wie das Betterplace Lab nehmen das Thema auf die Agenda, ZEIT ONLINE hat eine eigene Rubrik zu KI. Dabei geht die Berichterstattung, wie bei Hypes so üblich, nicht selten an der Realität vorbei. Deep Learning ist in aller Munde und glaubt man der Werbung denken kognitive Computer wie IBMs Watson längst wie Menschen. Was bedeutet es, wenn Computer plötzlich hoch komplexe Spiele wie Go besser beherrschen als Menschen? Als jemand, der täglich mit den Algorithmen praktisch arbeitet, die „Künstlicher Intelligenz“ zugrunde liegen, halte ich es für angebracht, einmal in einfachen Worten klarzustellen was eigentlich der Stand der Technik bei „Künstlicher Intelligenz“ ist. Das Grundprinzip findet dabei auch in komplexen Anwendungen wie selbstfahrenden Autos oder der Spracherkennung in Googles und Apples Smartphones Anwendung.

Maschinelles Lernen

Man spricht bei den verwendeten Algorithmen auch von maschinellem Lernen. Am weitesten erforscht und eingesetzt wird dabei das überwachte Lernen (supervised learning). Um solche Algorithmen für ein Problem anwenden zu können muss es heruntergebrochen werden (vgl. Etzioni) in:

  1. eine Zielfunktion: diese ordnet einem Eingabedatum (z.B. einer Repräsentation der Steine, die auf einem Go-Brett liegen) einen Ausgabewert zu (z.B. den nächsten nächste Zug im Go-Spiel, das durch die Eingabe repräsentiert wird),
  2. Trainingsdaten: eine Menge Eingabedaten für die der gewünschte Ausgabewert bekannt ist (z.B. viele Go-Spiel-Bretter und der nächste Zug, den ein menschlicher Go-Spieler getätigt hat),
  3. eine Datenrepräsentation: Eine Darstellung der Realität in einer für den Algorithmus verarbeitbaren Form (z.B. die Darstellung eines Go-Feldes als eine Matrix mit den Zahlen 0=kein Stein, 1=weißer Stein, 2=schwarzer Stein),
  4. einen Lernalgorithmus: dieser versucht eine Annäherung der Zielfunktion durch die gegebenen Trainingsdaten zu erreichen und
  5. einen Hypothesenraum: der Raum möglicher Funktionen, aus dem der Algorithmus auswählen kann (bei Deep Learning z.B. durch die Anzahl und Anordnung der „Neuronen“ festgelegt)

Auf Basis einer trainierten Zielfunktion kann ein System dann Entscheidungen treffen, wie bei einem gegebenen Go-Brett einen weiteren Zug zu spielen. Diese Beschreibung deckt einfache Algorithmen wie aus der Statistik bekannte Regressionen aber auch das komplexere Deep Learning ab.

Geeignete Zielfunktion und Datenrepräsentation finden

Es ist wichtig zu verstehen, dass all diese Komponenten derzeit und auf absehbare Zeit für jedes einzelne Problem sehr sorgsam von Experten ausgewählt, getestet und so lange optimiert werden müssen, bis ein zufriedenstellendes Ergebnis erreicht wird. Dies erfordert substantielles Domänenwissen, um eine geeignete Zielfunktion und Datenrepräsentation zu finden, und viel Geduld, um den richtigen Lernalgorithmus zu finden. Außerdem stehen häufig zwar viele Eingabedaten bereit, es fehlt jedoch der gewünschte Ausgabewert. Diese Annotation der Trainingsdaten muss in vielen Fällen von Menschen mit großem Aufwand vorgenommen werden. Häufig vergehen Monate, manchmal Jahre, bis ein solches System gut genug ist, um es in einem Produkt (wie Apples Siri) zu verwenden.

Ebenfalls ist es wichtig zu verstehen, dass ein solches System weder seine Zielfunktion ändern kann, noch eine Funktion außerhalb seines Hypothesenraumes wählen kann. AlphaGo könnte nicht ohne substantielle menschliche Eingriffe lernen Schach zu spielen – es müssten mindestens Zielfunktion und Datenrepräsentation von Menschen angepasst werden und neue Trainingsdaten – ebenfalls von Menschen – zur Verfügung gestellt und aufbereitet werden.

Wenn man genau ist, dann verwendet AlphaGo eine etwas andere Algorithmenklasse mit dem Namen Bestärkendes Lernen (Reinforcement Learning), bei dem statt annotierten Trainingsdaten eine Belohnungsfunktion zum Einsatz kommt, die einer Ausgabe im Nachhinein eine Belohnung oder Bestrafung zuordnet (z.B. wenn ein Go-Spiel durch einen Zug gewonnen wurde), wodurch die Strategie des Algorithmus nach und nach verfeinert wird. Auch hier gelten dieselben Beschränkungen durch die gewählte Zielfunktion, die Datenrepräsentation, etc.

Geeignete Repräsentation für die Bedeutung von Sprache finden

Das was wir also heutzutage beherrschen und einsetzen und im Allgemeinen als „Künstliche Intelligenz“ präsentieren, sind im Wesentlichen Optimierungsalgorithmen. Wir können Probleme mit maschinellem Lernen nur dann lösen, wenn wir sie in eine für diese Optimierungsalgorithmen geeignete Form bringen können. Diese Übersetzungsarbeit werden auf absehbare Zeit menschliche Experten unter großem Aufwand betreiben müssen. Das erklärt, warum Computer immer noch große Schwierigkeiten haben, natürliche Sprache zu verstehen. Es ist ein ungelöstes Problem, eine geeignete Repräsentation für die Bedeutung von Sprache zu finden.

Dem Menschen ähnliche KI, wie es sich die Pioniere des Forschungsbereichs erhofft hatten, gibt es also (noch immer) nicht. Ob sich das je ändern wird und ob wir diese jemals erfinden werden, vermag ich nicht vorherzusagen. Ich halte es nicht für unmöglich, aber gehe nicht davon aus, dass ich es erleben werde. Dafür scheint das, was wir als „Künstliche Intelligenz“ verkaufen, viel zu weit weg von dem, was menschliche Intelligenz ist. Das heißt nicht, dass diese Art von Algorithmen nicht schon bald eine Menge weiterer Aufgaben übernehmen kann.

Die Brille, durch die wie dabei schauen sollten, ist aber viel mehr die der Digitalisierung und Automatisierung. Apokalyptische Szenarien wie auch Utopien zu menschenähnlicher KI, die schon lange kursieren, scheinen vor diesem Hintergrund nicht wirklich näher als vor 20 Jahren. Statt uns mit falschen Ängsten oder falschen Erwartungen verrückt zu machen, sollten wir mit nüchternem und kritischem Blick die wirtschaftlichen und sozialen Chancen sowie die ethischen Herausforderungen von maschinellem Lernen betrachten und jede Entscheidung mit der gebotenen Besonnenheit treffen. Anders gesagt: Don’t panic.

696 mal gelesen