So lernen Maschinen
Sachverständige klären über Grundbegriffe auf
Autor: Sören Christian Reimer, erschienen im Das Parlament Nr. 43-45 / 22.10.2018
Was ist Künstliche Intelligenz (KI), was kann sie, was kann sie nicht? In ihrer dritten Sitzung hat sich die Enquete-Kommission „Künstliche Intelligenz“ vergangene Woche zunächst mit ganz grundlegenden Fragen befasst. Fünf Sachverständige aus der Kommission räumten dabei mit manchen Vorstellungen aus der Welt der Science Fiction auf. Eine allgemeine Künstliche Intelligenz (KI), eine „starke KI“, die Menschen quasi imitieren oder übertreffen kann, ist beispielsweise in Fachkreisen kein Thema, wie etwa Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz klarstellte. Relevanter seien die Entwicklungen im Bereich der „schwachen KI“. Das sind laut Burchardt einzelne Technologien zur „smarten Mensch-Maschinen-Interaktion“, etwa Sprachassistenten oder Internet-Suchmaschinen. Es gebe zudem nicht das eine „monolithische Software-System“, schränkte Burchardt ein, sondern KI-Systeme kämen in verschiedenen Ausprägungen daher.
Deep Learning Wie KI-Systeme im Grundsatz funktionieren, erläuterte Hannah Bast. Die Informatikerin von der Uni Freiburg führte die Enquete-Mitglieder in die Welt des maschinellen Lernens in Form des sogenannten Deep Learning ein. Maschinelles Lernen habe die Informatik revolutioniert, betonte Bast. Das sei „kein Hype, sondern einfach Fakt“.
Der Clou: Im Vergleich zu klassischen Algorithmen bedarf es beim Deep Learning keiner Regelvorgaben. Einem System, das auf Bildern Katzen identifizieren soll, muss eine Programmiererin also nicht in den Code schreiben, wie Katzen in all ihren Formen und Farben aussehen. Das bringt sich das System selbst bei. Die KI stellt sich durch Üben mit Trainingsdaten und komplexe Algorithmen so ein, dass es dann auch auf bisher nicht bekannten Bildern eine Katze erkennt.
Woran genau die KI das erkennt, ist kaum nachvollziehbar. Es sei schwer zu sagen, warum ein KI-System „eine bestimmte Entscheidung getroffen hat“, sagte Bast in Hinblick auf das als „Black Box“ bekannte Phänomen beim maschinellen Lernen.
Black Box Je nach Einsatzbereich ist die Existenz einer „Black Box“ allerdings ein Problem, wie Katharina Zweig vom Algorithm Accountability Lab der TU Kaiserslautern deutlich machte und damit auch ein wesentliches Feld der Arbeit der Enquete-Kommission umriss. Zweig stellte ein Konzept zur Kontrolle und Regulierung von KI-Systemen vor: Es komme demnach darauf an, welcher individuelle oder gesellschaftliche Schaden entstehen könnte und ob die Nutzer eine Alternative hätten. Ein KI-gestütztes Empfehlungssystem eines Internethändlers mag demnach schlechte Vorschläge unterbreiten, wirklicher Schaden entsteht dadurch aber nicht, zumal ein Wechsel des Anbieters leicht möglich ist. Anders stellt sich das laut Zweig etwa für Prognosesysteme zur Rückfälligkeit von Straftätern dar, wie sie in den USA bereits eingesetzt werden. Hier müssten wegen der möglichen drastischen Auswirkungen Daten und Prozesse der KI intensiver in den Blick genommen werden. Und mit Blick auf autonome letale Waffensysteme zweifelte Zweig, ob überhaupt ein Einsatz möglich sein sollte.
Schwerpunkt der nächsten Sitzungen sollen politische Ansätze sein: Die Enquete-Mitglieder wollen sich unter anderem mit der KI-Strategie der EU und der angekündigten KI-Strategie der Bundesregierung befassen.