Ich kritisiere seit mehreren Jahren die KI, auch in Verbindung mit dem Autonomen Fahren. Daß also die KI nicht mehr als eine bessere Statistik++ ist, ohne einen intelligenten Algorithmus. Gestern oder heute kritisierte ich zum wiederholten Mal.
Bis heute ist die mit Hyper-Hype begleitete KI schlicht ein Irrtum, über den ich fast lachen muß. Es ist allenfalls ein kleiner Anfang - zum Erfahrungen sammeln.
Informatik-Professoren bestätigen mich nun - in vollem Umfang. Sogar die Begründungen entsprechen meinen Gründen. Der Text bekräftigt sogar indirekt die prognostizierte lange Zeitdauer der Professoren am MIT. Die hier kaum für Voll genommen wurde(n).
==============================================================================================
Nach Jahren des eher unauffälligen Fortschritts ist Künstliche Intelligenz (KI) jetzt in aller Munde. Jeder, der Nachrichten verfolgt, kann sich an das spektakuläre Debüt von ChatGPT erinnern – die am schnellsten wachsende Verbraucheranwendung in der Geschichte. Milliarden Menschen haben schon zuvor durch Siri, Alexa und zahlreiche Online-dienste erste Erfahrungen mit KI gemacht. Der Enthusiasmus hat gleichzeitig zu Besorgnis geführt über mögliche mit dieser Technologie verbundene Risiken wie etwa Arbeitsveränderungen, manipulierte oder betrügerische Inhalte, Aneignung privater Daten und sogar existenzielle Bedrohungen durch imaginäre superintelligente Systeme. Ein Zeichen für das Ausmaß der Angst ist die kürzlich auf dem britischen KI-Sicherheitsgipfel verabschiedete „Bletchley-Erklärung“, in der die Unterzeichner ihre Absicht zum Ausdruck bringen, gemeinsam auf eine „menschenzentrierte“ und verantwortungsvolle KI hinzuarbeiten.
Langfristige gesellschaftliche Überlegungen zur KI sind sicherlich diskussionswürdig, und es ist zu begrüßen, dass die internationale Gemeinschaft sie ernst nimmt. Allerdings haben wir eine viel dringendere Sorge: Der aktuellen KI-Technologie kann man nicht trauen. Angesichts der Art und Weise, wie KI-Systeme aufgebaut sind, können wir uns einfach nicht darauf verlassen, dass sie das, was sie tun sollen, auch tatsächlich erfolgreich umsetzen. Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden und oft wirklich unheimliche Fähigkeiten zeigen, machen moderne KI-Systeme bizarre, dumme Fehler. Unvorhersehbare, unmenschliche Fehler.
Beispiele dafür gibt es zuhauf. Bilderkennungssoftware hat Schulbusse für Strauße und Schildkröten für Gewehre gehalten. Große Sprachmodelle wie ChatGPT erfinden Fakten aus dem Nichts und, was noch schlimmer ist, spucken manchmal potentiell gefährliche Meinungen aus wie die Antwort „Ich denke, Sie sollten“ auf die Frage „Soll ich mich umbringen?“. Alexa wies ein zehn Jahre altes Kind an, eine Metallmünze auf die Stifte eines Handy-Ladegeräts zu halten, das halb in eine Steckdose gesteckt wurde. Wenn eine Person so etwas tun würde, würden wir sicherlich an ihrer Intelligenz zweifeln, wenn nicht sogar an ihrem Verstand.
Nun könnte man einwenden, dass solche Fehler nicht so häufig vorkommen, und mit Recht erwarten, dass sie in künftigen Versionen noch seltener auftreten werden. Wo liegt also das Vertrauensproblem? Es ist Folgendes: Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.
Der Grund des Handelns ist unbegreiflich Wenn es uns darum geht, ein KI-System dazu zu bringen, einen Zug in einem Brettspiel vorzuschlagen, eine neue abstrakte Kunst zu zeichnen oder einen Aufsatz über die Fauna von Madagaskar zu schreiben, dann gibt es zumindest in dieser Hinsicht kein wirkliches Problem. Wir nehmen das, was dabei herauskommt, einfach als ersten Entwurf und sind bereit, ihn nach Bedarf zu bearbeiten, um ihn unseren Zwecken anzupassen. Das kann viel Zeit, Mühe und Geld sparen, selbst wenn es gelegentlich zu Pfusch kommt.
Wenn wir uns jedoch ein KI-System vorstellen, das auf eigene Faust arbeitet und selbständig folgenreichere Entscheidungen trifft, ohne dass ein Mensch im Hintergrund bereit ist, bei Problemen einzugreifen, liegen die Dinge anders. Stellen Sie sich einen autonomen Rover auf einem fernen Planeten vor oder ein selbstfahrendes Auto, in dem alle Insassen schlafen, oder sogar einen Haushaltsroboter der Zukunft, der allein in einem anderen Raum arbeitet. In Fällen wie diesen können Fehler katastrophale Folgen haben. Wenn ein KI-System zu irgendeinem Zeitpunkt und ohne Vorwarnung auf verblüffende, unmenschliche Weise versagen kann, wie können wir dann darauf vertrauen, dass dies nicht schon bei der nächsten missionskritischen oder sogar lebenswichtigen Aktion der Fall sein wird?
Unserer Ansicht nach gibt es ein grundlegendes Problem mit der Art und Weise, wie wir derzeit KI-Systeme entwickeln. Es geht nicht darum, dass die Daten, auf denen sie trainiert werden, unzureichend sind oder dass sie schlecht entwickelt sind oder über logische Rätsel stolpern oder dass sie sogar gelegentlich Fehler machen. Es geht um etwas viel Grundsätzlicheres: Niemand, nicht einmal die Systementwickler selbst, können herausfinden, warum sie so handeln, wie sie es tun – selbst wenn sie das Richtige tun. Alles, was man sagen kann, ist: Das System tut das, was es tut, als aggregiertes Ergebnis all dessen, was es aus den umfangreichen Daten gelernt hat, mit denen es trainiert wurde. Die Erklärung geht nie darüber hinaus.
Um Vertrauen zu gewinnen, müssen KI-Systeme nicht fehlerfrei sein; das erwarten wir eigentlich von keiner Technologie, die wir nutzen. Aber wir müssen wissen, dass alle Entscheidungen, die diese Systeme treffen, alle Handlungen, die sie ausführen oder nicht ausführen, auf soliden, nachvollziehbaren Gründen beruhen. Es reicht nicht, im Nachhinein plausible Gründe für ihr Verhalten zu konstruieren (einschließlich von den Systemen selbst ausgedachte Gründe). Nötig sind KI-Systeme, die so konzipiert sind, dass sie diese Gründe tatsächlich haben und auf dieser Grundlage entscheiden. Gute, nachvollziehbare Gründe für Handeln zu haben ist eine grundlegende Basis für Vertrauen.
Gesunder KI-Verstand? Stellen Sie sich einen Haushaltsroboter der Zukunft vor, der gebeten wird, den Keller zu putzen. Wie würden wir uns fühlen, wenn er sich stattdessen in die Küche begibt? „Halluziniert“ er einen neuen Weg in den Keller? Angenommen, wir fänden heraus, dass es tatsächlich einen Grund für dieses scheinbar seltsame Verhalten gab – vielleicht war er auf dem Weg zu einer Küchenschublade, um den Schlüssel zu holen, der die Tür zum Keller öffnet. In diesem Fall wären unsere Bedenken ausgeräumt. Wenn der Roboter immer wieder zeigt, dass er gute Gründe für seine Handlungen hat, werden wir immer mehr Vertrauen in sein Verhalten haben. Wir beginnen, ihm zu vertrauen.
Wir haben noch keine Haushaltsroboter, aber wir haben „Autopiloten“ in vielen modernen Autos. Aufgrund der Art und Weise, wie sie trainiert werden, haben sie keine erkennbaren Gründe für das, was sie tun. Das macht ungewöhnliches Verhalten wie unerwartete Spurwechsel und scheinbar willkürliche Bremsmanöver völlig undurchschaubar – und führt dazu, dass wir den Autopiloten am liebsten abschalten würden. Wir trauen ihnen nicht.
Was wir uns von unseren KI-Systemen wünschen, das ist etwas, das Psychologen als rationales Verhalten bezeichnen: Informationen über die aktuelle Situation vernünftig nutzen, um Handlungen zu wählen, die den eigenen Zielen dienen. Eine rationale Person kann artikulieren, was sie zu tun versucht, und ihre Gründe erklären. Und – was wichtig ist – sie wird ihr Verhalten entsprechend ändern, wenn sich diese Gründe ändern.
Wenn unsere Ziele und das, was wir darüber wissen, wie sie zu erreichen sind, alltägliche Dinge betreffen, mit denen jeder umgehen kann, nennen wir das gewöhnlich gesunden Menschenverstand. Der gesunde Menschenverstand ist der Teil des rationalen Verhaltens, der sich mit gewöhnlichen Dingen in der Welt und ihren Eigenschaften befasst: mit den Menschen, Objekten, Orten und Mengen, die wir alle kennen, sowie mit der Art und Weise, wie sich ihre Eigenschaften im Laufe der Zeit als Ergebnis von Ereignissen verändern, einschließlich der Ereignisse, die durch unsere eigenen Handlungen ausgelöst werden. Es geht darum, wie die Dinge sind, wie wir sie vielleicht gern hätten – und wie sie durch unsere Entscheidungen verändert werden können. Wer mit gesundem Menschenverstand handelt, kombiniert dieses alltägliche, gemeinsame Wissen mit einfachem intuitivem Denken, um die Folgen von Handlungen schnell vorherzusagen und Katastrophen zu vermeiden.
Nötig sind KI-Systeme mit gesundem Menschenverstand: Sie sollten das, was sie über die alltäglichen Dinge und Menschen in ihrer Umgebung wissen, anwenden, um Aktionen zu wählen, die für das, was sie vorhaben, angemessen sind. Ohne so etwas wie gesunden Menschenverstand wäre ein System nicht in der Lage, selbst zu erkennen, dass es im Begriff ist, etwas zu tun, das schreckliche Folgen haben könnte oder das einfach keinen Sinn ergibt – wie eben die besagte Aufforderung an ein Kind, eine Münze an die Zinken eines Steckers zu halten.
Auch KI-Systeme brauchen Motive Natürlich bedeutet die Tatsache, dass ein KI-System aus einem bestimmten Grund handelt, nicht, dass es keine Fehler machen wird. Der Haushaltsroboter glaubt vielleicht, dass er den Schlüssel in der Küche braucht, aber er könnte sich irren. Er weiß nicht, dass die Kellertür vielleicht gar nicht abgeschlossen ist. Oder jemand hat den Schlüssel verlegt. Oder der Bodenbelag in der Küche wird erneuert, und es gibt keinen sicheren Weg dorthin.
Daraus ergibt sich ein weiterer wichtiger Punkt, wenn es darum geht, erkennbare Gründe für Handlungen zu haben: Irrglaube sollte geändert werden können. Wenn eine Änderung notwendig ist, muss man in der Lage sein, die Überzeugungen oder Ziele zu identifizieren, die zu der fraglichen Handlung geführt haben. Wir müssen in der Lage sein, einem Haushaltsroboter mitzuteilen, dass der Schlüssel in ein anderes Zimmer verlegt wurde, damit er seine Überzeugungen über den Ort ändert und dadurch sein Verhalten ändert. Wir müssen in der Lage sein, einem selbstfahrenden Auto zu sagen, dass es nicht auf die mittlere Spur wechseln soll, weil sie laut einer Radiomeldung gesperrt ist, und es dazu bringen, diese Information zu nutzen, um seine beabsichtigte Handlung zu ändern. Mit den derzeitigen KI-Systemen ist dies nicht möglich. Sie werden anhand einer riesigen Anzahl von Beispielen „trainiert“, die sich in ihre neuronalen Netze einbrennen, aber sie sind, um es mit einem Wort von Harvard-Professor Leslie Valiant zu sagen, nicht lernfähig.
Von entscheidender Bedeutung ist die Fähigkeit, das Verhalten durch geänderte zugrunde liegende Überzeugungen und Ziele zu korrigieren. Egal, wie sehr wir uns bemühen, wir werden nie in der Lage sein, all die verschiedenen Dinge vorherzusehen, die auftauchen könnten und die einen Roboter dazu bringen sollten, sich auf die eine oder andere Weise zu verhalten. In der realen Welt sind die Dinge einfach chaotisch, und neue, unvorhergesehene Komplikationen sind selten weit entfernt. Wenn wir ein KI-System entwickeln, können wir nicht erwarten, alle entsprechenden Überlegungen im Voraus und ein für alle Mal einkalkulieren zu können. Wir können auch nicht erwarten, dass das Training im Vorfeld alle Eventualitäten abdeckt; selbst Billionen Trainingsbeispiele werden nicht ausreichen. Was wir jedoch erwarten können, ist, dass KI-Systeme das tun, was sie tun, weil sie wissen, was sie wollen – und dass wir in der Lage sind, dieses Verhalten bei Bedarf zu ändern, indem wir etwaige falsche Überzeugungen und Ziele korrigieren, die sie haben.
„Leitplanken“ bei Sprachmodellen non-existent Wie die „Bletchley-Erklärung“ und andere deutlich gemacht haben, sind Sorgen über die Vertrauenswürdigkeit von KI-Systemen inzwischen durchaus verbreitet. Häufig werden die hier vorgebrachten Probleme indes im laufenden Dialog übersehen.Um wirklich vertrauenswürdige Künstliche Intelligenz zu konstruieren, müssen wir über eine andere Art von Systemen nachdenken. Eine neue Generation von KI-Systemen sollte von Grund auf so konzipiert sein, dass sie das, was sie über die alltäglichen Dinge in ihrer Umgebung wissen, effektiv nutzen können, um zu entscheiden, wie sie sich verhalten sollen. Und sie müssen in der Lage sein, auf diese Weise formulierte Ratschläge anzunehmen und ihr Verhalten zu korrigieren, wenn sie etwas falsch machen.
Wie kann das gelingen? Der große Vorteil aktueller Systeme, die auf maschinellem Lernen basieren, besteht darin, dass sie fast unvorstellbare Datenmengen ohne menschliches Zutun verarbeiten können. In Anbetracht der Leistungsfähigkeit dieser Systeme sollten wir diese Art des Trainings nicht aufgeben – wenn wir darüber nachdenken, wie der Mensch lernt, nehmen wir die meiste Zeit auch passiv Muster durch die tägliche Wahrnehmung auf. Aber Menschen lernen auch Konzepte, die den aufgenommenen Daten zugrunde liegen, und nutzen diese Konzepte, um Situationen zu interpretieren und zu bewältigen, die sie noch nie zuvor gesehen haben. Sie lernen Regeln und allgemeine Richtlinien in der Schule, durch Lesen, durch direkten Unterricht, durch praktisches Experimentieren unter Anleitung anderer und durch Versuch und Irrtum in der realen Welt. Diese Konzepte und Regeln bilden die „Leitplanken“ für Verhalten, das in großen Sprachmodellen nicht zu erkennen ist.
Grundgerüst aus konzeptioneller Struktur und rationalem Denken Die nächste Generation von KI sollte in der Lage sein, allgemeine Konzepte und Regeln zu verstehen und zu nutzen, sie sollte mit Abstraktionen arbeiten können, wenn dies sinnvoll ist, und in der Lage sein, über spezifische Muster, die sie durch den passiven Umgang mit Daten gelernt hat, hinaus zu denken. Und die Regeln sollten die Kraft echter Regeln haben – nicht nur statistisch suggerierte Regelmäßigkeiten, die außer Kraft gesetzt werden können. Es ist versucht worden, ChatGPT mit Befehlen aufzufordern, einfach die Wahrheit zu sagen und nur echte Fakten zu zitieren, aber das funktioniert mit den gegenwärtigen KI-Systemen einfach nicht.
Ein Großteil der Arbeit in der Geschichte der KI hat sich auf die Darstellung von Konzepten und deren Verwendung in der Planung und anderen Arten von Schlussfolgerungen konzentriert. Diese Forschung sollte wieder ins Blickfeld gerückt und zum Rückgrat von Systemen gemacht werden, auf denen das Lernen mit neuronalen Netzen aufgebaut werden kann. Um die Arbeit zu erleichtern, können grundlegende Konzepte und Regeln über die Welt von Hand programmiert und eingebaut werden, und dann können neue und komplexere Elemente durch strukturiertes Lernen darauf aufgesetzt werden, so wie es in der Schule gemacht wird, wenn wir nach und nach mehr lernen.
Ein Grundgerüst aus konzeptioneller Struktur und rationalem Denken, auf dem das Musterlernen aufgebaut werden kann, sollte der Kern neuer erfolgreicher KI sein. Die Fähigkeit, auf der Grundlage eines allgemeinen konzeptionellen Verständnisses und umfassenden Musterlernens in die Zukunft zu projizieren, wird zu Systemen führen, die in der Lage sind, in Alltagssituationen mit gesundem Menschenverstand zu handeln. Systeme mit expliziten Begründungen werden leichter zu verstehen und vertrauenswürdig sein. Und sie werden in der Lage sein, ihr Verhalten anzupassen, wenn die Welt ihnen etwas anderes „sagt“ als das, was sie zu erwarten gelernt haben. Ein KI-System, das nicht über diese grundlegenden Fähigkeiten verfügt, sollte indes niemals unbeaufsichtigt operieren dürfen, auch wenn es noch so beeindruckend ist. Die Risiken der Auswirkungen unvorhersehbarer, unmenschlicher Handlungen sind zu groß, vor allem, wenn es wenig oder gar keine Möglichkeiten zur Korrektur und Verbesserung gibt. Die KI muss eine andere Richtung einschlagen – unser Vertrauen hängt davon ab.
Ronald J. Brachman ist Direktor des Jacobs Technion-Cornell Institutes und Informatikprofessor an der Cornell University.
Hector J. Levesque ist emeritierter Informatikprofessor an der Universität von Toronto. ==============================================================================================