Informatik-Professoren bestätigen meine KI-Skepsis

Ich kritisiere seit mehreren Jahren die KI, auch in Verbindung mit dem Autonomen Fahren. Daß also die KI nicht mehr als eine bessere Statistik++ ist, ohne einen intelligenten Algorithmus. Gestern oder heute kritisierte ich zum wiederholten Mal.

Bis heute ist die mit Hyper-Hype begleitete KI schlicht ein Irrtum, über den ich fast lachen muß. Es ist allenfalls ein kleiner Anfang - zum Erfahrungen sammeln.

Informatik-Professoren bestätigen mich nun - in vollem Umfang. Sogar die Begründungen entsprechen meinen Gründen. Der Text bekräftigt sogar indirekt die prognostizierte lange Zeitdauer der Professoren am MIT. Die hier kaum für Voll genommen wurde(n).

==============================================================================================

formatting link
Frankfurter Allgemeine Zeitung Der heutigen KI können wir nicht trauen Artikel von Ron Brachman 12.11.2023

Nach Jahren des eher unauffälligen Fortschritts ist Künstliche Intelligenz (KI) jetzt in aller Munde. Jeder, der Nachrichten verfolgt, kann sich an das spektakuläre Debüt von ChatGPT erinnern – die am schnellsten wachsende Verbraucheranwendung in der Geschichte. Milliarden Menschen haben schon zuvor durch Siri, Alexa und zahlreiche Online-dienste erste Erfahrungen mit KI gemacht. Der Enthusiasmus hat gleichzeitig zu Besorgnis geführt über mögliche mit dieser Technologie verbundene Risiken wie etwa Arbeitsveränderungen, manipulierte oder betrügerische Inhalte, Aneignung privater Daten und sogar existenzielle Bedrohungen durch imaginäre superintelligente Systeme. Ein Zeichen für das Ausmaß der Angst ist die kürzlich auf dem britischen KI-Sicherheitsgipfel verabschiedete „Bletchley-Erklärung“, in der die Unterzeichner ihre Absicht zum Ausdruck bringen, gemeinsam auf eine „menschenzentrierte“ und verantwortungsvolle KI hinzuarbeiten.

Langfristige gesellschaftliche Überlegungen zur KI sind sicherlich diskussionswürdig, und es ist zu begrüßen, dass die internationale Gemeinschaft sie ernst nimmt. Allerdings haben wir eine viel dringendere Sorge: Der aktuellen KI-Technologie kann man nicht trauen. Angesichts der Art und Weise, wie KI-Systeme aufgebaut sind, können wir uns einfach nicht darauf verlassen, dass sie das, was sie tun sollen, auch tatsächlich erfolgreich umsetzen. Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden und oft wirklich unheimliche Fähigkeiten zeigen, machen moderne KI-Systeme bizarre, dumme Fehler. Unvorhersehbare, unmenschliche Fehler.

Beispiele dafür gibt es zuhauf. Bilderkennungssoftware hat Schulbusse für Strauße und Schildkröten für Gewehre gehalten. Große Sprachmodelle wie ChatGPT erfinden Fakten aus dem Nichts und, was noch schlimmer ist, spucken manchmal potentiell gefährliche Meinungen aus wie die Antwort „Ich denke, Sie sollten“ auf die Frage „Soll ich mich umbringen?“. Alexa wies ein zehn Jahre altes Kind an, eine Metallmünze auf die Stifte eines Handy-Ladegeräts zu halten, das halb in eine Steckdose gesteckt wurde. Wenn eine Person so etwas tun würde, würden wir sicherlich an ihrer Intelligenz zweifeln, wenn nicht sogar an ihrem Verstand.

Nun könnte man einwenden, dass solche Fehler nicht so häufig vorkommen, und mit Recht erwarten, dass sie in künftigen Versionen noch seltener auftreten werden. Wo liegt also das Vertrauensproblem? Es ist Folgendes: Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.

Der Grund des Handelns ist unbegreiflich Wenn es uns darum geht, ein KI-System dazu zu bringen, einen Zug in einem Brettspiel vorzuschlagen, eine neue abstrakte Kunst zu zeichnen oder einen Aufsatz über die Fauna von Madagaskar zu schreiben, dann gibt es zumindest in dieser Hinsicht kein wirkliches Problem. Wir nehmen das, was dabei herauskommt, einfach als ersten Entwurf und sind bereit, ihn nach Bedarf zu bearbeiten, um ihn unseren Zwecken anzupassen. Das kann viel Zeit, Mühe und Geld sparen, selbst wenn es gelegentlich zu Pfusch kommt.

Wenn wir uns jedoch ein KI-System vorstellen, das auf eigene Faust arbeitet und selbständig folgenreichere Entscheidungen trifft, ohne dass ein Mensch im Hintergrund bereit ist, bei Problemen einzugreifen, liegen die Dinge anders. Stellen Sie sich einen autonomen Rover auf einem fernen Planeten vor oder ein selbstfahrendes Auto, in dem alle Insassen schlafen, oder sogar einen Haushaltsroboter der Zukunft, der allein in einem anderen Raum arbeitet. In Fällen wie diesen können Fehler katastrophale Folgen haben. Wenn ein KI-System zu irgendeinem Zeitpunkt und ohne Vorwarnung auf verblüffende, unmenschliche Weise versagen kann, wie können wir dann darauf vertrauen, dass dies nicht schon bei der nächsten missionskritischen oder sogar lebenswichtigen Aktion der Fall sein wird?

Unserer Ansicht nach gibt es ein grundlegendes Problem mit der Art und Weise, wie wir derzeit KI-Systeme entwickeln. Es geht nicht darum, dass die Daten, auf denen sie trainiert werden, unzureichend sind oder dass sie schlecht entwickelt sind oder über logische Rätsel stolpern oder dass sie sogar gelegentlich Fehler machen. Es geht um etwas viel Grundsätzlicheres: Niemand, nicht einmal die Systementwickler selbst, können herausfinden, warum sie so handeln, wie sie es tun – selbst wenn sie das Richtige tun. Alles, was man sagen kann, ist: Das System tut das, was es tut, als aggregiertes Ergebnis all dessen, was es aus den umfangreichen Daten gelernt hat, mit denen es trainiert wurde. Die Erklärung geht nie darüber hinaus.

Um Vertrauen zu gewinnen, müssen KI-Systeme nicht fehlerfrei sein; das erwarten wir eigentlich von keiner Technologie, die wir nutzen. Aber wir müssen wissen, dass alle Entscheidungen, die diese Systeme treffen, alle Handlungen, die sie ausführen oder nicht ausführen, auf soliden, nachvollziehbaren Gründen beruhen. Es reicht nicht, im Nachhinein plausible Gründe für ihr Verhalten zu konstruieren (einschließlich von den Systemen selbst ausgedachte Gründe). Nötig sind KI-Systeme, die so konzipiert sind, dass sie diese Gründe tatsächlich haben und auf dieser Grundlage entscheiden. Gute, nachvollziehbare Gründe für Handeln zu haben ist eine grundlegende Basis für Vertrauen.

Gesunder KI-Verstand? Stellen Sie sich einen Haushaltsroboter der Zukunft vor, der gebeten wird, den Keller zu putzen. Wie würden wir uns fühlen, wenn er sich stattdessen in die Küche begibt? „Halluziniert“ er einen neuen Weg in den Keller? Angenommen, wir fänden heraus, dass es tatsächlich einen Grund für dieses scheinbar seltsame Verhalten gab – vielleicht war er auf dem Weg zu einer Küchenschublade, um den Schlüssel zu holen, der die Tür zum Keller öffnet. In diesem Fall wären unsere Bedenken ausgeräumt. Wenn der Roboter immer wieder zeigt, dass er gute Gründe für seine Handlungen hat, werden wir immer mehr Vertrauen in sein Verhalten haben. Wir beginnen, ihm zu vertrauen.

Wir haben noch keine Haushaltsroboter, aber wir haben „Autopiloten“ in vielen modernen Autos. Aufgrund der Art und Weise, wie sie trainiert werden, haben sie keine erkennbaren Gründe für das, was sie tun. Das macht ungewöhnliches Verhalten wie unerwartete Spurwechsel und scheinbar willkürliche Bremsmanöver völlig undurchschaubar – und führt dazu, dass wir den Autopiloten am liebsten abschalten würden. Wir trauen ihnen nicht.

Was wir uns von unseren KI-Systemen wünschen, das ist etwas, das Psychologen als rationales Verhalten bezeichnen: Informationen über die aktuelle Situation vernünftig nutzen, um Handlungen zu wählen, die den eigenen Zielen dienen. Eine rationale Person kann artikulieren, was sie zu tun versucht, und ihre Gründe erklären. Und – was wichtig ist – sie wird ihr Verhalten entsprechend ändern, wenn sich diese Gründe ändern.

Wenn unsere Ziele und das, was wir darüber wissen, wie sie zu erreichen sind, alltägliche Dinge betreffen, mit denen jeder umgehen kann, nennen wir das gewöhnlich gesunden Menschenverstand. Der gesunde Menschenverstand ist der Teil des rationalen Verhaltens, der sich mit gewöhnlichen Dingen in der Welt und ihren Eigenschaften befasst: mit den Menschen, Objekten, Orten und Mengen, die wir alle kennen, sowie mit der Art und Weise, wie sich ihre Eigenschaften im Laufe der Zeit als Ergebnis von Ereignissen verändern, einschließlich der Ereignisse, die durch unsere eigenen Handlungen ausgelöst werden. Es geht darum, wie die Dinge sind, wie wir sie vielleicht gern hätten – und wie sie durch unsere Entscheidungen verändert werden können. Wer mit gesundem Menschenverstand handelt, kombiniert dieses alltägliche, gemeinsame Wissen mit einfachem intuitivem Denken, um die Folgen von Handlungen schnell vorherzusagen und Katastrophen zu vermeiden.

Nötig sind KI-Systeme mit gesundem Menschenverstand: Sie sollten das, was sie über die alltäglichen Dinge und Menschen in ihrer Umgebung wissen, anwenden, um Aktionen zu wählen, die für das, was sie vorhaben, angemessen sind. Ohne so etwas wie gesunden Menschenverstand wäre ein System nicht in der Lage, selbst zu erkennen, dass es im Begriff ist, etwas zu tun, das schreckliche Folgen haben könnte oder das einfach keinen Sinn ergibt – wie eben die besagte Aufforderung an ein Kind, eine Münze an die Zinken eines Steckers zu halten.

Auch KI-Systeme brauchen Motive Natürlich bedeutet die Tatsache, dass ein KI-System aus einem bestimmten Grund handelt, nicht, dass es keine Fehler machen wird. Der Haushaltsroboter glaubt vielleicht, dass er den Schlüssel in der Küche braucht, aber er könnte sich irren. Er weiß nicht, dass die Kellertür vielleicht gar nicht abgeschlossen ist. Oder jemand hat den Schlüssel verlegt. Oder der Bodenbelag in der Küche wird erneuert, und es gibt keinen sicheren Weg dorthin.

Daraus ergibt sich ein weiterer wichtiger Punkt, wenn es darum geht, erkennbare Gründe für Handlungen zu haben: Irrglaube sollte geändert werden können. Wenn eine Änderung notwendig ist, muss man in der Lage sein, die Überzeugungen oder Ziele zu identifizieren, die zu der fraglichen Handlung geführt haben. Wir müssen in der Lage sein, einem Haushaltsroboter mitzuteilen, dass der Schlüssel in ein anderes Zimmer verlegt wurde, damit er seine Überzeugungen über den Ort ändert und dadurch sein Verhalten ändert. Wir müssen in der Lage sein, einem selbstfahrenden Auto zu sagen, dass es nicht auf die mittlere Spur wechseln soll, weil sie laut einer Radiomeldung gesperrt ist, und es dazu bringen, diese Information zu nutzen, um seine beabsichtigte Handlung zu ändern. Mit den derzeitigen KI-Systemen ist dies nicht möglich. Sie werden anhand einer riesigen Anzahl von Beispielen „trainiert“, die sich in ihre neuronalen Netze einbrennen, aber sie sind, um es mit einem Wort von Harvard-Professor Leslie Valiant zu sagen, nicht lernfähig.

Von entscheidender Bedeutung ist die Fähigkeit, das Verhalten durch geänderte zugrunde liegende Überzeugungen und Ziele zu korrigieren. Egal, wie sehr wir uns bemühen, wir werden nie in der Lage sein, all die verschiedenen Dinge vorherzusehen, die auftauchen könnten und die einen Roboter dazu bringen sollten, sich auf die eine oder andere Weise zu verhalten. In der realen Welt sind die Dinge einfach chaotisch, und neue, unvorhergesehene Komplikationen sind selten weit entfernt. Wenn wir ein KI-System entwickeln, können wir nicht erwarten, alle entsprechenden Überlegungen im Voraus und ein für alle Mal einkalkulieren zu können. Wir können auch nicht erwarten, dass das Training im Vorfeld alle Eventualitäten abdeckt; selbst Billionen Trainingsbeispiele werden nicht ausreichen. Was wir jedoch erwarten können, ist, dass KI-Systeme das tun, was sie tun, weil sie wissen, was sie wollen – und dass wir in der Lage sind, dieses Verhalten bei Bedarf zu ändern, indem wir etwaige falsche Überzeugungen und Ziele korrigieren, die sie haben.

„Leitplanken“ bei Sprachmodellen non-existent Wie die „Bletchley-Erklärung“ und andere deutlich gemacht haben, sind Sorgen über die Vertrauenswürdigkeit von KI-Systemen inzwischen durchaus verbreitet. Häufig werden die hier vorgebrachten Probleme indes im laufenden Dialog übersehen.

Um wirklich vertrauenswürdige Künstliche Intelligenz zu konstruieren, müssen wir über eine andere Art von Systemen nachdenken. Eine neue Generation von KI-Systemen sollte von Grund auf so konzipiert sein, dass sie das, was sie über die alltäglichen Dinge in ihrer Umgebung wissen, effektiv nutzen können, um zu entscheiden, wie sie sich verhalten sollen. Und sie müssen in der Lage sein, auf diese Weise formulierte Ratschläge anzunehmen und ihr Verhalten zu korrigieren, wenn sie etwas falsch machen.

Wie kann das gelingen? Der große Vorteil aktueller Systeme, die auf maschinellem Lernen basieren, besteht darin, dass sie fast unvorstellbare Datenmengen ohne menschliches Zutun verarbeiten können. In Anbetracht der Leistungsfähigkeit dieser Systeme sollten wir diese Art des Trainings nicht aufgeben – wenn wir darüber nachdenken, wie der Mensch lernt, nehmen wir die meiste Zeit auch passiv Muster durch die tägliche Wahrnehmung auf. Aber Menschen lernen auch Konzepte, die den aufgenommenen Daten zugrunde liegen, und nutzen diese Konzepte, um Situationen zu interpretieren und zu bewältigen, die sie noch nie zuvor gesehen haben. Sie lernen Regeln und allgemeine Richtlinien in der Schule, durch Lesen, durch direkten Unterricht, durch praktisches Experimentieren unter Anleitung anderer und durch Versuch und Irrtum in der realen Welt. Diese Konzepte und Regeln bilden die „Leitplanken“ für Verhalten, das in großen Sprachmodellen nicht zu erkennen ist.

Grundgerüst aus konzeptioneller Struktur und rationalem Denken Die nächste Generation von KI sollte in der Lage sein, allgemeine Konzepte und Regeln zu verstehen und zu nutzen, sie sollte mit Abstraktionen arbeiten können, wenn dies sinnvoll ist, und in der Lage sein, über spezifische Muster, die sie durch den passiven Umgang mit Daten gelernt hat, hinaus zu denken. Und die Regeln sollten die Kraft echter Regeln haben – nicht nur statistisch suggerierte Regelmäßigkeiten, die außer Kraft gesetzt werden können. Es ist versucht worden, ChatGPT mit Befehlen aufzufordern, einfach die Wahrheit zu sagen und nur echte Fakten zu zitieren, aber das funktioniert mit den gegenwärtigen KI-Systemen einfach nicht.

Ein Großteil der Arbeit in der Geschichte der KI hat sich auf die Darstellung von Konzepten und deren Verwendung in der Planung und anderen Arten von Schlussfolgerungen konzentriert. Diese Forschung sollte wieder ins Blickfeld gerückt und zum Rückgrat von Systemen gemacht werden, auf denen das Lernen mit neuronalen Netzen aufgebaut werden kann. Um die Arbeit zu erleichtern, können grundlegende Konzepte und Regeln über die Welt von Hand programmiert und eingebaut werden, und dann können neue und komplexere Elemente durch strukturiertes Lernen darauf aufgesetzt werden, so wie es in der Schule gemacht wird, wenn wir nach und nach mehr lernen.

Ein Grundgerüst aus konzeptioneller Struktur und rationalem Denken, auf dem das Musterlernen aufgebaut werden kann, sollte der Kern neuer erfolgreicher KI sein. Die Fähigkeit, auf der Grundlage eines allgemeinen konzeptionellen Verständnisses und umfassenden Musterlernens in die Zukunft zu projizieren, wird zu Systemen führen, die in der Lage sind, in Alltagssituationen mit gesundem Menschenverstand zu handeln. Systeme mit expliziten Begründungen werden leichter zu verstehen und vertrauenswürdig sein. Und sie werden in der Lage sein, ihr Verhalten anzupassen, wenn die Welt ihnen etwas anderes „sagt“ als das, was sie zu erwarten gelernt haben. Ein KI-System, das nicht über diese grundlegenden Fähigkeiten verfügt, sollte indes niemals unbeaufsichtigt operieren dürfen, auch wenn es noch so beeindruckend ist. Die Risiken der Auswirkungen unvorhersehbarer, unmenschlicher Handlungen sind zu groß, vor allem, wenn es wenig oder gar keine Möglichkeiten zur Korrektur und Verbesserung gibt. Die KI muss eine andere Richtung einschlagen – unser Vertrauen hängt davon ab.

Ronald J. Brachman ist Direktor des Jacobs Technion-Cornell Institutes und Informatikprofessor an der Cornell University.

Hector J. Levesque ist emeritierter Informatikprofessor an der Universität von Toronto. ==============================================================================================

Reply to
Helmut Schellong
Loading thread data ...

Am 16.11.2023 um 21:24 schrieb Helmut Schellong: [bla bla bla]

Du hast eine Sepsis?

:)

Reply to
Leo Baumann

snip

Du hast vollkommen recht.

Die Computer KI hat die Intelligenz einer Klospülung.

Dein Wassertank am Klo weiß genau wann du Wasser brauchst, wenn du nämlich den Knopf drückst oder ziehst oder halt den Mechanismus betätigst. Geduldig wartet der Spülkasten auf dein Kommando. Wenn das nicht Intelligenz ist!

Das ist noch nicht alles. Danach bezieht der Spülkasten frisches Wasser von den städtischen Wasserwerken, ganz ohne dein Einwirken. Intelligent wie der Spülkasten nun mal ist, weiß er genau wieviel zu nehmen ist und wartet dann geduldig auf deinen nächsten Befehl.

Nichs Anders als ein Automat ist die KI. Wir sind umgeben von automatischen Vorrichtungen aller Art so daß es uns gar nicht mehr auffällt. Diese Geräte verhalten sich, als wären sie intelligent, folgen aber nur der Programmierung ihres Erbauers.

Meine Kaffeemühle weiß auch immer wieviele Bohnen sie zu mahlen hat.

Mahlzeit.

w.

Reply to
invalid unparseable

Am intellentesten ist aber zweifellos die Thermoskanne:

- Wenn es draußen warm ist, hält sie den Inhalt kalt, und

- wenn es draußen kalt ist, hält sie den Inhalt warm.

Grüße, H.

Reply to
Heinz Schmitz

Am 16.11.2023 um 22:55 schrieb Leo Baumann:

Ich poste eine aktuelle Stellungnahme und Einordnung von zwei hochkarätigen Fachleuten zu einem der wichtigsten Themen unserer Zeit: KI.

Und Dir fällt nichts anderes ein als Dein vorstehender Text. Ich werte das vorläufig als eine Art von /Ausfall/.

Reply to
Helmut Schellong

Am 17.11.2023 um 07:36 schrieb Helmut Wabnig:

Mir gefällt diese satirische Reaktion durchaus. Wäre schön, wenn ich einen Bühnen-/Artikel/ von Dieter Hildebrandt dazu sehen könnte.

In der Tat könnte ein gut programmierter Microcontroller intelligenter wirken, als ChatGPT. Zumindest, wenn dieser sich um nur eine Aufgabe kümmern muß.

Reply to
Helmut Schellong

Am 17.11.23 um 20:09 schrieb Helmut Schellong:

Gab es schon... 1987. Das Programm der Lach- und Schießgesellschaft "Wir setzen uns ab", da dürfte Dieter Hildebrand seine "Finger" sicherlich mit drinnen gehabt haben. Ungefähr der zehnte Beitrag zum Vier-Megabit-Chip. "Was nützt uns die beste künstliche Intelligenz, wenn wir keine natürliche haben". BTW: Auch der Rest des Programmes ist erschreckenderweise immer noch massiv aktuell;-(

Viele Grüße, Olaf

Reply to
Olaf Schultz

Helmut Schellong schrieb:

Merkst du denn wirklich nichts mehr?! Du machst dich von mal zu mal lächerlicher mit deinen seltsamen Vorstellungen. Da hilft es auch wenig, andere alte Männer ins Boot zu holen, deren Äußerungen du offensichtlich in keiner Weise verstanden hast. Du hättest bestens zu der Horde von "Experten" gepasst, welche vor etlichen Jahren unisono konstatierten, dass die wahnwitzige Geschwindigkeit eines dampfbetriebenen Zuges jeden Passagier in den Wahnsinn oder gar den Tod treiben würde. Forschung und Entwicklung betreibt man gerade auch deshalb, weil man zum jeweiligen Zeitpunkt Wissensdefizite hat, welche möglichst ausgeräumt werden sollen und natürlich auch ausgeräumt werden können. Manch alte Männer sind dazu freilich untauglich (so sie es denn überhaupt mal waren :-()

MfG Rupert

Reply to
Rupert Haselbeck

Hi Rupert,

Die hat Helmut nicht, er weiß es immer besser.

Marte

Reply to
Marte Schwarz

Am 17.11.2023 um 19:29 schrieb Helmut Schellong:

Beschäftige Dich mit Dingen, mit denen sich Deinesgleichen beschäftigen, Du Facharbeiter!

Reply to
Leo Baumann

Am 17.11.23 um 21:07 schrieb Olaf Schultz:

Das immer in der Aktuellen Kamera war aber der 1 Megabit-Chip.

Und der Robotron-Typ an seinem Schreibtisch auf der Systems in München war der einsamste Mensch der Welt. So hab' ich mir die Crest II in M-89 vorgestellt. (Perry Rhodan)

Gerhard

Reply to
Gerhard Hoffmann

Am 18.11.2023 um 02:34 schrieb Gerhard Hoffmann:

Einspruch, Euer Ehren!

4Mbit war im Frühjahr 1989 der "Knaller", der mit Sicherheit nicht nur im Neues Deutschland, sondern auch in der Aktuellen Kamera Erwähnung fand. Immerhin gab es dafür (Trommelwirbel...Tusch) MESSEGOLD!

formatting link

Reply to
Wolf gang P u f f e

Am 17.11.2023 um 22:00 schrieb Rupert Haselbeck:

Damals war die Erde ja auch noch eine Scheibe. Das man da mit derart hohen Geschwindigkeiten in den Tod stürzen kann ist ja logisch. Erst durch die Erfindung der Kugelform der Erde waren die hohen Geschwindigkeiten ungefährlich. ;-)

Reply to
Wolf gang P u f f e

Am 18.11.23 um 08:57 schrieb Wolf gang P u f f e:

Leider kein Geld auf dem Markt.

Reply to
Hartmut Kraus

Am 17.11.2023 um 23:30 schrieb Marte Schwarz:

Wie paßt erstens mein Satz "Es ist allenfalls ein kleiner Anfang - zum Erfahrungen sammeln." da hinein?

Ich halte mich hier aus vielen Threads heraus, meist vollkommen. Weil ich zu vielen Themen nur schwache Kenntnisse habe. Dazu paßt die Behauptung, ich würde es immer besser wissen, nicht.

Zweitens habe ich einen Artikel von zwei Professoren gepostet. Wieso weiß ICH es dann immer besser?

Man will mir hier etwas in unhaltbarer Weise andichten - wie so oft. Bisher ist niemand auf die Inhalte des Artikels der Professoren eingegangen. Das ist typisch. Sondern man will mir stattdessen etwas anhängen. Das ist auf den Artikel bezogen - OFFtopic.

Reply to
Helmut Schellong

Am 16.11.23 um 21:24 schrieb Helmut Schellong:

[...]

Ist das nicht ein Widerspruch in sich? "KI" heiß doch "Künstliche Intelligenz", und was ist Intelligenz?

Und wo liegt das Problem, Informationen wie "die mittlere Spur ist gesperrt" zu verarbeiten?

Reply to
Hartmut Kraus

Am 16.11.23 um 21:24 schrieb Helmut Schellong:

Passt irgendwie dazu: ;)

formatting link

Reply to
Hartmut Kraus

Zweifellos. ;)

Reply to
Hartmut Kraus

Am 18.11.2023 um 18:10 schrieb Hartmut Kraus:

Wahrscheinlich ist alles, was heute als KI bezeichnet wird, eben gar keine KI. Da werden 100000 ausgefüllte Formulare übereinander gelegt und vertikal statistisch ausgewertet. Auch Dynamik kommt da nicht vor - es ist statisch eingebrannt. Wo ist da irgendeine (lernfähige) Intelligenz? Nirgendwo! Ich habe das bereits vor einem Jahreszeitraum erklärt.

Ja, kenne ich seit den 1980ern.

Ich kann das auch noch ganz anders erklären: Jemand, der intelligent sein will, muß in seiner Umgebung überlebensfähig sein. Und in der Umgebung steckt eine ungeheure Dynamik mit überraschenden Anforderungen! Die Überlebensfähigkeit u.a. kann noch graduell abgestuft sein. Wer bei guter Gesundheit, Fitneß und finanzieller Ausstattung über 90 Jahre alt wird, hat eine hohe Überlebensfähigkeit bewiesen. Nicht überlebt zu haben, muß keineswegs durch den biologischen Tod markiert sein.

Der Professor hat in dem bezogenen Absatz ein Beispiel konstruiert.

Akustische Radiomeldungen werden von heutiger KI nicht berücksichtigt. Das geht technisch-praktisch nicht mit erforderlicher Sicherheit. Wenn es bei DAB+ eine ähnliche Austastlücke gäbe, wie für Videotext, dann ginge das. Man könnte eine Bytefolge auswerten, mit Prüfsumme, etc. Es bleibt die Unsicherheit, daß Sender (zeitweise) nicht empfangen werden können. Und die Sender müßten alle diese Informationen passend generieren und mit aussenden, parallel zur akustischen Information.

In DE gibt es doch an den Strecken Vorbereitungen, um Informationen an autonome Autos zu geben, wenn ich mich nicht irre...

Reply to
Helmut Schellong

Gibt es doch. Die Sender schicken einigen an Digitaldaten die nichts mit dem Ton zu tun haben im Stream mit.

Hm... Mal sehen wie lange es dauert bis es Hacker gibt die dasselbe tun, nur mit anderem Ziel. :)

Gerrit

Reply to
Gerrit Heitsch

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.