Informatik-Professoren bestätigen meine KI-Skepsis

Paywall.

Du willst doch nicht etwa andeuten, dass die rasant fortschreitende Brutalisierung des Strassenverkehrs die Unfallzahlen senkt? Klar, ich weiss, die Covidmassnahmen sind schuld und das Flüchtlingschaos.

Reply to
Rolf Bombach
Loading thread data ...

Am 23.11.23 um 12:46 schrieb Rolf Bombach:

Das sieht die deutschsprachige Wikipedia anders. Für die ist KI=AI. Falsch?

formatting link

Reply to
Hartmut Kraus

Am 23.11.2023 um 13:07 schrieb Rolf Bombach:

Nach Fall der Berliner Mauer und dem Versprechen von US-Baker an Russland, dass sich die NATO um keinen INCH nach Osten ausdehnt, haben sich 14 ehemalige GUS-Staaten von Russland verabschiedet.

Ukraine ist Nr. 15.-

Da hat Russland wohl gesagt, dass jetzt Schluss ist. Ja, Russland ist eine Autokratie. Putin hat aber den GRU hinter sich, den Militärgeheimdienst, der das Russische Militär zusammenhält.-

Nun, ich liebe Russland, weil Teile meiner Famile in West-D seit 1918 im Russischen Widerstand aktiv sind, aber *wie* die das machen mit der Ukraine ist sehr übel.

*neutral*
Reply to
Leo Baumann

Helmut Schellong, 2023-11-16 21:24:

[...]

Und das hat das mit de.sci.electronics zu tun?

Reply to
Arno Welzel

Am 23.11.2023 um 23:25 schrieb Arno Welzel:

Das ist eine ausweichende Antwort, nach Isolation. ONtopic kommt stets durch Microcontroller und Prozessoren hinzu, da diese ohne Software tot sind.

Solange hier Hunderte 100%-OFFtopics freudig angenommen werden, kann ich über solche Einwände nur lachen.

Reply to
Helmut Schellong

Am 23.11.2023 um 12:51 schrieb Rolf Bombach:

Nein, meine Aussagen gründen darauf, daß die Allmeinheit 'KI' in der Öffentlichkeit für eine wirkliche Intelligenz hält, so wie die menschliche Intelligenz. Dies stimmt ja nun überhaupt nicht - und eben dagegen richten sich meine Aussagen.

Warum und wie warnte Stephen Hawking vor KI? Er meinte diejenige KI, wie sie von der Allgemeinheit verstanden wird, mit Bezug auf "KI". Er meinte eine KI, wie sie bei ChatGPT gar nicht vorliegt! Er meinte eine KI, wie sie vor Jahrzehnten schon in Kinofilmen als gefährlich aufbereitet wurde: Colossus, Westworld, Des Teufels Saat (!), I Robot. Solch eine KI ist noch gar nicht verfügbar.

Stephen Hawking meinte eine KI, die zwei Ebenen über der aktuell verfügbaren steht, und bedenkenlos /dumm/ vernetzt wurde und viele Aktoren zugreifbar gemacht wurden.

Ähnlich dumm werden auch viele Server angreifbar belassen. Wenn ich einen Webserver aufsetzen würde, wäre der mindestens 10-fach robuster als die Mehrheit der Server. Einen regelrechten Zusammenbruch könnte es gar nicht geben. Dieser Server würde alles /Bedenkliche/ /intelligent/ und stoisch abweisen.

Auch Ron Brachman hat seinen Artikel für gewöhnliche Leser verständlich geschrieben. Der von mir gepostete Artikel ist folglich kein wissenschaftlicher Artikel für Fachkollegen. Das sollte man beim Lesen berücksichtigen.

Der bezogene Text wurde nicht von mir, sondern von Hartmut Kraus geschrieben.

Sobald viele Level_5 in DE herumfahren.

Reply to
Helmut Schellong

Hartmut Kraus schrieb:

Die deutsche Wipedia sieht das genau gleich.

Ja, KI = AI.

Aber KI ist nicht Intelligenz. Und AI ist nicht AGI.

Reply to
Rolf Bombach

Arno Welzel schrieb:

Er hat den - nicht mal eigenen - Mist mittels elektronischer Geräte hier reingekippt.

Reply to
Rolf Bombach

Am 24.11.2023 um 11:31 schrieb Rolf Bombach:

Und überhaupt sind so kurze Abkürzungen nur aus dem Zusammenhang heraus brauchbar. AI steht z.B. auch für Amnesty International, All Inclusive, .ai ist die länderspezifische Top-Level-Domain (ccTLD) des britischen Überseegebietes Anguilla... Kann natürlich auch für Artificial Intelligence stehen.

formatting link
formatting link

Reply to
Christoph Müller

Helmut Schellong, 2023-11-24 00:53:

Nein, das ist gar keine Anwort, sondern eine *Frage*.

Warum glaubst Du, dass die Diskussion über KI *hier* On-Topic sei?

Ach so - weil andere Mist bauen, ist das dann bei Dir auch zu akzeptieren?

Reply to
Arno Welzel

Am 24.11.2023 um 20:28 schrieb Arno Welzel:

Du hast auf meinen Absatz mit einer Frage geantwortet. Deine Frage ist folglich eine Antwort auf meinen Absatz, der keine Frage ist.

Sie ist mit einem Grad von ungefähr 2/3 ONtopic.

Ja, in einem gewissen Grade passe ich mich an.

Ich sehe hier seit Monaten Hunderte Cross-Postings, von z.B. 'de.talk.tagesgeschehen' und 'de.soc.politik.misc' her, die fast alle zu 100% OFFtopic sind. Zudem wird von hier aus hunderte-fach auf diese 0%-ONtopic-Postings geantwortet. Dadurch werden OFFtopic-Postings massenweise anerkannt.

Meine Postings mit schwachem ONtopic sind hier vergleichsweise in einer winzigen Minderheit.

Charta dieser NG: ======================================================================================================= In diesem Diskussionsforum soll es um den praktischen Erfahrungsaustausch über analoge und digitale Schaltungstechnik, elektronische Komponenten, Entwicklungsmethoden, Entwicklungspraxis, Meßgerätepraxis, Computerperipherie, Mikroprozessoren und -controller, DSPs, etc., aber auch um Grundlagen gehen.

Dieses Forum soll dem Anfänger in gleicher Weise dienen wie dem Fortgeschrittenen. Die gegenseitige Unterstützung in allen Belangen der Elektronik soll der Leitgedanke dieser neuen Newsgruppe sein. Obwohl die Praxis im Vordergrund stehen soll, heißt dies nicht, daß keine theoretischen Diskussionen stattfinden sollen. =======================================================================================================

Durch _explizite_ Nennung von "Computerperipherie, Mikroprozessoren und -controller, DSPs, etc." ist 'Programmierung' automatisch 100% ONtopic, da diese Komponenten ohne Programmierung unbrauchbar sind. Zudem kommt, daß "theoretische Diskussionen" _ausdrücklich_ erlaubt sind. 'KI' steckt auch in weiteren expliziten Stichwörtern der Charta.

Ich habe hier übrigens erneut mit unerschütterlichen Belegen argumentiert. Meistens werden Belege allerdings /weg-geschwiegen/.

Reply to
Helmut Schellong

Am 24.11.2023 um 02:06 schrieb Helmut Schellong:

Recherchen von gestern, 24.11.2023

----------------------------------

formatting link
KI_ ist das, was wir aus Hollywood-Filmen kennen: Menschenähnliche Roboter, die – mal freundlich, mal auf Zerstörung aus – logisch denken und selbstständig handeln können. Das Ziel einer derartigen Superintelligenz ist es, die gleichen oder sogar höhere intellektuelle Fertigkeiten als der Mensch zu erlangen. Fakt ist: Davon sind wir weit entfernt. KI-Systeme übertreffen den Menschen bislang nur in Nischen, etwa im Schach. Eine starke KI mit gleichwertigen oder sogar höheren intellektuellen Fähigkeiten als der Mensch wird auf absehbare Zeit nicht entwickelt werden.

Spracherkennung, Übersetzungsdienste, Navigationssysteme oder die Werbung, die wir angezeigt bekommen: All diese Systeme basieren auf _schwacher KI_. Ihr Kennzeichen: Sie löst konkrete, dabei durchaus komplexe Probleme mit Hilfe von Methoden aus der Mathematik und Informatik. Die KI greift dazu auf Millionen von Daten aus Datenbanken zurück, zieht mit Hilfe von trainierten Lernalgorithmen Rückschlüsse und gibt Empfehlungen. Entwickelt werden KI-Systeme heute von großen Softwareherstellern, der Industrie wie auch von Start-ups, die damit Lösungen für definierte Aufgaben entwickeln. =======================================================================================================

Nachfolgend das Datum beachten! =======================================================================================================

formatting link
Software-Schwindel Darum wird künstliche Intelligenz völlig überschätzt MEINUNG Ein Gastbeitrag von Jürgen Geuter 29.08.2019

Künstliche Intelligenz gilt als großes Zukunftsthema. In Deutschland soll die Industrie sogar mit Milliarden gefördert werden. Dabei gibt es erhebliche Zweifel an den Fähigkeiten intelligenter Software.

Die Wahrheit über Sprachassistenten kam in diesem Sommer häppchenweise ans Licht. Nacheinander mussten die Tech-Giganten Amazon, Google, Apple und Facebook einräumen, dass ihre ach-so-intelligente Sprach-Software und -Assistenten nicht ohne menschliche Hilfe funktionieren. Alle vier Konzerne leiten die Sprachaufnahmen ihrer Nutzerinnen und Nutzer an Subunternehmen weiter, wo sie "zu Trainingszwecken" von Menschen abgehört und transkribiert werden.

Die Medien behandelten diese "Enthüllungen" vor allem als einen Datenschutzskandal. Dabei weisen sie auf ein viel tiefgreifenderes Problem hin: Die Fähigkeiten von sogenannter "künstlicher Intelligenz" werden permanent überschätzt. Und ihre Schöpfer haben keinerlei Interesse daran, den Irrtum aufzuklären.

Im Fall der Sprachassistenten wurden Anwenderinnen und Anwender in dem Glauben gelassen, sie redeten mit einer Maschine. Das nimmt ihnen die Scheu und Angst um die Privatsphäre. In Wahrheit war die angeblich so mächtige "KI" der Tech-Giganten nie in der Lage, ihre Aufgabe allein zu erfüllen. Deshalb wurde sie an billige Arbeitskräfte ausgelagert.

Künstliche Intelligenz? Wohl eher "Fauxtomation"!

Facebook und Co. befinden sich beim Einsatz von Menschen anstatt von künstlicher Intelligenz in guter Gesellschaft. Eine durch die Londoner Investmentfirma MMC durchgeführte Studie kam zu dem ernüchternden Ergebnis, dass 40 Prozent aller europäischen "KI-Start-ups" für ihre zentralen Geschäftsbereiche keinerlei KI-Technologien anwenden. Das Start-up Engineer.ai etwa versprach, die Programmierung von Apps durch "KI" zu automatisieren. Doch statt auf komplexe Softwaresysteme setzt die Firma in der Praxis doch lieber auf menschliche Programmiererinnen und Programmierer.

Im englischsprachigen Raum hat sich für diese Form der vorgetäuschten Automatisierung der Begriff "Fauxtomation" etabliert (abgeleitet vom französischen Wort für "falsch"). Fauxtomation bezeichnet Prozesse, bei denen von den Verantwortlichen behauptet wird, sie würden durch fortschrittliche Automatisierung und Technologie abgewickelt. In der Realität basieren sie aber auf unsichtbar gemachter menschlicher Arbeit.

In der Geschichte der KI hat das eine lange Tradition. Schon 1769 führte der Mechaniker Wolfgang von Kempelen das Publikum mit dem sogenannten "Schachtürken" hinters Licht. Der erste schachspielende "Roboter" war nichts weiter als ein Jahrmarktsschwindel: Im Kasten der angeblich intelligenten Maschine hockte ein Mensch, der die Vorrichtung bediente.

Schon der Begriff "künstliche Intelligenz" führt in die Irre

Für einen Schachcomputer brauchen Entwickler heutzutage freilich keine Taschenspielertricks mehr. Ein Programm mit klar definierten Regelsätzen tut es auch. Die KI-Forschung wendet sich bereits komplexeren Problemen zu. Mit echter Intelligenz hat das aber nach wie vor wenig zu tun.

"Künstliche Intelligenz" ist, wenn wir die Domäne von Science-Fiction-Romanen und -Filmen verlassen, in seiner aktuell praktizierten Form nur eine spezielle Form der Automatisierung. Beim sogenannten "Machine Learning" werden verschiedene statistische Verfahren automatisiert und auf sehr große Datenmengen angewendet, um Software für bestimmte Aufgaben zu trainieren.

Das System soll die Daten nach statistischen Mustern und Zusammenhängen durchsuchen und daraus "lernen". Ziel der Übung ist es, dass es später in einem ähnlichen Szenario dieselben Muster wiedererkennt und selbstständige Entscheidungen trifft.

Die Technik scheitert an der Wirklichkeit

Solche automatisierten Statistiksysteme sind zu durchaus beeindruckenden Leistungen in der Lage. Sie erkennen recht zuverlässig bestimmte Objekte wie Katzen, Verkehrszeichen oder Sehenswürdigkeiten auf Bildern. Oder sie werden zum Beispiel zur frühzeitigen Erkennung bestimmter Krankheitsbilder eingesetzt.

Doch selbst die beste Mustererkennungssoftware stößt in der Realität oft an ihre Grenzen. Ganze Onlinesammlungen handeln davon, dass KI-Systeme frittierte Hühnerschenkel nicht von zotteligen Welpen unterscheiden können oder Schoko-Brötchen mit Faultieren verwechseln.

Darüber kann man sich lustig machen. In Form von automatisierten Entscheidungssystemen, zum Beispiel bei Bewerbungsverfahren oder Sicherheitssystemen, sind solche fehleranfälligen und intransparenten Verfahren aber zu Recht umstritten. Diskriminierung und andere unerwünschte Effekte sind geradezu vorprogrammiert.

Ein Mustererkennungssystem kann nämlich nur das lernen, was in den Trainingsdaten vorkommt. Trainiere ich zum Beispiel eine Gesichtserkennung nur mit weißen Gesichtern, dann wird es die Gesichter von Menschen mit nicht-weißer Hautfarbe nicht erkennen. Die Verzerrung, die durch die Auswahl der Trainingsdaten ins System eingebracht wird, der sogenannte Bias, lässt sich der "KI" leider nicht direkt ansehen, sondern kann nur durch sorgfältige Beobachtung der Entscheidungen des Systems erahnt werden.

Die unsichtbaren Click-Arbeiter

Die Unternehmen, die KI-Systeme in den Markt bringen wollen, halten die Probleme offenbar für lösbar. Und wo sie es noch nicht sind, wird eben durch menschliche Zuarbeit nachgeholfen. Eine Armee an unterbezahlten Click-Arbeitern überbrückt – unsichtbar für die Benutzerinnen und Benutzer – die Kompetenzlücken der Systeme, damit sie scheinbar reibungslos funktionieren.

Von den Unternehmen wird der Rückgriff auf menschliche Arbeit immer nur als temporär dargestellt. Trotzdem ist diese Fauxtomation auf mehreren Ebenen problematisch. Denn eine realistische Auseinandersetzung mit KI ist unter diesen Voraussetzungen nahezu unmöglich. Und das hat Folgen.

Es beginnt damit, dass unter dem Stichwort der "KI" große öffentliche Förderprogramme für Wirtschaft und Forschung losgetreten werden. Die vorgetäuschte Leistungsfähigkeit der "intelligenten" Systeme nährt zudem das Narrativ der "KI" als quasi-magischer Technologie, die die großen Herausforderungen unserer Zeit wie zum Beispiel die Klimakatastrophe oder auch die Moderation von problematischen Inhalten im Internet lösen soll.

Facebook mag behaupten, dass die Darstellung von Kindesmissbrauch, von Gewalt oder anderen Grausamkeiten durch Maschinen aussortiert werden kann. In den Löschzentren sitzen am Ende aber doch Menschen vor Bildschirmen, die quasi ohne psychologische Betreuung und unter extremen Arbeitsbedingungen den ganzen Tag in diesen Inhalten waten.

Angst vor dem Jobverlust

Doch nicht nur Facebook weiß den Mythos von der mächtigen KI für sich zu nutzen. Auch andere Industrien können profitieren, indem sie Zukunftsängste schüren und Menschen glauben lassen, Software könne ihren Arbeitsplatz ersetzen. In den nächsten Jahren sollen "intelligente" Systeme sogar sicher geglaubte Jobs wie zum Beispiel die von Journalistinnen und Journalisten erledigen.

Diese Erzählung von der KI als ultimativem Job-Killer erhöht den Druck auf die Arbeitenden in den betreffenden Sektoren. Wenn die Maschinen ab morgen deine Arbeit machen könnten, dann darfst du nicht nach mehr Lohn oder der Anerkennung deiner Überstunden fragen. So wird dem Lohndumping und der weiteren Entwertung menschlicher Arbeit Vorschub geleistet.

Raus aus dem Teufelskreis

"Künstliche Intelligenz" ist ein Hype-Begriff. Er fungiert als Projektionsfläche für diverse, oft unrealistische Zukunftsvisionen und Versprechen. So heißt es schon seit gut zehn Jahren, autonome Autos seien "fast marktreif". Inzwischen kommen zu Recht Zweifel daran auf.

Unsere Vorstellung von KI ist abwechselnd geprägt von übertriebener Angst und übertriebenem Optimismus. Das ist womöglich auch kein Zufall, sondern Teil eines Programms. Mächtige Akteure haben den KI-Begriff für sich vereinnahmt und in ihrem Interesse geprägt.

Das fatale daran ist, dass die erfundenen Wirkungen und Fähigkeiten von KI reale Konsequenzen haben. Sie führen zu einer vergifteten Debatte und fehlgeleiteter Politik. Darum ist es höchste Zeit, die Debatte zu versachlichen. Wir müssen darüber reden, was Statistiksysteme (und um nichts anderes geht es hier) heutzutage leisten können, und was nicht.

Mit vielen angeblichen "KI"-Produkten verhält es sich nämlich wie mit den "magischen" Gewändern im Märchen "Des Kaisers neue Kleider". Zumindest für eine Weile funktioniert der Glaube an die wundersame Technik besser, als es die Technik jemals könnte. Doch wenn wir Zweifel zulassen, wird das Volk bald feststellen: In Wahrheit ist der Kaiser nackt. =======================================================================================================

Reply to
Helmut Schellong

Habe ich denn da was missverstanden?

Die AI habe ich für den nächsten evolutionären Schritt gehalten, mit dem sich die Computer nicht nur verschieden Algorithmen vorschreiben lassen (im Gegemsatz zu den mechanischen Rechenmaschinen) sondern selber aus den Daten Algorithmen schreiben.

Wenigstens autonom aus einigen vorgelegten Algorithmen (Programmen) die für die Aufgabe am besten passenden wählen?

GL

Reply to
Franz Glaser

Warum labert ihr eigentlich nur rum?

formatting link
-> Sign up -> snipped-for-privacy@meg-glaser.com (Paßwort)

-> Continue -> E-Mail bestätigen -> Ab dafür.

Spricht fließend Deutsch und Englisch. Hört aufmerksamer zu als 90% meiner biologischen Zeitgenossen.

Bilder gefällig? OpenAI hat auch einen Text2Image-Generator (DALL-E). Oder mal

formatting link
und 
formatting link
ausprobieren.

Wenn Du des Englischen mächtig bist:

formatting link
ein ganz unterhaltsames Potpourri der Dinge, die aktuell so gehen. In puncto Robotik hat wohl 
formatting link
die Nase vorn, auch wenn die hinter den Kulissen ziemlich viel vorprogrammieren und proben.

Wenn der Stoff soweit verinnerlicht ist, dann unterhalten wir uns vielleicht darüber, wie man den Kram in den eigenen vier Wänden aufsetzt und trainiert. Auch wenn das nur am Rande mit Elektronik zu tun hat.

Ja. Natürlich. Implementierungen bewerten, korrigieren und optimieren, zwischen unterschiedlichen Programmiersprachen übersetzen, endlose Möglichkeiten.

Volker

Reply to
Volker Bartheld

Diese Fragestellung wundert mich jetzt sehr heftig.

Genau diese Fragen zu KI/AI wurden in den letzten Tagen durch einen Haufen von Postings mit vielen Links darin vielschichtig beantwortet.

Warum also diese Fragen? Soll nun alles hierzu durch Kopieren verdoppelt werden?

Reply to
Helmut Schellong

Du schwurbelst und solltest Deiner eigenen Aufforderung "Kann jeder selbst testen." nachkommen. Damit ist nicht das gemeint, was man an (Internet)Stammtischen und in irgendwelchen Filterblasen als "KI" kolportiert, oder Dingen, denen planlose Fanboys nach dem Crypto-Blockchain-Hype jetzt hinterherhecheln. Ein bißchen mehr Ehrgeiz wäre schon gefragt.

Volker

Reply to
Volker Bartheld

Dazu wird eher KI beim Anrufer benötigt, um darauf zu kommen, wie man dem Bobbi eine Frage so stellen kann, dass er sie versteht.

Grüße, H.

PS Gelegentlich kommt der Verdacht auf, dass diese Anrufbeantworter nur das ungestörte Frühstück der Amtspersonen sichern sollen.

Reply to
Heinz Schmitz

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.