n

Handelsblatt: |Abschied nach einem Jahrzehnt – Apple beerdigt Autopläne | |Definitiv bekannt war nur, dass Apple zu selbstfahrenden Fahrzeugen umgebaute Testwagen |im Silicon Valley auf die Straße schickte. | |Zum Verhängnis geworden sind dem Projekt laut Bloomberg zwei Probleme: }o Das angestrebte vollautonome Fahren auf Level vier (dabei kann das Fahrzeug auf bestimmten Strecken | ganz ohne Fahrer unterwegs sein) habe sich nicht wie geplant umsetzen lassen. |o Bei einem angepeilten Verkaufspreis von unter 100.000 Euro erschien dem Management | die Marge im Vergleich zu anderen Apple-Produkten als zu gering.

Man beachte: Bereits Level 4 ließ sich nicht umsetzen.

Ich sagte all dies bereits vor Jahren voraus. Realistisch bleiben nach wie vor einzig die Einschätzungen des MIT, die ich vor Jahren mitteilte, die jedoch hier eher nur von mir geteilt wurden.

Ich hatte damals erkannt, wie extrem komplex die Angelegenheit ist. Gleiches gilt auch für KI - weshalb es bisher auch keine wirkliche KI gibt.

Reply to
Helmut Schellong
Loading thread data ...

Apple konnte es nicht umsetzen. Unter anderem weil "die Marge zu gering" gewesen wäre. Apple ist der Konzern der einen Monitor-Ständer (ohne Monitor) für 1000 Euro verkauft hat.

Gruß

Manuel

Reply to
Manuel Reimer

Jeder mit a bissel Hausverstand erkennt sowas, macht aber nich jeder einen Pahöl desdwechen.

w.

Reply to
invalid unparseable

Nein, die beiden Gründe sind unabhängig voneinander. Apple konnte Level 4 _nicht_ realisieren.

Es ist unlogisch, wegen des Preises das ganze Projekt hinzuwerfen. Wieso ist <100000 beendend? Dann sollen sie halt 200000 festlegen, oder 300000, oder... Die notwendige Marge muß ja vor Beginn des Projekts bekannt gewesen sein. Den Erfolg des Projekts hätte man vor Beginn des Projekts kalkulieren können. Andere Firmen freuen sich, sobald schwarze Zahlen sicher errechnet wurden.

Ich glaube nicht, daß wenn Level 4 sicher im Sack wäre, das Projekt - nach 10 Jahren - beendet worden wäre. Apple scheint irgendwie 'arrogant' zu sein. Man kann doch nicht die Marge eines Monitor-Ständers auf ein Autonomes Level 4 steif übertragen.

Reply to
Helmut Schellong

Dagegen spricht, daß damals hier eher gegen die Einschätzungen des MIT geschrieben wurde. Diese Einschätzungen sind aber mittlerweile belegt. Außerdem werden die Einschätzungen des MIT hier _heute_ erneut angezweifelt und nur der Grund wegen der Marge gelten gelassen. Der Satz: | Das angestrebte vollautonome Fahren auf Level vier (...) habe sich nicht wie geplant umsetzen lassen. ist jedoch eindeutig!

Ich folge seit Jahren den Einschätzungen des MIT, weil ich etwa 20 Programmiersprachen mehr oder weniger beherrsche und Millionen Code-Zeilen schrieb. Daher kann ich die Angelegenheit fachlich hinreichend beurteilen.

Reply to
Helmut Schellong

Am 28.02.24 um 21:40 schrieb Helmut Schellong:

Wissen wir nicht. Kostenrahmen gesprengt *und* keinen Durchbruch erzielt, sind aus dem Blickwinkel des Management zwei rote Linien zugleich und damit eine zu viel.

Vermutlich hatte das Topmanagement die 100.000 als Ziel vorgegeben und die Entwicklung hat sich zu weit aus dem Fenster gelehnt, indem sie diese Marke verbindlich zugesagt hat.

Das heißt dann erst mal "die gestellte Aufgabe wurde nicht erfüllt" und "wir müssen das komplett neu denken". Wenn dann auch noch weitere Metriken nicht stimmen, ist die Notbremse die richtige Wahl, ehe noch mehr Geld sinnlos versenkt wird.

Offenbar hat man sich dabei verrechnet und den Aufwand unterschätzt.

Warum nicht? Je größer die Investitionssumme (10 Jahre Forschung, und das vermutlich nicht in einem zwei-Mann-Team!), umso wichtiger ist es, das die Gewinnspanne am Ende stimmt.

Reply to
Hergen Lehmann

ich zweifle nicht daran, daß du recht hast, obwohl mir deine Begründungen nicht gefallen.

w.

Reply to
invalid unparseable

Du willst nun den folgenden Satz umschreiben: | Das angestrebte vollautonome Fahren auf Level vier (...) habe sich nicht wie geplant umsetzen lassen.

Ich habe den Satzteil "wie geplant" nicht übersehen. Er bedeutet, daß das Projekt im geplanten Zeitraum nicht beendet werden konnte. Das Projekt wurde nach 10 Jahren beendet - mit Reißleine. Die erfolgreiche Umsetzung war jedoch z.B. nach 8 Jahren Laufzeit geplant. Da nun 10 Jahre Laufzeit vorliegen, sind auch die Kosten (endgültig) aus dem Ruder gelaufen.

Genau - das ist hier und heute mein Hauptgrund.

Ich - als einzelner Entwickler - hätte den Aufwand _nicht_ unterschätzt. Sondern ich hätte _mindestens_ 15 Jahre angesetzt. Apple müßte eigentlich gewußt haben, was das MIT vor Jahren dazu _zutreffend_ sagte! Ich wußte es - Apple nicht.

Weil es sich hier auf einer Ebene abspielt, wo es um sehr viel höhere absolute (Einzel-)Beträge geht! Da braucht es bei weitem nicht eine prozentual gleich hohe Marge. Eine Marge von z.B. 300% ist bei solchen Autos vollkommen unrealistisch.

Reply to
Helmut Schellong

Am 28.02.24 um 23:57 schrieb Helmut Schellong:

Ja, eben. Deshalb kann die Lösung nicht lauten "wir erhöhen den Kostenrahmen".

Ich hätte da gar keine Schätzung gewagt.

Die derzeit existierende KI-Technologie verhält sich viel zu indeterministisch, um sie auf sicherheitskritische Aufgaben loszulassen. Niemand kann vorhersagen, wie sie auf eine konkrete Situation reagieren wird. Schon der falsche T-Shirt-Aufdruck kann dafür sorgen, das der am Straßenrand stehende (potenziell gleich auf die Fahrbahn tretende) Fußgänger mit einer unbeweglichen Werbetafel verwechselt wird.

Bei einem menschlichen Fahrer gilt am Ende "das ist halt nur ein Mensch, und wenn er alle Sorgfaltspflichten erfüllt hat, war es halt einfach Pech". Bei einer selbstfahrenden KI hingegen werden die Gerichte die Produkthaftung mit aller Härte anwenden.

Viel zu hohes Risiko, das würde ich weder als Entwickler noch als Manager mit meinem Gewissen vereinbaren können.

Auch Apple wird gewusst haben, das <10Jahre sportlich sind. Aber sie sind erfolgsverwöhnt. Wir sind die Besten, wir sind die Tollsten, haltet euch ran, wir schaffen das. So oder so ähnlich wird der Abteilungsleiter auf seine Leute zugegangen sein.

Wenn sie als erster Anbieter am Markt den Level4 geschafft hätten, wäre sie realistisch gewesen.

Reply to
Hergen Lehmann

Vielleicht einigt man sich deshalb irgendwann auf "intelligentes Versagen"? Wobei dann auch der KI die Fahrerlaubnis entzogen werden kann, wenn sie den Idiotentest nicht besteht.

DoDi

Reply to
Hans-Peter Diettrich

Ja, das sah ich in dem autonom-Video über das MIT - von 2019, wenn ich nicht irre. Da war eine Szene mit Fußgänger-Übergang und Bürgersteig. Ist folglich ein altes Thema.

Ich selbst könnte das nur mit meinem Gewissen vereinbaren, wenn ich als Entwickler dabei wäre, und Module von anderen Entwicklern im Verbund getestet hätte.

Es war ggf. dumm, vorherigen Erfolg als Garantie auf solch ein Autonom-Projekt zu übertragen. Wissenschaftlich (Projekt-Management) ist das einfach unhaltbar.

Ich weiß von größeren Software-Projekten, daß diese eine intensive Hinwendung zu mehreren Themenbereichen erzwingen. Die Erreichung des Zieles erfordert dies einfach.

Am MIT waren/sind ja auch mehrere Professoren mit je einem Thema beschäftigt. Beispielsweise 'Soziale Aspekte'.

Aus dem Text des Handelsblatt geht hervor, daß ein Preis von unter 100000$ erforderlich ist. Ich setze mal ≤85000$ als Markterfordernis an, bei Selbstkosten von 70000$. Eine Marge von 300% ergäbe jedoch einen Verkaufspreis von 280000$ ⇒ praktisch unverkäuflich.

Reply to
Helmut Schellong

Es hat sich nicht wie geplant umsetzen lassen. Tatsaechlich sind die Autos ja Level 4 gefahren in San Francisco. Aber offenbar hatten sie mehr geplant in der Zeit. Wesentlicher scheint mir der zweite Grund zu sein, sie glauben dass es sich fuer sie oekonomisch nicht rechnet, weil sich ihre Investitionen anderswo besser rentieren. Das war vorhersehbar, Autos sind was anderes als Computer. Apples Vorteil waere gewesen dass sie Geld ohne Ende haben, und damit die Moeglichkeit bei denen zu sein die am Ende uebrig bleiben beim Rennen ums autonome Fahrzeug.

Schon moeglich, aber die unwirkliche KI kann man bereits fuer allerlei nuetzliches verwenden und das wird in den naechsten Jahren viel veraendern.

Reply to
Carla Schneider

Ja, ich hatte schließlich auf den Satzteil "... wie geplant ..." hingewiesen.

Die letzten vier Zeilen habe ich auch so im Kopf. Scheiß Marge - egal. Wer als der Erste Level 4 uneingeschränkt erreicht, hat einen fetten Meilenstein erreicht. Einfach mit Geld aussitzen.

Als Putin die Ukraine angriff, sagte ich spontan: Der Westen hat 100-mal mehr Geld. Also einfach aussitzen...

Ja, meine Benutzung von ChatGPT als alternative Suchmaschine (mehr Komfort) hatte ich hier geschildert. Wurde hier allerdings heftig attackiert (Google pur sei viel besser).

Im Film 'Ghost in the Shell' gab es ein menschliches Gehirn in einem Roboterkörper, um eine übermenschliche Kämpferin zu erschaffen. Man fragt sich unwillkürlich, warum kein Robotergehirn in einem Roboterkörper? Ist die gezeigte Kombination vielleicht haushoch überlegen?

Vielleicht hat sogar das MIT den Zeitbedarf unterschätzt?

Reply to
Helmut Schellong

Am 04.03.24 um 18:05 schrieb Helmut Schellong:

Ja, als Suchhilfe kann KI in ihrer heutigen Form durchaus sinnvoll sein. Hängt halt von der Zielsetzung ab. Will ich lieber mit einer mehr oder weniger formalen Anfrage oder umgangssprachlich suchen? Will ich eine (potenziell fehlerhafte) Zusammenfassung als Ergebnis oder Links auf Originalquellen?

Bedenklich wird es, wenn KI generativ eingesetzt wird, um gigantische Mengen an sinnfreier Information zu produzieren. Depression, Burnout und verwandte Erkrankungen sind durch die Informationsüberflutung auch so schon rapide im Aufwärtstrend.

Gefährlich wird es, wenn KI eingesetzt wird, um gezielt Fehlinformation zu produzieren, die der Mensch nur noch schwer (und in der Masse dann gar nicht mehr) auf Stichhaltigkeit prüfen kann.

Noch gefährlicher wird es, wenn rein assoziative KI (ohne jegliches Verständnis der Zusammenhänge) gefährliche Maschinen steuert oder direkt über das Schicksal von Menschen entscheidet.

Jein. Im Original aus den 90ern (und stärker noch in der TV-Serie) geht es vor allem um die ethischen und gesellschaftlichen Probleme, die aus solcher Technologie erwachsen. Gelegentliche Action dient nur der Auflockerung.

Über das Hollywood-Machwerk reden wir besser nicht. :-(

Solches kannst du bei Asimov finden. Und auch er hat sich intensiv mit den Folgen auseinandergesetzt.

Meines Erachtens ist "Zeitbedarf" hier der falsche Maßstab. Die derzeit existierende "KI"-Technologie ist nicht intelligent und wird es nie sein. Sie sammelt lediglich existierende Daten und verwurstet diese auf mehr oder weniger profitable Weise.

Wenn man wirklich intelligente KI will (will man das?) werden gänzlich andere Ansätze gebraucht. Vielleicht gibt es diese irgendwann, vielleicht auch nicht, in jedem Fall gibt es dafür kein kalkulierbares Zeitbudget.

Reply to
Hergen Lehmann

Zum Glück bemerke ich noch innerhalb von Sekunden auf den diversen Nachrichten-Portalen, meist anhand der Überschrift, ob es sich um hirnverbrannte Verarschung handelt.

Es gibt mindestens einen weiteren Film über künstliche Ersatz-Organe usw. Ein Gehirn im Labor gab es mal in Das blaue Palais von Reiner Erler.

Das ist der, der die drei Robotergesetze erfand. Ich habe früher sehr viel Science-Fiction gelesen. Begonnen hatte ich mit Perry Rhodan, dann Goldmann-Romane, etc.

Der Hype ist allerdings unendlich, wie es scheint. Man gewinnt den Eindruck, daß ohne KI alles nichts ist. Ich nutze die heutige sogenannte KI pragmatisch - ansonsten pisse ich auf sie. Den Hype halte ich dementsprechend für völlig entbehrlich.

Ich trenne übrigens das autonome Auto Level 5 von KI. Die haben meiner Meinung nach nichts miteinander zu tun.

Reply to
Helmut Schellong

Am 04.03.24 um 22:59 schrieb Helmut Schellong:

Auch KI-generierte Bilder kann man oft schnell entlarven, weil die KI nichts von menschlicher Anatomie versteht. Makelloses Modepuppen-Gesicht und verstümmelte Gliedmaßen (zu viele/zu wenige Finger, unmögliche Positionen) sind eine häufige anzutreffende Kombination.

Wenn man in Zukunft aber fast nur noch sowas sieht, wird man aufhören, darauf zu achten.

Rate mal, woran sich heutige KI nicht mal im Ansatz hält. Gar nicht halten kann, weil ihr das Verständnis für Aktion und Reaktion fehlt.

Ich muss zugeben, das mich der Hype derart nervt, das ich mit Totalverweigerung reagiere. Ich will nicht von diesem Müll abhängig werden!

Vor ein paar Tagen habe ich auf einem der Youtube-Wissenschaftskanäle ein Video gesehen, das sich mit der Frage befasst, was wohl passiert, wenn generative KI mit dem Output anderer generativer KIs trainiert wird (was bei dem Hype kaum vermieden werden kann). Bestehende Studien deuten darauf hin, das das positive Feedback dazu führt, das die Ergebnisse sich immer ähnlicher werden. Der Wortschatz von Texten wird stetig kleiner, Bilder haben zunehmend die selbe Komposition. Vielleicht haben wir ja Glück, und der Hype ermordet sich selbst...

Reply to
Hergen Lehmann

Am 05.03.2024 um 08:15 schrieb Hergen Lehmann: .....................>

Nachdem er die natürliche Dummheit ausgerottet hat...

Reply to
Wolfgang Schmidt

Ja, anzunehmen - für mich gilt das jedoch nicht, oder stark eingeschränkt.

Ja, heute ist KI nur eine Art 'Bessere Statistik'. 'Verstehen' funktioniert da bereits nicht.

Ich bin ebenfalls für eine vollkommene Selbstbestimmung.

So ungefähr könnte ich das Ergebnis auch voraussehen. Das ist eine Art von Konditionierung. Irgendwann bestehen die Resultate aus einem bloßen transparenten Strich - das war es dann.

Reply to
Helmut Schellong

Fakt ist ja dass solche Level 4 Fahrzeuge seit Jahren unterwegs sind, in ihren begrenzten Gebieten. Waymo weitet das dieses Jahr aus:

formatting link

Da hat man sich aber bei der Laenge des Aussitzens etwas verschaetzt. Die Vorraete an Waffen und Munition des Westens waren eben doch begrenzt und Geld ist zwar notwenig aber man muss es auch ausgeben fuer die richtigen Dinge. Was die Autos betrifft ist hier die Frage ob die Autohersteller das selbstfahrende Auto entwickeln sollen, oder ob sie wenn die Technik mal so weit ist bei Google einkaufen sollen...

Das ging ja nur wenn man nichts akutelles sucht.

Die Geschichte ist von 1989, da konnte man sich ein vernuenftiges Robotergehirn noch nicht vorstellen.

Reply to
Carla Schneider

Ja, wir hatten uns ziemlich intensiv mit Werte-Tabellen beschäftigt.

Was genau Apple bewogen hat auszusteigen, ist unbekannt. Bekannt sind nur Spekulationen.

Fakten sind allerdings: Daß Bosch sich zurückgezogen hat, und daß später vom CEO zu hören war, daß das E-Auto noch Jahrzehnte (!) benötigen würde. Daß Mercedes das E-Auto weit in die Zukunft geschoben hat. Daß das wichtigste deutsche KI-StartUp kürzlich zerbrochen ist. Etc.

Ja, genau das ist es, was Erfolge hindert. Ich habe das Gefühl, daß es sein könnte, daß man die Ukraine absichtlich nur soweit unterstützt, daß sie sich gerade so halten kann.

Will man die westlichen Waffen einem realen Langzeittest unterziehen? Es kristallisiert sich allmählich heraus, daß Deutschland als einziger signifikanter Waffenunterstützer verbleibt.

Zum D-Day hatten die USA und UK 6000 Kriegsschiffe aufgeboten! Die hatten in Windeseile auf Kriegswirtschaft umgestellt.

Als ich bei der BW war, waren 520000 Soldaten dort und etwa 500000 Beschäftigte in der Rüstungsindustrie. Heute sind 180000 Soldaten dort und etwa 50000 Beschäftigte in der Rüstungsindustrie.

CEO Papperger hatte vor etwa einem Jahr vorgeschlagen, in der Ukraine eine Panzerfabrik für den überlegenen Panther zu errichten, um dort pro Jahr 600 Panther zu bauen. Den Schutz der Fabrik wollte Rheinmetall selbst übernehmen. Warum ist davon nichts zu hören? Warum kauft DE keinerlei Panther?

Deutschland meldete, das NATO-Ziel 2% erreicht zu haben. Von Stoltenberg las ich vorgestern, daß DE mitnichten 2% erreicht hat, sondern 1,6%.

Das Sondervermögen der Bundeswehr soll die BW ausrüsten. Das 2%-Ziel sollte _gar nicht_ aus diesem Sondervermögen besorgt, sondern dem normalen Wehretat entnommen werden, so hatte es der Kanzler versprochen. Irgendwie scheint mir, diese Zusage ist bereits zerbrochen.

Ich habe keinerlei Wissen aus den beteiligten Unternehmen, so daß ich keinen Ausblick geben kann. Es wäre allerdings schlimm, falls es später nur _eine_ zentrale Lösung geben sollte. Das widerspräche total dem Kartell-Schutz.

Aktuell wurde ja ChatGPT benutzt, um zu demonstrieren, daß ChatGPT versagt (hat). Es hat allerdings nicht versagt, sondern ChatGPT hat durch seine Antwort demonstriert, daß es stockdoof ist und nicht den kleinsten Funken an Intelligenz besitzt.

Wenn ChatGPT irgendwo auf der Welt eine Aussage in Verbindung mit einem Objekt findet, generiert ChatGPT eine Antwort, die suggeriert, als ob dieser Zusammenhang weltweit bei jedem existierenden Objekt dieser Art zutrifft. ChatGPT ist folglich vollkommen inkompetent, eine korrekte Einschätzung abzugeben, weil es total stumpf nach Pattern-Matching vorgeht.

Ich meine damit, daß ich es für möglich halte, daß das Ziel frühestens z.B. 2070 erreicht werden kann.

Reply to
Helmut Schellong

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.