Parallella: ein Supercomputer für jedermann

Wer's noch nicht kennt, die haben heute Details zur Entwicklungsplattform veröffentlicht:

formatting link

Sind noch 3 Tage übrig, um es zu unterstützen. Man bekommt ein Dual-ARM core, ein FPGA (beides integriert in einem Xilinx Zynq7010 Chip) und ein

16 core Epiphany Chip, alles sehr schnell über GHz Verbindungen untereinander verbunden und nach außen mit GBit Ethernet, USB2 usw., für 99 Dollar. Ich habe mir schonmal ein Cluster für Bitcoin Mining, 3D Realtime Raytracing, SDR, Phased Array Radar usw. reserviert :-)
--
Frank Buss, http://www.frank-buss.de 
electronics and more: http://www.youtube.com/user/frankbuss
Reply to
Frank Buss
Loading thread data ...

Frank Buss :

Wird das denn was? Momentan steht es bei knapp 2/3 der Summe. "This project will only be funded if at least $750,000 is pledged by Saturday Oct 27, 6:00pm EDT."

M.

Reply to
Matthias Weingart

Hängt wohl davon ab, ob es noch genügend unterstützt wird :-) Sieht meiner Meinung nach seriös aus. Und wie bei Kickstarter üblich: Wenn die Summe nicht zustande kommt, dann wird einem auch kein Geld abgebucht.

--
Frank Buss, http://www.frank-buss.de 
electronics and more: http://www.youtube.com/user/frankbuss
Reply to
Frank Buss

Frank Buss :

So wie es aussieht, brauchn die das Geld, um einen Chip mit 16 Mini-CPU's zu basteln (der Rest, das alles auf ein Board zu bringen, kostet nie und nimmer nicht $750000 ;-). Aber wie diese 16 CPU's aussehen sollen ist nicht klar, (oder hab ich was übersehen). Die schreiben zwar 700MHz, aber die 700MHz beziehen sich doch auf die Master-CPU von Xilinx...

M.

Reply to
Matthias Weingart

Hm..und nach einer Woche kommt es in den grossen Pappkarton mit den abgelegten Ingenieurspielzeugen? :-) Ich fuehle ja auch manchmal den 'haben wollen' Reflex wenn ich soetwas lese, aber ich frage mich halt immer was ich damit machen soll.

Olaf

Reply to
Olaf Kaluza

Ja, hast du übersehen. Ist aber auch etwas verstreut im Kickstarter Projekt:

formatting link

Im Architecture reference manual ist das bis runter auf Assembler-Ebene beschrieben.

--
Frank Buss, http://www.frank-buss.de 
electronics and more: http://www.youtube.com/user/frankbuss
Reply to
Frank Buss

Dazu gibt es heute ein Update, mit Vorschlägen für Twitter- und Facebook-Meldungen :-)

formatting link

Also all das, was viel Rechenleistung braucht, wie Echtzeit Bildverarbeitung, software defined radio, aber auch eher triviale Sachen, wie ein Smart TV damit bauen (sollte mit XBMC schon fast out-of-the-box funktionieren).

Für mich ist die Plattform interessant, da es sehr schnelle GPIO-Leistung mit sehr hoher Rechenleistung kombiniert. Mit GPUs in modernen PCs hat man zwar hohe Rechenleistung, aber wenn man da z.B. in Echtzeit Daten per ADC reinbekommen oder über DACs wieder rausbekommen will, wird es teuer für entsprechende Zusatzkarten.

FPGAs dagegen bieten eine hohe Datenrate, aber wenn man da was vernünftiges mit rechnen will, braucht man schon recht teure Systeme und so Sachen wie Netzwerkanbindung muß man sich dann meist selber darauf stricken.

Ist mit dem Xilinx Zinq Chip schon eine sehr gute Kombination und alleine deswegen das Geld wert, zumindest für mich. Vergleichbare Zinq Entwicklerboards liegen bei 900 Dollar:

formatting link

--
Frank Buss, http://www.frank-buss.de 
electronics and more: http://www.youtube.com/user/frankbuss
Reply to
Frank Buss

Frank Buss :

Für SDR reichte ja bisher auch ne einzelne CPU, was will man da mit 16. Klar braucht man immer mehr, wenn man z.B. gleichzeitig 128 Sender empfangen will, nur wohin damit - das GBit Ethernet ist der einzige vernünftige Output. Und für Smart TV funktionierte doch bisher auch mit Spezialchips für die Decoder, also nix bahnbrechend neues; naja.

Ja, die Anwendungen sind sehr ähnlich zu der GPU-Lösung und auch da ist es ein "Problem" dass es kaum Sachen gibt (oder die Software noch nicht so weit ist) die sich gut parallisieren lassen. Für die GPU Rechenknechte fallen mir spontan 3 Dinge ein: BruteForceAttacken, Bitcoins generieren und OpenCV (letzteres ist eher was brauchbares - nämlich Bildverarbeitung :-). Kaum mehr. Man sieht ja auch, das sie da Probleme haben wirklich bahnbrechend neue Anwendungen zu sehen. Aber vielleicht muss erst mal die Henne da sein, damit es gute Eier gibt :-)

Ja, da ist die Entwicklungsumgebung wohl mit dabei? Wie teuer wäre die denn dann für deren Board?

M.

Reply to
Matthias Weingart

Achso da fällt mir grad ein: "gibts schon" ;-)

formatting link

Klar ist das Ding älter und teurer und energiehungriger, aber war es nur deshalb ein Flop? ;-)

M.

Reply to
Matthias Weingart

Matthias Weingart schrieb:

War die Playstation 3 ein Flop?

Gruß Henning

Reply to
Henning Paul

Henning Paul :

Stimmt. :-) Aber irgendwie weiterentwickelt wird der Chip nicht, oder? Sicherlich ist der Cell nur ein Prozessor (und man muss viel selbst drumrumbauen damit das einsatzfähig wird) wenigstens das ist bei Parallela anders.

M.

Reply to
Matthias Weingart

WebPack ISE ist kostenlos von Xilinx und unterstützt zumindest den auf dem Board verbauten Zinq.

--
Frank Buss, http://www.frank-buss.de 
electronics and more: http://www.youtube.com/user/frankbuss
Reply to
Frank Buss

formatting link

Das sieht ziemlich cool aus, aber die Frage muss erlaubt sein: Ist wirklich der einzige Grund, *alles* neu zu erfinden (MNemonics, CPU-Verhalten, etc.), dass es offen ist? Es macht auf mich den Eindruck, dass das nicht mächtiger ist, als das was GPUs heute schon anbieten. Die sind halt stockproprietär, aber immhin gibt es für die schon die ganzen Dev-Werkzeuge (Cuda & Friends).

Viele Grüße, Johannes

--
>> Wo hattest Du das Beben nochmal GENAU vorhergesagt? 
> Zumindest nicht öffentlich! 
Ah, der neueste und bis heute genialste Streich unsere großen 
Kosmologen: Die Geheim-Vorhersage. 
 - Karl Kaos über Rüdiger Thomas in dsa
Reply to
Johannes Bauer

Naja also für Brute Force sind GPUs ja jetzt nicht gerade prädestiniert, da ist man mit einem FPGA-Array von der Leistung/Preis besser bedient. Wenn man dann noch keinen dummen Bruteforce-Angriff macht, sondern ein Wörterbuch benutzt, hört es bei GPUs ganz auf. Kommunikation ist mega lahm. Irgendwie fiele mir jetzt aber auf Anhieb auch nichts mehr ein, was man gut Bruteforcen könnte. DES? Wer nutzt das noch? AES oder 3DES ist dann schon wieder eine ganz andere Größenordnung.

Gruß, Johannes

--
>> Wo hattest Du das Beben nochmal GENAU vorhergesagt? 
> Zumindest nicht öffentlich! 
Ah, der neueste und bis heute genialste Streich unsere großen 
Kosmologen: Die Geheim-Vorhersage. 
 - Karl Kaos über Rüdiger Thomas in dsa
Reply to
Johannes Bauer

Mit der low-level Ebene wird man nicht viel zu tun haben. So vom ersten überfliegen des Software Architektur Dokuments wird man das hauptsächlich in C unter Eclipse programmieren können, allerdings scheinbar nicht ganz so sehr von der Hardware abstrahiert wie bei CUDA oder OpenCL. Sollte aber nicht so schwierig sein, denn wenn man einmal ein Problem parallelisiert hat, dann ist die konkrete Implementierung für die Aufteilung der Tasks nicht viel Arbeit.

--
Frank Buss, http://www.frank-buss.de 
electronics and more: http://www.youtube.com/user/frankbuss
Reply to
Frank Buss

Es geht aber halt auch darum, dass bei einer komplett neuen Architektur es erstmal nur miese Compiler gibt. Also mag es ja sein, dass ich das Assembly nicht sehen muss, aber irgendjemand (der einen *guten* Compiler dafür schreiben will) muss sich damit beschäftigen. Und da wird halt oft nicht so viel Zeit reininvestiert.

Viele Grüße, Johannes

--
>> Wo hattest Du das Beben nochmal GENAU vorhergesagt? 
> Zumindest nicht öffentlich! 
Ah, der neueste und bis heute genialste Streich unsere großen 
Kosmologen: Die Geheim-Vorhersage. 
 - Karl Kaos über Rüdiger Thomas in dsa
Reply to
Johannes Bauer

Das stimmt schon, aber wenn der auf GCC basiert, dann wird da einem ja schon viel Arbeit abgenommen, wie gute Register Allocation usw. Den Chip selbst gibt es auch schon seit 2 Jahren, in so einer Zeit kann man schon was vernünftiges programmieren.

Habe übrigens gerade auf der Adapteva-Webseite gesehen: ein OpenCL SDK in einer Beta Version gibt es auch bereits.

--
Frank Buss, http://www.frank-buss.de 
electronics and more: http://www.youtube.com/user/frankbuss
Reply to
Frank Buss

Aha.

google hashcat

Paßwort-Hashes.

Vinzent.

Reply to
Vinzent Höfler

Dass man es machen kann, ist klar. Geht auch auf CPUs, wer hätte es gedacht. Der Punkt ist, und den hast du gesnippt:

"da ist man mit einem FPGA-Array von der Leistung/Preis besser bedient."

Schlechte Passwörter knacken zu Verfahren, die schlechte Algorithmen als Hashfunktion verwenden ist nicht besonders beeindruckend.

Viele Grüße, Johannes

--
>> Wo hattest Du das Beben nochmal GENAU vorhergesagt? 
> Zumindest nicht öffentlich! 
Ah, der neueste und bis heute genialste Streich unsere großen 
Kosmologen: Die Geheim-Vorhersage. 
 - Karl Kaos über Rüdiger Thomas in dsa
Reply to
Johannes Bauer

Mag sein, glaub ich aber nicht mal so unbesehen. Ich bin etwas aus der Übung, aber das letzte Mal, als ich nachgeschaut habe, waren die Taktfrequenzen bei FPGAs nicht gerade extrem hoch. Dadurch könnten aktuelle GPUs schon mal einen guten Vorteil haben. Parallel arbeiten sie auch, insofern fällt auch dieser offensichtliche Vorteil von FPGAs möglicherweise nicht mehr ganz so ins Gewicht.

Und es gibt sie auch nicht für wenige 100 Euro fertig zu kaufen. Klar, der Geek-Faktor fehlt. Jedenfalls, so schlecht, wie Du zu behaupten schienst, schneiden GPUs da trotz Wörterbuch nicht mal ab.

Vinzent.

Reply to
Vinzent Höfler

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.