Wer's noch nicht kennt, die haben heute Details zur Entwicklungsplattform veröffentlicht:
formatting link
Sind noch 3 Tage übrig, um es zu unterstützen. Man bekommt ein Dual-ARM core, ein FPGA (beides integriert in einem Xilinx Zynq7010 Chip) und ein
16 core Epiphany Chip, alles sehr schnell über GHz Verbindungen untereinander verbunden und nach außen mit GBit Ethernet, USB2 usw., für
99 Dollar. Ich habe mir schonmal ein Cluster für Bitcoin Mining, 3D Realtime Raytracing, SDR, Phased Array Radar usw. reserviert :-)
--
Frank Buss, http://www.frank-buss.de
electronics and more: http://www.youtube.com/user/frankbuss
Wird das denn was? Momentan steht es bei knapp 2/3 der Summe. "This project will only be funded if at least $750,000 is pledged by Saturday Oct 27, 6:00pm EDT."
Hängt wohl davon ab, ob es noch genügend unterstützt wird :-) Sieht meiner Meinung nach seriös aus. Und wie bei Kickstarter üblich: Wenn die Summe nicht zustande kommt, dann wird einem auch kein Geld abgebucht.
--
Frank Buss, http://www.frank-buss.de
electronics and more: http://www.youtube.com/user/frankbuss
So wie es aussieht, brauchn die das Geld, um einen Chip mit 16 Mini-CPU's zu basteln (der Rest, das alles auf ein Board zu bringen, kostet nie und nimmer nicht $750000 ;-). Aber wie diese 16 CPU's aussehen sollen ist nicht klar, (oder hab ich was übersehen). Die schreiben zwar 700MHz, aber die 700MHz beziehen sich doch auf die Master-CPU von Xilinx...
Hm..und nach einer Woche kommt es in den grossen Pappkarton mit den abgelegten Ingenieurspielzeugen? :-) Ich fuehle ja auch manchmal den 'haben wollen' Reflex wenn ich soetwas lese, aber ich frage mich halt immer was ich damit machen soll.
Dazu gibt es heute ein Update, mit Vorschlägen für Twitter- und Facebook-Meldungen :-)
formatting link
Also all das, was viel Rechenleistung braucht, wie Echtzeit Bildverarbeitung, software defined radio, aber auch eher triviale Sachen, wie ein Smart TV damit bauen (sollte mit XBMC schon fast out-of-the-box funktionieren).
Für mich ist die Plattform interessant, da es sehr schnelle GPIO-Leistung mit sehr hoher Rechenleistung kombiniert. Mit GPUs in modernen PCs hat man zwar hohe Rechenleistung, aber wenn man da z.B. in Echtzeit Daten per ADC reinbekommen oder über DACs wieder rausbekommen will, wird es teuer für entsprechende Zusatzkarten.
FPGAs dagegen bieten eine hohe Datenrate, aber wenn man da was vernünftiges mit rechnen will, braucht man schon recht teure Systeme und so Sachen wie Netzwerkanbindung muß man sich dann meist selber darauf stricken.
Ist mit dem Xilinx Zinq Chip schon eine sehr gute Kombination und alleine deswegen das Geld wert, zumindest für mich. Vergleichbare Zinq Entwicklerboards liegen bei 900 Dollar:
formatting link
--
Frank Buss, http://www.frank-buss.de
electronics and more: http://www.youtube.com/user/frankbuss
Für SDR reichte ja bisher auch ne einzelne CPU, was will man da mit 16. Klar braucht man immer mehr, wenn man z.B. gleichzeitig 128 Sender empfangen will, nur wohin damit - das GBit Ethernet ist der einzige vernünftige Output. Und für Smart TV funktionierte doch bisher auch mit Spezialchips für die Decoder, also nix bahnbrechend neues; naja.
Ja, die Anwendungen sind sehr ähnlich zu der GPU-Lösung und auch da ist es ein "Problem" dass es kaum Sachen gibt (oder die Software noch nicht so weit ist) die sich gut parallisieren lassen. Für die GPU Rechenknechte fallen mir spontan 3 Dinge ein: BruteForceAttacken, Bitcoins generieren und OpenCV (letzteres ist eher was brauchbares - nämlich Bildverarbeitung :-). Kaum mehr. Man sieht ja auch, das sie da Probleme haben wirklich bahnbrechend neue Anwendungen zu sehen. Aber vielleicht muss erst mal die Henne da sein, damit es gute Eier gibt :-)
Ja, da ist die Entwicklungsumgebung wohl mit dabei? Wie teuer wäre die denn dann für deren Board?
Stimmt. :-) Aber irgendwie weiterentwickelt wird der Chip nicht, oder? Sicherlich ist der Cell nur ein Prozessor (und man muss viel selbst drumrumbauen damit das einsatzfähig wird) wenigstens das ist bei Parallela anders.
Das sieht ziemlich cool aus, aber die Frage muss erlaubt sein: Ist wirklich der einzige Grund, *alles* neu zu erfinden (MNemonics, CPU-Verhalten, etc.), dass es offen ist? Es macht auf mich den Eindruck, dass das nicht mächtiger ist, als das was GPUs heute schon anbieten. Die sind halt stockproprietär, aber immhin gibt es für die schon die ganzen Dev-Werkzeuge (Cuda & Friends).
Viele Grüße, Johannes
--
>> Wo hattest Du das Beben nochmal GENAU vorhergesagt?
> Zumindest nicht öffentlich!
Ah, der neueste und bis heute genialste Streich unsere großen
Kosmologen: Die Geheim-Vorhersage.
- Karl Kaos über Rüdiger Thomas in dsa
Naja also für Brute Force sind GPUs ja jetzt nicht gerade prädestiniert, da ist man mit einem FPGA-Array von der Leistung/Preis besser bedient. Wenn man dann noch keinen dummen Bruteforce-Angriff macht, sondern ein Wörterbuch benutzt, hört es bei GPUs ganz auf. Kommunikation ist mega lahm. Irgendwie fiele mir jetzt aber auf Anhieb auch nichts mehr ein, was man gut Bruteforcen könnte. DES? Wer nutzt das noch? AES oder 3DES ist dann schon wieder eine ganz andere Größenordnung.
Gruß, Johannes
--
>> Wo hattest Du das Beben nochmal GENAU vorhergesagt?
> Zumindest nicht öffentlich!
Ah, der neueste und bis heute genialste Streich unsere großen
Kosmologen: Die Geheim-Vorhersage.
- Karl Kaos über Rüdiger Thomas in dsa
Mit der low-level Ebene wird man nicht viel zu tun haben. So vom ersten überfliegen des Software Architektur Dokuments wird man das hauptsächlich in C unter Eclipse programmieren können, allerdings scheinbar nicht ganz so sehr von der Hardware abstrahiert wie bei CUDA oder OpenCL. Sollte aber nicht so schwierig sein, denn wenn man einmal ein Problem parallelisiert hat, dann ist die konkrete Implementierung für die Aufteilung der Tasks nicht viel Arbeit.
--
Frank Buss, http://www.frank-buss.de
electronics and more: http://www.youtube.com/user/frankbuss
Es geht aber halt auch darum, dass bei einer komplett neuen Architektur es erstmal nur miese Compiler gibt. Also mag es ja sein, dass ich das Assembly nicht sehen muss, aber irgendjemand (der einen *guten* Compiler dafür schreiben will) muss sich damit beschäftigen. Und da wird halt oft nicht so viel Zeit reininvestiert.
Viele Grüße, Johannes
--
>> Wo hattest Du das Beben nochmal GENAU vorhergesagt?
> Zumindest nicht öffentlich!
Ah, der neueste und bis heute genialste Streich unsere großen
Kosmologen: Die Geheim-Vorhersage.
- Karl Kaos über Rüdiger Thomas in dsa
Das stimmt schon, aber wenn der auf GCC basiert, dann wird da einem ja schon viel Arbeit abgenommen, wie gute Register Allocation usw. Den Chip selbst gibt es auch schon seit 2 Jahren, in so einer Zeit kann man schon was vernünftiges programmieren.
Habe übrigens gerade auf der Adapteva-Webseite gesehen: ein OpenCL SDK in einer Beta Version gibt es auch bereits.
--
Frank Buss, http://www.frank-buss.de
electronics and more: http://www.youtube.com/user/frankbuss
Dass man es machen kann, ist klar. Geht auch auf CPUs, wer hätte es gedacht. Der Punkt ist, und den hast du gesnippt:
"da ist man mit einem FPGA-Array von der Leistung/Preis besser bedient."
Schlechte Passwörter knacken zu Verfahren, die schlechte Algorithmen als Hashfunktion verwenden ist nicht besonders beeindruckend.
Viele Grüße, Johannes
--
>> Wo hattest Du das Beben nochmal GENAU vorhergesagt?
> Zumindest nicht öffentlich!
Ah, der neueste und bis heute genialste Streich unsere großen
Kosmologen: Die Geheim-Vorhersage.
- Karl Kaos über Rüdiger Thomas in dsa
Mag sein, glaub ich aber nicht mal so unbesehen. Ich bin etwas aus der Übung, aber das letzte Mal, als ich nachgeschaut habe, waren die Taktfrequenzen bei FPGAs nicht gerade extrem hoch. Dadurch könnten aktuelle GPUs schon mal einen guten Vorteil haben. Parallel arbeiten sie auch, insofern fällt auch dieser offensichtliche Vorteil von FPGAs möglicherweise nicht mehr ganz so ins Gewicht.
Und es gibt sie auch nicht für wenige 100 Euro fertig zu kaufen. Klar, der Geek-Faktor fehlt. Jedenfalls, so schlecht, wie Du zu behaupten schienst, schneiden GPUs da trotz Wörterbuch nicht mal ab.
ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here.
All logos and trade names are the property of their respective owners.