gibt es (eigen)sichere PC-ATX-Netzteile?

Das ist ein _sehr_ aussagekraeftiges Kriterium fuer die I/O Last, klar. Was den Durchsatz in IO-Ops/s angeht helfen aktuelle SATA-Platten, Controller und Systeme mit NCQ zum gleichen Preis mehr als SAS. Es sei denn, man braucht _dringend_ die hochdrehenden (10k .. 15 k RPM) und damit heissen Platten.

Hinter einem NetApp-Rack ist es immer so angenehm warm im ansonsten verdammt kalten Serverraum ;-)

Fuer den Schutz der Daten wurden RAID, Replikation und Backup erfunden.

Man liest sich, Alex.

--
"Opportunity is missed by most people because it is dressed in overalls and
 looks like work."                                      -- Thomas A. Edison
Reply to
Alexander Schreiber
Loading thread data ...

Ok, Datenbanken, gerade im OLTP-Betrieb, sind typische Bereiche wo man die schnelldrehendsten Platten haben will, die man kriegen kann, da sich da Drehzahl direkt in Transaktionen/Sekunde niederschlaegt.

Man liest sich, Alex.

--
"Opportunity is missed by most people because it is dressed in overalls and
 looks like work."                                      -- Thomas A. Edison
Reply to
Alexander Schreiber

Ah, die Thumpers. Die Dinger machen eigentlich nur wirklich Sinn, wenn man entweder fette Fileserver oder grosse DB-Server (insbesondere fuer Data- warehousing) bauen will. Mit aktuellen Platten kommt man da fix auf 48 TB Rohkapazitaet.

Allerdings sind die Dinger verdammt teuer. Und wenn man die Kapazitaet nicht zwingend in einer Maschine braucht, sondern etwas verteilen kann, dann geht das auch _deutlich_ preiswerter.

Man liest sich, Alex.

--
"Opportunity is missed by most people because it is dressed in overalls and
 looks like work."                                      -- Thomas A. Edison
Reply to
Alexander Schreiber

Alexander Schreiber meinte:

Das ist auch ok. Aber wenn Du eine Maschine aufsetzen mußt, bei der jedes Bestandteil zertifiziert ist, dann hast Du mit SATA Platten ein Problem. Und die von mir genannte Maschine läuft mit VMWare ESX, seit der 3.5 gibt es zwar SATA Unterstützung, aber nur für ausgesuchte Platten und SAS/SATA DualController, während SCSI und SAS zertifiziert und problemlos läuft. Voraussetzung ist aber, man hält sich an die Hardwarevorgaben.

73 de Tom
--
Thomas 'Tom' Malkus, DL7BJ
Locator JO43GC * DL-QRP-AG #1186 * AGCW-DL #2737 * DARC OV I19
Reply to
Thomas 'Tom' Malkus

*ouch* Sowas ist immer PITA.

Ja, der fehlende SATA-Support ist eines der Probleme bei VMWare.

Man liest sich, Alex.

--
"Opportunity is missed by most people because it is dressed in overalls and
 looks like work."                                      -- Thomas A. Edison
Reply to
Alexander Schreiber

Warum? Möchtest Du sicherheitsrelevante Systeme mit Hardware aus dem Lebensmittel-Discounter betreiben?

Ich sehe das nicht als Problem. Ich habe auch noch nie ein Problem gehabt, die entsprechenden Mehrkosten zu begründen.

Jedes System hat seine Berechtigung, es kommt immer auf den Anwendungsfall an. 8 Stunden Produktionsausfall mit Stillstand für 300 Mitarbeiter kosten mehr als eine solche Maschine die das weitestgehend verhindert.

73 de Tom
--
Thomas 'Tom' Malkus, DL7BJ
Locator JO43GC * DL-QRP-AG #1186 * AGCW-DL #2737 * DARC OV I19
Reply to
Thomas 'Tom' Malkus

Alexander Schreiber schrieb:

In der Tat! Das ist eine Freude!

Sie verk=FCrzt oftmals durchaus Ausf=E4lle, weil der technische Support= des Lieferanten diese Hardware =FCblicherweise griffbereit liegen hat, was bei einer beliebigen Billigplatte vom =F6rtlichen Kistenschieber eher nicht der Fall sein mu=DF. Und nat=FCrlich hat das auch enorme wirtschaftliche Implikationen, weil=

die Frage des Schadenersatzes nunmal nicht gar so selten daran h=E4ngt,=

wie lange der Lieferant braucht, die Anlage wieder ans Laufen zu bekommen. Es kommt wie so oft im Leben auf die konkrete Situation an. Wenn du lediglich den Homeserver zu pflegen hast, auf dem die Spiele f=FCr dein= e Kids gehostet werden, dann sieht das anders aus als bei einem Datenbankserver, auf dem ein Warenwirtschaftssystem oder dergl. l=E4uft= , welches 300 User f=FCr die t=E4gliche Arbeit ben=F6tigen. Bei 3000 Usern w=E4ren wir dann nochmal in einer anderen Liga...

MfG Rupert

Reply to
Rupert Haselbeck

Von Hardware vom Lebensmitteldiscounter war nicht die Rede. Aber der Punkt ist nunmal: Hardware faellt aus. Punkt. Jedenfalls die Hardware, die man heutzutage im x86 Bereich ueblicherweise kaufen kann. Tandem Nonstop will ja keiner bezahlen. Man kann nun einerseits hingehen und sehr viel Geld fuer Hardware ausgeben, die (hoffentlich)[0] weniger oft ausfaellt, oder das ganze intelligenter angehen und andersrum an das Problem rangehen: Man nimmt den unausweichlichen Ausfall von Hardware als gegeben hin und legt die Software so aus, dass sie damit umgehen kann. So laeuft das Gesamtsystem trotz Hardwareausfaellen weiter.

Klar.

Nur: Jede Hardware faellt irgendwann aus. Die Frage ist nur, wann. Und ab einer gewissen Groesse des Maschinenpark wird der Ausfall zur statistischen Gewissheit. Hardware, bei der es _nie_ zu Komponentenausfaellen kommt, existiert nicht, da ist die Physik vor. Geld kann nur (innerhalb sehr enger Grenzen) an den Wahrscheinlichkeiten drehen.

Man liest sich, Alex. [0] Aus Erfahrung: Welch teurer Irrtum.

--
"Opportunity is missed by most people because it is dressed in overalls and
 looks like work."                                      -- Thomas A. Edison
Reply to
Alexander Schreiber

Bei den Preisen fuer die Supportvertraege fragt man sich, ob es nicht billiger ist, __brauchbare_ Komponenten zu verbauen und einfach ein Regal voll Ersatzkomponenten hinzulegen. Natuerlich darf man nicht das verwenden, was gerade bei $Discounter am billigsten war, aber das ist eh klar, oder?

Wirst lachen: Fuer die Server hier @Home liegt genug Reservehardware im Regal und die Backups auf Band. Ja, die Hardwarereserve ist etwas langsamer, aber reicht zur Betriebsweiterfuehrung.

In der Kategorie hat man Cold- und (wenn es die Architektur erlaubt[0]) auch Hot-Standbysysteme. Oder gleich Cluster um Hardwareausfaelle innerhalb von < 2 min[1] auffangen zu koennen. Bei einem frueheren AG haben wir den Cluster so redundant gebaut, das man die Haelfte der Maschinen und die Haelfte der Storageboxen haette killen koennen und der Cluster waere trotzdem automatisch weitergelaufen.

Man liest sich, Alex. [0] Wenn nicht: Schlagt den Systemdesigner [1] Ok, DB-Recovery dauert ggf. laenger, muss man einplanen.

--
"Opportunity is missed by most people because it is dressed in overalls and
 looks like work."                                      -- Thomas A. Edison
Reply to
Alexander Schreiber

Alexander Schreiber meinte:

3 Jahre vor Ort mit Wiederherstellzeit von 24h ist bei den großen Herstellern inklusive. Jetzt muss das System nur so ausgelegt werden, dass ein Komponentenausfall für 24h nicht alles lahmlegt. Eine Verkürzung der Wiederherstellzeit ist auch nicht so teuer, das man sich das nicht leisten kann.

Ich will nicht bauen, ich will funktionierende Systeme mit zugesicherten Eigenschaften. Und wenn OS-Hersteller XY sagt, aber nur mit dieser Hardware, sonst garantieren wir das nicht, dann wird diese Hardware eingesetzt, ohne wenn und aber. Und wenn etwas nicht geht, will ich nicht den Schraubendreher suchen und basteln, dann soll gefälligst der Hersteller dafür gerade stehen.

In jeder anderen Branche ist das so, nur bei der Hardware für die IT soll $USER selbst basteln oder Personal für Bastel- arbeiten inkl. Ersatzteile vorhalten?

73 de Tom
--
Thomas 'Tom' Malkus, DL7BJ
Locator JO43GC * DL-QRP-AG #1186 * AGCW-DL #2737 * DARC OV I19
Reply to
Thomas 'Tom' Malkus

Alexander Schreiber meinte:

Klar, aber wenn Hardware ausfällt, dann soll der Hersteller dafür gefälligst gerade stehen und nicht ich.

Da habe ich halt andere Erfahrungen. Neben mehreren Netware-Servern und Windows-Servern (Maxdata und Lynx) die permanent Ausfälle haben steht eine FSC RX300 mit SuSE Linux Enterprise 8.0, Oracle 10g mit einer Uptime von 1257 Tagen. Bisher habe ich an zwei Standorten mit FSC und IBM hervorragende Erfahrungen ohne Ausfälle (über eine defekte Festplatte in einem RAID mit Hot-Spare reden wir jetzt mal nicht).

So hat halt jeder seine Erfahrungen, Du schraubst lieber selbst, ich nicht (mehr), ich will funktionierende Hardware und mich um die Kern- kompetenzen kümmern.

Frohes neues Jahr!

73 de Tom
--
Thomas 'Tom' Malkus, DL7BJ
Locator JO43GC * DL-QRP-AG #1186 * AGCW-DL #2737 * DARC OV I19
Reply to
Thomas 'Tom' Malkus

Alexander Schreiber schrieb: ...

^^^^^^ ^^^^^^^ ^^^^^

Getestet oder nur gehofft?

Ich habe zu viele "sichere" Systeme ausfallen sehen: Massenspeicher, bei denen der RAID-Controller verreckte, ganze Serverräume durch USV-Ausfälle[0] und Cluster wegen Bugs in der Cluster-Software. "Das hätte jetzt nicht passieren dürfen, da hätte doch das redundante System..." habe ich auch mehr als einmal gehört.

Ich habe erlebt, wie ein Unternehmen mehrere 10.000? verloren hat, weil der Spam-filter eine Mail falsch interpretiert hatte, wie ein Börsengang gefährdet wurde, weil Mails in einem Spam-Ansturm verzögert wurden, wie ein Unternehmen für Stunden lahmgelegt war, weil ein Virus ins Netz gekommen war[1]...

Dagegen hilft nur, vernünftig zu planen, was oft bedeutet, seine Abhängigkeit von der Technik zu minimieren, bzw. sich die Abhängigkeiten überhaupt klarzumachen.

Falk [0]Stromausfälle gab es in 8 Jahren nicht [1]Ein Virenschutz war vorhanden

Reply to
Falk Willberg

So ausgelegt (Spiegelung der Storageboxen via LVM in den Maschinen, redundante FC-Links zu den Storageboxen, redundantes Netz im Cluster) und getestet. Die Aufbauphase war lang genug, das wir Zeit zum Testen hatten ;-)

Sehr beliebt, da habe ich gerade mit IBM-Hardware viel "Spass" durch. Deswegen misstraue ich RAID-Controllern. Und ein nettes Feature bei den Dell RAID Controllern: Wenn bei einem RAID1 eine Platte rumzickt, dann geht das ganze RAID1 offline. Was war nochmal der Zweck eines RAID1?

Ja, sehr beliebte selbstgebaute Falle. Darum sollte man bei Maschinen mit redundanten Netzteilen die sowohl von der USV als auch direkt vom Netz fuettern.

Ok, HA-Cluster richtig bauen ist halt nicht trivial.

Das Hauptproblem war, den Chefs klarzumachen dass der Cluster nur gegen _Hardwareausfaelle_ schuetzt, und bei kaputter Software gar nichts bringt. Wenn der Serverprozess wiederholt crasht, dann wandert das Clusterpackage einmal durch alle Knoten und bleibt dann down.

Und sowohl sich als auch (ganz wichtig) den Chefs klarzumachen, was die Technik leisten kann und was nicht, "expectation management" auf Neudeutsch.

Die Verkaeufer der Hersteller/Lieferanten versprechen bekanntlich _alles_ :-(

Tja, nur funktioniert Vireschutz halt nach dem Prinzip: Wir machen die Stalltuer zu, nachdem bei etlichen anderen Staellen die Pferde schon abgehauen sind. Dumm, wenn man dann mal bei den ersten ist.

Man liest sich, Alex.

--
"Opportunity is missed by most people because it is dressed in overalls and
 looks like work."                                      -- Thomas A. Edison
Reply to
Alexander Schreiber

Falk Willberg schrieb:

Haelfte

i

ante

il

ang

wie

eiten

[0] Je sicherer die die USV gegen Ausf=E4lle um so sicherer Ausf=E4lle in=

der =DCberwachungselektrik/-tronik.

Vor drei Jahren in Han. so passiert. Morgens vor 6.00h erfolgreicher turnusm=E4=DFiger Testlauf des Notstromaggregates.

30min. sp=E4ter Ausfall eines Hauptkabels des EVU. Monteure wollen das Hauptkabel im Anschaltepunkt umschalten. Kommen aber nicht an "ihre" T=FCr weil zwischenzeitlich nochmal alles durch eine Gittert=FCr gesichert ist. Das EVU hat zwar einen Schl=FCssel bekommen, davon wu=DFten aber die ausf=FChrenden Kr=E4fte des EVUs nichts. Also ersteimal nach Verantwortlichen telefonieren. Zwischenzeitlich ist vorschriftsm=E4=DFig das Notstromaggregat angesprung= en und kurze Zeit sp=E4ter in St=F6rung gegangen. Raum voll Nebel. Nichts zu=

sehen. Nach L=FCftung festgestellt, das eine Schlauchschelle vom K=FChlkreislauf abgesprungen war. Inzwischen ist auch der Schl=FCssel f=FCr die Zwischent=FCr eingetroffen.=

Ursache war eine Besch=E4digung des Hauptkabels bei Rohrverlungen. Schlauch des K=FChlkreislaufs wieder am Aggregat befestigt. Zwischenzeitlich hat die USV die Stromversorgung sichergestellt. Einen Tag sp=E4ter kam ein Monteur und wollte 11 St=F6rungen beseitigen ;=

-)

[1] Ist auch und besonders eine Frage des Faktors Mensch.

--=20 mfg hdw

Reply to
Horst-D.Winzler

Horst-D.Winzler schrieb: ...

Ist doch schön, daß die noch telefonieren konnten.

Warum haben BTS-Techniker SIM-Karten der Konkurrenz? Weil sie regelmäßig an kaputten BTS keine Versorgung haben ;-) ...

Falk

Reply to
Falk Willberg

Thomas 'Tom' Malkus schrieb:

kte

Einige FSC RX100S2 betreue ich als Entwicklungsserver. Defekte von 28=20 Maschinen bisher zwei in 3 Jahren. Im Servicefall kriege ich am selben=20 Tag (Gesch=E4ftszeit) eine Ersatzmaschine. Da nicht immer alle 28 Ger=E4t= e=20 gleichzeitig im Einsatz sind, werden die Platten des defekten Servers in =

ein anderen gesteckt und weiter gehts. Beim Plattendefekt ist etwas mehr =

Aufwand erforderlich (Image drauf, Datenbank anlegen, Sicherung der DB=20 einspielen, Entwickler mu=DF Arbeitsstand nachziehen). Es sind keine=20 Systeme, die hochverf=FCgbar sein k=F6nnen, ein Ausfall von einem Tag ist= =20 nicht kritisch. Bisher war bei diesem Servertyp noch keine Platte=20 defekt, Ersatzplatten liegen aber bereit. So unfehlbar sind die FSC auch =

nicht.

Ich habe die Schrauberei auf Plattenwechsel (Wechselrahmen) und=20 Rechnertausch (Teleskopschienen) reduziert. Vorher hatte ich Systeme von einer "Schrauberfirma" im Einsatz, das war=20 der letzte Dreck. Kaum eine Woche verging ohne ein defektes System, als=20 die Dinger erstmal ein Jahr alt waren.

Guido

Reply to
Guido Grohmann

Am Wed, 31 Dec 2008 19:23:28 +0000 (UTC) schrieb Thomas 'Tom' Malkus:

Die bestimmt nicht weniger wichtigen Mitarbeiter versorgen sich auch dort

;-)

Lutz

--
Mit unseren Sensoren ist der Administrator informiert, bevor es Probleme im 
Serverraum gibt: preiswerte Monitoring Hard- und Software-kostenloses Plugin 
 Click to see the full signature
Reply to
Lutz Schulze

Am Thu, 1 Jan 2009 11:12:50 +0000 (UTC) schrieb Thomas 'Tom' Malkus:

Für die Folgekosten bestimmt nicht, das wäre ziemlich unbezahlbar.

Lutz

--
Mit unseren Sensoren ist der Administrator informiert, bevor es Probleme im 
Serverraum gibt: preiswerte Monitoring Hard- und Software-kostenloses Plugin 
 Click to see the full signature
Reply to
Lutz Schulze

Am Thu, 01 Jan 2009 12:36:59 +0100 schrieb Falk Willberg:

Recht hat er.

Das rahme ich mir als guten Vorsatz für das neue Jahr mal ein ;-)

Lutz

--
Mit unseren Sensoren ist der Administrator informiert, bevor es Probleme im 
Serverraum gibt: preiswerte Monitoring Hard- und Software-kostenloses Plugin 
 Click to see the full signature
Reply to
Lutz Schulze

Lutz Schulze schrieb:

Deswegen geht es ja immer um die *hypothetische* Möglichkeit, den seriösen Hersteller auf Schadensersatz zu verklagen. Näheres regeln die Verträge im Einzelnen ("Schadenersatz maximal...").

Am Ende läuft es darauf hinaus, daß noch niemand entlassen wurde, weil er bei [Lieblingsfirma des Managements und Microsoft hier einsetzen] gekauft hat.

Falk

Reply to
Falk Willberg

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.