+ Reply to Thread
Page 1 of 2 12 LastLast
Results 1 to 15 of 22

Thread: Western Digital bringt Festplatten speziell für Home-NAS-Systeme

  1. #1
    VIP
    Snitlev's Avatar
    Join Date
    30.09.08
    Location
    WWW
    P2P Client
    legal, illegal, scheißegal
    Posts
    10,437
    Activity Longevity
    1/20 19/20
    Today Posts
    0/5 ssss10437

    Western Digital bringt Festplatten speziell für Home-NAS-Systeme

    Western Digital will die wachsende Nachfrage nach energiesparenden Festplatten für kleine SOHO-NAS-Systeme (Small Office and Home Office) gezielter decken und bringt dafür nun spezielle Festplatten auf den Markt. Die Laufwerke WD10EFRX, WD20EFRX und WD30EFRX aus der neuen Baureihe Red (PDF-Datei) mit 1 bis 3 Terabyte Kapazität und 6 GBit/s schneller Serial-ATA-Schnittstelle rotieren mit 5400 U/min und übertragen bis zu 145 MByte/s. Sie sollen sich durch besondere Zuverlässigkeit auszeichnen, aber billiger als echte Serverplatten sein.
    WD spezifiziert für die Red-Disks aber auch dieselbe Wahrscheinlichkeit für unkorrigierbare Lesefehler (Unrecoverable Bit Error Rate, UBER) von weniger als 1 pro 1014 gelesene Bits wie für andere normale SATA-Disks, etwa die Green-Platten (PDF-Datei). Bei Enterprise-Laufwerken mit SAS-Schnittstelle sind 100-fach niedrigere Werte von weniger als 1 pro 1016 üblich. Für die VelociRaptor nennt WD weniger als 1 pro 1015, schreibt aber weniger als 10 pro 1016 ins Datenblatt (PDF-Datei). Die Red-Platten sind für etwas höhere Betriebstemperaturen und mehr Load-/Unload-Zyklen ausgelegt als die "Client"-Versionen und angeblich noch etwas sparsamer als einige der bisherigen Green-Modelle.
    Quelle: heise online | Western Digital bringt Festplatten speziell für Home-NAS-Systeme

    Naja bis auf die höheren Temperaturen und den Ladezeiten kann ich eigentlich keine großen Unterschiede im Gegensatz zu den anderen Festplatten erkennen...

    @v6ph1: bitte übernehmen Sie

    mfg

    Wer versucht zu rennen, bevor er laufen kann, kommt meistens zu Fall



    stop animal experiments, take child molesters - they like pain!


    Besser man bereut was man getan hat, anstatt zu bereuen das man es unterlassen hat
    Reply With QuoteReply With Quote
    Thanks

  2. Who Said Thanks:

    DEViL.eXE (02.09.12) , Se7Ven (12.07.12)

  3. #2

    Join Date
    26.07.10
    Location
    Deutschland
    P2P Client
    µTorrent 2.04
    Posts
    332
    Activity Longevity
    0/20 16/20
    Today Posts
    0/5 ssssss332
    Verwende eigentlich nur Western Digital. Hatte noch nie Problem. Die neuen Elements Play mit integriert Media Player find ich absolut genial. So ziemlich jedes Format spielt dieses Gerät ab und über die Qualität kann ich mich nicht beklagen. Wie gesagt, hatte bis jetzt immer Western Digital und werde auch in Zukunft nicht davon abweichen, sind einfach enorm zuverlässig.
    Reply With QuoteReply With Quote
    Thanks

  4. #3

    Join Date
    28.02.08
    Location
    kernel32.dll
    P2P Client
    µtorrent
    Posts
    1,615
    Activity Longevity
    0/20 19/20
    Today Posts
    0/5 sssss1615
    Und ich meide WD wie die Pest.

    Bisher war noch jede WD, die ich hatte, nach ein bis zwei Stunden Betrieb so heiss, das man sie gerade noch anfassen konnte (und ich bin als Chemiker schon ausgesprochen Hitzeresistent). Das kann einfach nicht gesund sein.

    Für NAS-System würde ich ausschließlich Notebook-Platten verwenden - schon alleine wegen des geringeren Stromverbrauchs (was sich ja auch in Abwärme äußert). In richtigen Servern wird auch nichts größeres mehr verbaut.
    Geschwindigkeitsangaben sind mittlerweile Schwachfug: Wo legt der Sinn in einer Platte mit 145 MB/s, wenn GB-Ethernet maximal 120 MB/s, real bestenfalls 80 MB/s bringt?
    Spezielle Serverplatten halte ich im Homebereich (also nicht Hochverfügbarkeit) für verzichtbar. Die Arbeitsplatte in meinem Server läuft jetzt seit 4 1/2 Jahren ununterbrochen, und das ist ne billige Seagate refurbished.
    Reply With QuoteReply With Quote
    Thanks

  5. #4

    Join Date
    26.07.10
    Location
    Deutschland
    P2P Client
    µTorrent 2.04
    Posts
    332
    Activity Longevity
    0/20 16/20
    Today Posts
    0/5 ssssss332
    Also das WD-Platten heiß werden halte ich für ein Gerücht. Hatte noch nie irgendwelche Probleme mit der Temperatur. Meine Platten laufen auch so ziemlich den ganzen Tag. Damals hatte ich mal Hitachi's die wurden so heiß wie ein Bügeleisen nach mehreren Stunden Betriebszeit.
    Reply With QuoteReply With Quote
    Thanks

  6. #5
    Retired Staff
    v6ph1's Avatar
    Join Date
    29.09.08
    P2P Client
    (keinen)
    Posts
    2,177
    Activity Longevity
    0/20 19/20
    Today Posts
    0/5 sssss2177
    Quote Originally Posted by mabuse View Post
    Geschwindigkeitsangaben sind mittlerweile Schwachfug: Wo legt der Sinn in einer Platte mit 145 MB/s, wenn GB-Ethernet maximal 120 MB/s, real bestenfalls 80 MB/s bringt?
    Also mein GBit/s-Netzwerk läuft bei Dateitransfers auf Anschlag: 120MByte/s (ca. 50m und 2 Switches; von WD Green 20EARS auf Seagate Barracuda ST3000DM001)
    Irgendwas bremst da bei dir.

    Was die Qualität anbelangt, so hab ich noch keine negativen Erfahrungen gemacht. (Weder mit Maxtor, Seagate, Samsung noch Western Digital; Hitachi hatte ich nie)
    Nur 2 sehr alte Platten haben Alterserscheinungen gezeigt und die wurden vor einem Datenverlust ausgemustert.
    Das Problem ist bei mir eher die Kapazität (zu klein).

    @Topic:
    Die Platten muss man als Ergänzung der Green-Serie sehen:
    noch geringerer Verbrauch (weniger Umdrehungsgeschwindigkeit -> weniger Verschleiß)
    und eine Firmware, die auf RAID-Systeme optimiert ist.

    Während Standard-Festplatten Lesefehler durch Wiederholungen versuchen zu verdecken, melden RAID-Platten eher einen Lesefehler.
    Das ist bei einem RAID unkritisch, da die Daten redundant über die Festplatten verteilt sind. So können die Daten der Platte mit Lesefehler schnell rekonstruiert werden und müssen nicht neu gelesen werden.

    Temperaturprobleme gibt es bei Festplatten nur, wenn sie gänzlich unbelüftet eingebaut sind. (bzw. aufm Schreibtisch liegen)
    Schon ein leiser, langsam drehender Lüfter hilft um die Temperatur der Festplatten zu begrenzen.

    Aktuell hab ich 2 WD-Platten (20EARS) im PC, die mit 34°C bzw. 36°C im idealen Temperaturbereich sind.

    Was Notebookplatten betrifft, so haben diese (bauartbedingt) einen Kapazitätsnachteil im Vergleich zu großen 3,5"-Platten.
    Bei gleicher Speicherkapazität besitzen 3,5"-Platten eine geringere Speicherdichte oder weniger Platter (Scheiben) - sind also technisch betrachtet ausfallsicherer.

    Eine der hier vorgestellten Red-Platten wird in meinem Heimserver landen. Dazu gesellen sich noch eine von Seagate und eine von Toshiba.
    (Alle 3 Platten im RAID5 - sodass auch Fertigungprobleme, wie mögliche Serienausfälle vermieden werden)

    mfg
    v6ph1

    EDIT: Nr. 2000
    Last edited by v6ph1; 01.10.12 at 23:39.
    Multibootsysteme einrichten
    Apple: Da ist der Wurm drin.
    Der Klügere gibt nach. Deshalb wird die Welt auch von Dummen regiert.
    Das Volumen einer Pizza mit Radius z und Höhe a ist gleich Pi·z·z·a
    Reply With QuoteReply With Quote
    Thanks

  7. Who Said Thanks:

    leus (04.12.12) , Snitlev (02.10.12)

  8. #6
    Moderator
    Instab's Avatar
    Join Date
    18.09.09
    Posts
    6,660
    Activity Longevity
    5/20 17/20
    Today Posts
    0/5 sssss6660
    Quote Originally Posted by v6ph1 View Post
    EDIT: Nr. 2000



    grob geschätzt würde ich sagen sind diese platten zu 50% oder mehr ein marketingprodukt. wenn der preis stimmt ist dagegen nichts zu sagen. die platten für den privatmarkt sind mehr oder weniger alle gleich (schlecht) aber eben billig.
    Your account has been disabled.
    Reply With QuoteReply With Quote
    Thanks

  9. #7

    Join Date
    28.02.08
    Location
    kernel32.dll
    P2P Client
    µtorrent
    Posts
    1,615
    Activity Longevity
    0/20 19/20
    Today Posts
    0/5 sssss1615
    Quote Originally Posted by v6ph1 View Post
    Also mein GBit/s-Netzwerk läuft bei Dateitransfers auf Anschlag: 120MByte/s (ca. 50m und 2 Switches; von WD Green 20EARS auf Seagate Barracuda ST3000DM001)
    Irgendwas bremst da bei dir.
    Wie gemessen (und vor allem: unter welchem System? Mit Windows ist das Prinzipbedingt unmöglich, wenn überhaupt, dann nur mit FTP.)

    80 MB schafft unser Firmennetzwerk, und das ist Profiware vom oberen Regalbrett.

    Zu Hause erreiche ich real max. 40 MB/s, aber das dürfte eher an der jämmerlichen Hardware meines Servers (C3 Ezra, 1 GB, olle PCI-Slots) liegen als an den Geschwindigkeiten irgendwelcher Netzwerk-Komponenten

    Was die Qualität anbelangt, so hab ich noch keine negativen Erfahrungen gemacht. (Weder mit Maxtor, Seagate, Samsung noch Western Digital; Hitachi hatte ich nie)
    Naja, Mist haben so ziemlich alle Hersteller schon mal gebaut, aber bei WD ist's mir halt besonders übel in Erinnerung geblieben.


    Nur 2 sehr alte Platten haben Alterserscheinungen gezeigt und die wurden vor einem Datenverlust ausgemustert.
    Naja, aber die währen doch vermutlich ah aus Kapazitätsgründen bald fällig gewesen, oder?

    Das Problem ist bei mir eher die Kapazität (zu klein).
    Ich sach jetzt mal:
    Das ist nicht nur dein Problem (aktuell 16,6 TB, und es reicht vorne und hinten nicht)


    Das ist bei einem RAID unkritisch, da die Daten redundant über die Festplatten verteilt sind. So können die Daten der Platte mit Lesefehler schnell rekonstruiert werden und müssen nicht neu gelesen werden.
    Schnell?
    Du hast wohl noch nicht erlebt, das sich ein RAID 5 nach Ausfall rekonstruiert hat.


    Temperaturprobleme gibt es bei Festplatten nur, wenn sie gänzlich unbelüftet eingebaut sind. (bzw. aufm Schreibtisch liegen)
    Schon ein leiser, langsam drehender Lüfter hilft um die Temperatur der Festplatten zu begrenzen.
    Nicht bei meinen WDs damals.


    Was Notebookplatten betrifft, so haben diese (bauartbedingt) einen Kapazitätsnachteil im Vergleich zu großen 3,5"-Platten.
    Bei gleicher Speicherkapazität besitzen 3,5"-Platten eine geringere Speicherdichte oder weniger Platter (Scheiben) - sind also technisch betrachtet ausfallsicherer.
    Theoretisch ja.
    Dennoch werden in modernen Servers mittlerweile ausschließlich 2,5-Zöller verbaut. Weniger Stromverbrauch = weniger Abwärme, außerdem weniger Platz. Okay, Notebook-Platten sind das nicht gerade ;D



    /Edit:
    Nr. 10111101100 . . . (binär)
    Last edited by mabuse; 02.10.12 at 18:05.
    Reply With QuoteReply With Quote
    Thanks

  10. #8
    Retired Staff
    v6ph1's Avatar
    Join Date
    29.09.08
    P2P Client
    (keinen)
    Posts
    2,177
    Activity Longevity
    0/20 19/20
    Today Posts
    0/5 sssss2177
    Quote Originally Posted by mabuse View Post
    Wie gemessen (und vor allem: unter welchem System? Mit Windows ist das Prinzipbedingt unmöglich, wenn überhaupt, dann nur mit FTP.)

    80 MB schafft unser Firmennetzwerk, und das ist Profiware vom oberen Regalbrett.
    Dann zerstör ich mal dein Weltbild:
    Normales Heim-Equipment:
    Win7-PC - Cat.5e-Kabel (ca. 12m; ein Stecker selbst gekrimpt) - Router - 1m Cat6-Kabel - Cat.6-Patchpanel - 20m Cat7-Verlegekabel - Cat.6-Patchpanel - 25cm Cat6-Kabel - Switch - 25cm Cat6-Kabel - Cat6-Patchpanel - 8m Cat7-Verlegekabel - Cat6-Netzwerkdose - 1m Cat5e-Kabel - Win7-PC

    Kabel natürlich alle selbst verlegt/angeschlossen.

    Quote Originally Posted by mabuse View Post
    Naja, Mist haben so ziemlich alle Hersteller schon mal gebaut, aber bei WD ist's mir halt besonders übel in Erinnerung geblieben.
    Das ist wahr - deshalb sichere ich lieber parallel auf verschiedene Hersteller.
    Quote Originally Posted by mabuse View Post
    Naja, aber die währen doch vermutlich ah aus Kapazitätsgründen bald fällig gewesen, oder?
    Eine definitiv und die andere war bei mir schon vorher fällig - aber mein Vater brauchte nochmal mehr Platz.
    Quote Originally Posted by mabuse View Post
    Ich sach jetzt mal:
    Das ist nicht nur dein Problem (aktuell 16,6 TB, und es reicht vorne und hinten nicht)
    "Nur" 4TB - reicht gerade so.

    Quote Originally Posted by mabuse View Post
    Schnell?
    Du hast wohl noch nicht erlebt, das sich ein RAID 5 nach Ausfall rekonstruiert hat.
    Es geht nicht um einen Ausfall, sondern um normale Lesefehler, die normalerweise durch eine simple Wiederholung ausgeglichen werden.
    Und genau die kann man sich sparen, wenn man die Daten von den anderen Laufwerken nimmt. (In der Hoffnung, dass dann nicht das RAID selbst meint, fehlerhaft zu sein)

    mfg
    v6ph1

    Quote Originally Posted by mabuse View Post
    /Edit:
    Nr. 10111101100 . . . (binär)
    Fehlen noch 0x12 bzw. 10010_2 für was halbwegs rundes.
    Multibootsysteme einrichten
    Apple: Da ist der Wurm drin.
    Der Klügere gibt nach. Deshalb wird die Welt auch von Dummen regiert.
    Das Volumen einer Pizza mit Radius z und Höhe a ist gleich Pi·z·z·a
    Reply With QuoteReply With Quote
    Thanks

  11. #9
    Quote Originally Posted by mabuse View Post
    Mit Windows ist das Prinzipbedingt unmöglich
    wegen dieser urban legend von der reservierten bandbreite?
    80 MB schafft unser Firmennetzwerk, und das ist Profiware vom oberen Regalbrett
    ersteres widerspricht allerdings dem zweiten ;-)
    Naja, Mist haben so ziemlich alle Hersteller schon mal gebaut, aber bei WD ist's mir halt besonders übel in Erinnerung geblieben.
    das ist so ein komisches phänomen: fast jeder hat einen bestimmten hersteller auf dem kieker. befrage mal 10 leute nach ihrer meinung und du wirst feststellen, dass es keine platten mehr gibt die du kaufen könntest.
    Dennoch werden in modernen Servers mittlerweile ausschließlich 2,5-Zöller verbaut. Weniger Stromverbrauch = weniger Abwärme, außerdem weniger Platz.
    richtige server stehen in klimatisierten räumen, da interessieren die paar watt der platten niemanden. die 2,5" hdd's kommen nur zum einsatz, weil sie bauartbedingt bei gleicher umdrehungszahl schneller sind als die 3,5" platten.
    Reply With QuoteReply With Quote
    Thanks

  12. #10

    Join Date
    28.02.08
    Location
    kernel32.dll
    P2P Client
    µtorrent
    Posts
    1,615
    Activity Longevity
    0/20 19/20
    Today Posts
    0/5 sssss1615
    Quote Originally Posted by v6ph1 View Post
    Dann zerstör ich mal dein Weltbild:
    Normales Heim-Equipment:
    ....
    Und darauf schaffst du 120 MB/s unter Windows?
    Sorry, aber das glaub ich erst, wenn ich's mit eigenen Augen sehe.


    Es geht nicht um einen Ausfall, sondern um normale Lesefehler, die normalerweise durch eine simple Wiederholung ausgeglichen werden.
    Und genau die kann man sich sparen, wenn man die Daten von den anderen Laufwerken nimmt. (In der Hoffnung, dass dann nicht das RAID selbst meint, fehlerhaft zu sein)
    Oh, bitte.
    Lesefehler sind ausgesprochen selten. Und wenn, dann handelt es sich um einen Sektor. Selbst wenn eine Platte pro Sekunde 100 Lesefehler produzieren würde, und daher 100 Sektoren ein zweites Mal einlesen müsste, dann wären das satte 50 kB - angesichts von 100 MB/s ein Wert von weit unter einem Promille. Ich bezweifle, das man das messen kann, geschweige denn spüren.
    Hier mit Geschwindigkeit zu argumentieren ist wirklich eine Null-Nummer.

    Quote Originally Posted by ghostfucker View Post
    wegen dieser urban legend von der reservierten bandbreite?
    Nein, wegen dem aberwitzigen Verwaltungsoverhead.
    Windows-Rechner haben im Netzwerk nicht besseres zu tun, als die ganze Zeit "Ich bin hier" zu brüllen. Schau dir mal mit einem Sniffer an, was da los ist. Alternativ: stell dich hinter einen Rechner im Idle-Btrieb und schau mal auf das Kontroll-Lämpchen der Netzwerk-Karte. Jedes mal, wenn die blinkt, gibt der wieder irgendwelche (überflüssigen) Nachrichten von sich.

    Wie auch immer: Nimm einen beliebigen Windows-Rechner und setz da einen FTP-Server auf.
    Dann kopierst du von einem anderen Rechner einen Arm voll Daten einmal über die Windows-Freigabe rüber, und anschließend die gleichen Daten mal per FTP. Bisher war FTP noch immer mindestens 10-20% schneller.


    fast jeder hat einen bestimmten hersteller auf dem kieker. befrage mal 10 leute nach ihrer meinung und du wirst feststellen, dass es keine platten mehr gibt die du kaufen könntest.
    Tja, was soll ich dazu sagen. Ich hab nie in meinem Leben Probleme mit Maxtor gehabt.
    Nur blöd, das es die nicht mehr gibt . . .

    richtige server stehen in klimatisierten räumen, da interessieren die paar watt der platten niemanden.
    Richtige Server stehen zu Dutzenden bis an die Hundert in einem 19-Zoll-Rack - und da zählt jedes einzelne Watt Abwärme.

    Und wenn wir bei klimatisierten Räumen sind (beispielsweise in Rechenzentren): Frag einen Betreiber/Admin mal, was die für ihre Klimaanlagen an Stromkosten haben. Ich war vor ewigen Zeiten mal in einem, und die haben mir erzählt, das die Klimaanlage mehr Strom braucht, als die Rechner selber. Dann nimm noch hinzu, das darauf natürlich auch der Notstromgenerator ausgelegt sein muss, und dir wird klar, wieso die jedes einzelne Watt Abwärme bekämpfen.

    die 2,5" hdd's kommen nur zum einsatz, weil sie bauartbedingt bei gleicher umdrehungszahl schneller sind als die 3,5" platten.
    Kannst du das irgendwie begründen? Andersrum würde es für mich Sinn ergeben.
    Last edited by mabuse; 03.10.12 at 17:09.
    Reply With QuoteReply With Quote
    Thanks

  13. #11
    Retired Staff
    v6ph1's Avatar
    Join Date
    29.09.08
    P2P Client
    (keinen)
    Posts
    2,177
    Activity Longevity
    0/20 19/20
    Today Posts
    0/5 sssss2177
    Quote Originally Posted by mabuse View Post
    Und darauf schaffst du 120 MB/s unter Windows?
    Sorry, aber das glaub ich erst, wenn ich's mit eigenen Augen sehe.
    Musst es mir nicht glauben - ich habs aber selbst gesehen.

    Quote Originally Posted by mabuse View Post
    Oh, bitte.
    Lesefehler sind ausgesprochen selten. Und wenn, dann handelt es sich um einen Sektor. Selbst wenn eine Platte pro Sekunde 100 Lesefehler produzieren würde, und daher 100 Sektoren ein zweites Mal einlesen müsste, dann wären das satte 50 kB - angesichts von 100 MB/s ein Wert von weit unter einem Promille. Ich bezweifle, das man das messen kann, geschweige denn spüren.
    Hier mit Geschwindigkeit zu argumentieren ist wirklich eine Null-Nummer.
    Weißt du wirklich, wovon du redest?
    Es geht nicht um 50kB, sondern darum, dass man für die Wiederholung der Daten (selbst ohne Kopf positionieren) 1 komplette Runde warten muss.
    Das sind bei 7200er-Platten: 1min/7200 = 1/120s = 8,3ms. (Bei 5400er Platten, wie der vorgestellten: 1/90s = 11,1ms)
    In der Zeit könnte man 1-2MB lesen.

    Bei 100 Lesefehlern in der Sekunde bleibt garkeine Zeit mehr für korrekte Daten!

    Quote Originally Posted by mabuse View Post
    Tja, was soll ich dazu sagen. Ich hab nie in meinem Leben Probleme mit Maxtor gehabt.
    Nur blöd, das es die nicht mehr gibt . . .
    Die nennen sich seit ein paar Jahren Seagate (Die STM-Platten sind die von Maxtor)

    Quote Originally Posted by ghostfucker View Post
    das ist so ein komisches phänomen: fast jeder hat einen bestimmten hersteller auf dem kieker. befrage mal 10 leute nach ihrer meinung und du wirst feststellen, dass es keine platten mehr gibt die du kaufen könntest
    Das nennt sich Statistik:
    Jedem Nutzer geht im Mittel höchstens eine Festplatte kaputt. - Und diese Firma ist dann böse.
    Wenn einem selbst noch keine kaputt gegangen ist, schließt man sich einem Bekannten an, der "Ahnung" hat.

    mfg
    v6ph1
    Multibootsysteme einrichten
    Apple: Da ist der Wurm drin.
    Der Klügere gibt nach. Deshalb wird die Welt auch von Dummen regiert.
    Das Volumen einer Pizza mit Radius z und Höhe a ist gleich Pi·z·z·a
    Reply With QuoteReply With Quote
    Thanks

  14. #12
    Quote Originally Posted by mabuse View Post
    Nein, wegen dem aberwitzigen Verwaltungsoverhead. [...]
    dieser overhead frisst also 33% der bandbreite? und wenn du nun über ftp ziehst, hören die windows rechner plötzlich auf sich anzupingen...?

    dein test würde übrigends bei mir nicht viel bringen, da ich auch über freigaben mit fullspeed fahren kann.

    Kannst du das irgendwie begründen? Andersrum würde es für mich Sinn ergeben.
    der durchmesser der scheiben ist geringer, wodurch der lesekopf schneller an die gewünschte position kommt. ist genauso wie bei cd's/dvd's/br's: die daten die weiter 'innen' liegen können schneller gelesen werden.

    nun hast du aber das problem, dass 2,5" platten weniger kapazität bieten wie die größeren modelle. um dies zu kompensieren ersetzt du nun deine 3,5" hdd's durch die doppelte menge an 2,5" hdd's und hast die selbe kapazität bei einer deutlich höhren geschwindigkeit. dadurch relativiert sich aber auch die stromersparnis auf wenige watt, die in keiner relation zu den kosten für die kleinen hdd's stehen. stromersparnis ist so ziemlich das letzte, an was die serverbetreiber bei 2,5" platten denken (außer denjenigen, die mit green-it werben ).
    Last edited by ghostfucker; 03.10.12 at 18:25.
    Reply With QuoteReply With Quote
    Thanks

  15. #13

    Join Date
    28.02.08
    Location
    kernel32.dll
    P2P Client
    µtorrent
    Posts
    1,615
    Activity Longevity
    0/20 19/20
    Today Posts
    0/5 sssss1615
    Quote Originally Posted by v6ph1 View Post
    Weißt du wirklich, wovon du redest?
    Es geht nicht um 50kB, sondern darum, dass man für die Wiederholung der Daten (selbst ohne Kopf positionieren) 1 komplette Runde warten muss.
    Das sind bei 7200er-Platten: 1min/7200 = 1/120s = 8,3ms. (Bei 5400er Platten, wie der vorgestellten: 1/90s = 11,1ms)
    In der Zeit könnte man 1-2MB lesen.
    Mathematisch korrekt - allerdings unterstellst du, das jeder Sektor einzeln gelesen und bei einem Fehler alle folgenden Lesevorgänge bis zur Behebung des Fehlers zurückgestellt werden. Ich geh schon davon aus, das die Dinger cleverer sind und trotzdem die folgenden Sektoren weiterlesen und den fehlerhaften Sektor dann erneut lesen, wenn er wieder vorbei kommt. In diesem Szenario würdest du damit lediglich den Spurwechsel zum nächsten Zylinder um eine Sektorlänge verzögern. Und da es in gewissen Bereichen Glückssache ist, wie schnell der Kopf nach dem Spurwechsel eingeschwungen ist und damit weiterlesen kann, kann es durchaus sein, das sich dadurch gar keine Verzögerung ergibt.

    Bei 100 Lesefehlern in der Sekunde bleibt garkeine Zeit mehr für korrekte Daten!
    Im Prinzip richtig, aber die Fehlerquote wird heutzutage mitgeschrieben - eine solche Platte dürfte beim nächsten Systemstart einen SMART-Alarm auslösen. Vertrauen würd ich der nicht mehr.
    Ist schon Ewigkeiten her (als 320er noch High-End waren), das ich zum letzten mal SMART-Daten ausgelesen hab, aber damals hatten die Platten nach einem halben Jahr Dauerbetrieb so um die 200 Lesefehler insgesammt. Also etwas mehr als einen pro Tag. Das würd ich jetzt nicht als Argument heranziehen.

    Mal ganz davon abgesehen, das die Festplattengeschwindigkeit eh allgemein hoffnunglos überschätzt wird.
    Ist zwar auch schon ewig her und daher nicht notwendigerweise 1:1 auf moderne Platten übertragbar, aber zu Beginn von W2k bin ich von einer 8er Platte auf eine 30er umgestiegen. Auf dem Papier und bei Benschmarks war die neue Platte mehr als dreimal so schnell wie die Alte (Zugriffsgeschwindigkeit und Datenüertragung) - unter Windows hat man davon abgesehen von einem etwas schnelleren Bootvorgang aber gar nichts gemerkt. Der Cache bügelt schon ordentlich was weg.


    Die nennen sich seit ein paar Jahren Seagate (Die STM-Platten sind die von Maxtor)
    Ja, aber was da wirklich drin ist, weiss keiner so genau. Meines Wissens nach wurden die Maxtor-Werke geschlossen. Kann natürlich sein, das die nach dem Flutunglück vor zwei Jahren wieder reaktiviert wurden. Man weiss es halt nicht.
    Wobei ich jetzt nichts schlechtes über Seagate sagen will, von denen sind hier neben einem Rudel Samsungs zurzeit an die 30 Stück im Einsatz. Ich find zwar, das eine von denen ein etwas seltsames Geräusch macht, aber da sie trotzdem seit einem halben Jahr völlig stressfrei läuft, verbuch ich das mal unter Herstellertoleranz.


    Jedem Nutzer geht im Mittel höchstens eine Festplatte kaputt. - Und diese Firma ist dann böse.
    Wenn einem selbst noch keine kaputt gegangen ist, schließt man sich einem Bekannten an, der "Ahnung" hat.
    Da hast du in der Breite sicherlich recht, aber als Admin hier in der Firma hab ich da doch schon einiges mehr zu sehen bekommen - und das umfasst ausdrücklich auch gefraggte "echte Server-Platten" (mir fällt grad ein, ich mein, das wäre eine Seagate gewesen. Egal, das war unser erster Windows-Server, mit gigantischen 8 GB. Und im Gegenzug tun die billigen Samsung-Desptops, die ich im nächsten Server verbaut hab, heute noch ihren Dienst.).


    Quote Originally Posted by ghostfucker View Post
    der durchmesser der scheiben ist geringer, wodurch der lesekopf schneller an die gewünschte position kommt.
    Das ist Quatsch.
    Bis an ihre äußere Grenze hin sind kleine Platten auf vergleichbaren Spuren exakt genauso schnell wie größere (gleiche Drehzahl vorrausgesetzt, logisch).
    Jenseits der Kapazität der kleinen wird dann die größere Platte schneller, weil da mehr Sektoren auf den Umfang passen.

    ist genauso wie bei cd's/dvd's/br's: die daten die weiter 'innen' liegen können schneller gelesen werden.
    Auch das ist Falsch:
    Innen ist langsamer, weil da bei gleichbleibender Geschwindigkeit weniger Sektoren auf eine Spur passen als außen. CDs und DVDs erreichen in den äußersten Spuren ihre maximale Geschwindigkeit. Mittlerweile wird das durch variable Drehzahlen etwas kaschiert, aber das hat natürlich negative Auswirkungen auf Seek-Manöver quer über die Scheibe, weil dabei die Scheibe beschleunigt bzw. gebremst werden muss, weshalb das nur begrenzt nützlich ist.

    Aber Festplatten sind außen deutlich schneller, weil dort mehr Sektoren in einer Umdrehung und besonders ohne Step gelesen werden können. Darum werden Festplatten auch nicht wie optische Medien von innen nach außen gelesen/beschrieben, sondern umgekehrt, weil man in den schnelleren Bereichen natürlich möglichst das Betriebssystem und den Verwaltungskram haben will.

    /Edit:
    Und ja, ich weiss, CDs/DVDs haben keine Spuren, sondern eine kontinuierliche Spirale.

    ersetzt du nun deine 3,5" hdd's durch die doppelte menge an 2,5" hdd's und hast die selbe kapazität bei einer deutlich höhren geschwindigkeit.
    Was aber nicht an der Geschwindigkeit der Platten an sich liegt, sondern an der grundsätzlichen Überlegenheit von RAID-Systemen.

    dadurch relativiert sich aber auch die stromersparnis auf wenige watt, die in keiner relation zu den kosten für die kleinen hdd's stehen.
    1.) Rechne es mal durch:
    Eigene Messung: Notebook-Platte 1 W, Destop-Platte 8-12 W. Das macht bei 24/7-Betrieb 8*24*365 = 70 kWh = 14 € / anno. Milchmädchenrechnung, wie lange es dauert, bis sich die Sache rechnet. Die Notebook-Platte in meinem Server hat sich schon selber über die Stromkosten finanziert.

    2) und vor allem:
    stromersparnis ist so ziemlich das letzte, an was die serverbetreiber bei 2,5" platten denken (außer denjenigen, die mit green-it werben ).
    Du hast mich nicht wirklich verstanden (oder ich hab mich mal wieder ungeschickt ausgedrückt).
    Es geht nicht (nur) um den Stromverbrauch im Sinne der Stromrechnung - sondern um den Stromverbrauch im Sinne der Abwärme.

    1. Hauptsatz Thermodynamik: Energie verschwindet nicht, sie wird immer nur in eine andere Form umgewandelt. Am Ende des Tages ist sämlicher Strom, die in so eine Kiste gepumpt wird, vollständig in Wärme umgewandelt worden.

    Heutzutage bekommt man mit Blade-Servern über 100 Rechner in ein 19-Zoll-Rack. Wenn jeder von denen 2 Desktop-Platten hätte (wegen Ausfallsicherheit immer RAID 1 <-- Ist das richtig? Die beiden werf ich immer durcheinander), dann kommst du auf über 200 Platten mit einer Heizleistung von zusammen 2 kW - ausdrücklich, auf engstem Raum, zusammen mit 100 CPUs, Chipsätzen und 200 Speicherbänken, die alle nochmal mindestens genausoviel Wärme produzieren und darüber hinaus auf Hitze ausgesprochen ungehalten reagieren.

    Natürlich werden die schon recht aufwendig gekühlt - aber neben den simplen Stromkosten gibt es da auch erhebliche "logistische" Probleme, ausreichend frische Kühlluft an die richtigen Stellen zu- und verbrauchte, warme Luft abzuführen. Das ist ja vergleichsweise so, als würde man einen 10-Kilowatt-Ofen in einen gestopft vollen Kleiderschrank stellen.
    Darum werden mittlerweile auch bevorzugt Notebook-Prozessoren mit geringerer Leistung, aber eben auch mit niedrigster Stromaufnahme in solchen Blade-Servern verbaut. Jedes Watt, das man an Hitzeentwicklung einsparen kann, entschärft die Kühlproblematik in solch engen Gehäusen erheblich.

    Ersetze nur die 200 Desktop-Platten durch 400 Notebook-Platten, und du hast die abzuführende Heizleistung um etwas mehr als ein kW verringert.
    Und wenn du zu den obigen 14 €/anno nochmal das Doppelte für die notwendige Kühlung zuschlägst, dann rechnet sich die Sache auch schon verdammt schnell. Und zusätzlich kann der Notstromgenerator kleiner ausfallen bzw. bei gleicher Größe mehr Rechner im Ernstfall versorgen.

    Und zuletzt: legt mal zwei 2,5-Zöller übereinander und eine 3,5-Zöller daneben. Auch die Platzersparnis ist nicht unerheblich, da bekommt man gleich noch mehr Server in das Rack, auch das ist eine Kostenersparnis.


    Glaub mir: wegen der Geschwindigkeit nimmt man die kleinen Platten nicht.



    Quote Originally Posted by ghostfucker View Post
    dieser overhead frisst also 33% der bandbreite? und wenn du nun über ftp ziehst, hören die windows rechner plötzlich auf sich anzupingen...?
    Nein, aber Windows gibt sich nicht mit der Übertagungssicherheit des TCP/IP-Protokolls zufrieden, sondern stülpt noch eine eigene Kommunikation obendrüber (vermutlich eine Altlast des Windows-NetBIOS-over NCP-Systems - ein Hoch auf die Kompatibilität).

    Wobei ich ausdrücklich sagen muss, das ich unter XP arbeite. Ich will nicht ausschließen, das es in reinen Win7-Netzwerken mittlerweile anders ausehen könnte. Manchmal lernen ja selbst die Porgrammierer von M$ was dazu, und über den Verwaltungsoverhead haben sich ja massig Leute lang genug aufgeregt. Das wäre ja schon fast ein Grund für ein Upgr . . . ach ne, doch lieber nicht
    Last edited by mabuse; 04.10.12 at 16:06.
    Reply With QuoteReply With Quote
    Thanks

  16. #14
    du rechnest mit einer messung deiner notebook platte...? zeig mir auch nur eine 2,5" server platte die 1w (read/write) frisst. die server platten schaffen dies nicht mal ansatzweise im idle.

    ich halte mich aber mal kürzer: 2.5” Vs. 3.5"
    dort findest du auch benchmarks zu allen faktoren. zu berücksichtigen ist auch, dass die 3,5" platte ein absolutes killer model in sachen performance ist (wodurch die lächerlichen 150gb kapazität gerechtfertigt werden).


    ps: bei mir steckt im netzwerk auch noch eine win2000 kiste. daran wirds also nicht liegen ;-)
    Last edited by ghostfucker; 04.10.12 at 16:54.
    Reply With QuoteReply With Quote
    Thanks

  17. #15

    Join Date
    28.02.08
    Location
    kernel32.dll
    P2P Client
    µtorrent
    Posts
    1,615
    Activity Longevity
    0/20 19/20
    Today Posts
    0/5 sssss1615
    Quote Originally Posted by ghostfucker View Post
    du rechnest mit einer messung deiner notebook platte...?
    Nein, das sind die Zahlen aus meinem Privat-Server.

    Mein Chef wird mir was anderes erzählen, wenn ich hier mit'm Strommessgerät am Server herumexperimentiere.
    Natürlich hast du recht, die 10.000er oder 15.000er Serverplatten werden wohl was mehr ziehen - aber das gilt dann genauso für die schnellen 3,5-Zöller, denn die 10 W, die ich gemessen habe gilt auch: stinkend normale Desktop-Platten. Der Abstand dürfte so Pi mal Daumen der gleiche bleiben. seiht man ja auch an den allerletzten Benchmarks aus deinem Link, Performance per Watt.

    Wobei dieser Test nicht mehr wirklich aussagekräftig ist, angesichts des Alters.

    ich halte mich aber mal kürzer: 2.5” Vs. 3.5"
    Na, aber da steht doch mehr oder weniger das, was ich schon gesagt habe:
    These can be managed best on the 2.5” form factor. Yes, there’s a small performance tradeoff, but power, efficiency, and cost balance well here. In addition, one product cycle is typically enough to make up for performance impacts.

    Wie auch immer, eigentlich ist das Ganze eine müßige Diskussion. In fünf, maximal 10 Jahren werden die Platten in den Servern selber eh nur noch SSD sein, die schneller und kälter laufen. Die großen Datenmassen werden dann auf räumlich getrennte NAS ausgelagert werden, was die Kühlung deutlich entspannter werden lassen sollte. Das haben wir jetzt hier auch schon gemacht. Im Server laufen fünf schnelle 600er SAS-Platten (Raid 10 plus Hotspare) für den Exchange-Server, die Datenbanken und den wirklich wichtigem Kram, und der ganze Krempel liegt auf einem 6 TB-NAS (vier stinknormale 2 TB-Desktop-Platten als Raid 5), das aber komplett über den Server verwaltet wird. Ich denke, solch mehrstufigen Systemen (auch von der Geschwindigkeit her) gehört die Zukunft. Ist ja auch Blödsinn, alle Daten - auch die eher unwichtigen - auf gleich teuren und schnellen Platten vorrätig zu halten.

    ps: bei mir steckt im netzwerk auch noch eine win2000 kiste. daran wirds also nicht liegen ;-)
    Und die anderen Rechner?
    Wenn du mal etwas Zeit hast, dann versuch doch mal, die gleiche Datenmasse (z.B. eine komplette DVD) a) von einem Win7 auf einen anderen Win7-Rechner zu schieben, und dann b) das gleiche von dem 2000er auf den Win7er. Dann hätten wir wenigsten mal reale Zahlen für einen ordentlichen Vergleich.
    Kann ich auch machen, aber erst nächsten Monat, wenn die neuen CAD-Workstations da sind.
    Reply With QuoteReply With Quote
    Thanks

+ Reply to Thread
Page 1 of 2 12 LastLast

Tags for this Thread

Posting Permissions

  • You may post new threads
  • You may post replies
  • You may not post attachments
  • You may not edit your posts
  •