PDA

View Full Version : 2-TByte-HDD von Western Digital in Shops gelistet



Snitlev
15.12.08, 20:28
In einem Onlineshop in unserem Nachbarland ist seit einigen Tagen die erste Festplatte mit 2 TByte gelistet. Ein Verfügbarkeitsdatum gibt es bisher noch nicht, der Preis liegt in etwa bei 227 Euro ohne Steuern.

Quelle: ComputerBase - 2-TByte-HDD von Western Digital in Shops gelistet (http://www.computerbase.de/news/hardware/laufwerke/massenspeicher/2008/dezember/2-tbyte-hdd_western_digital_shops/)

Viel Spass beim defragmentieren :klatsch_3:

v6ph1
15.12.08, 20:32
Viel Spass beim defragmentieren :klatsch_3:
Bei soviel Platz braucht man das sicher kaum.
(Es sei denn man verbraucht den schon für "Filme")

2TB sind aber echt extrem.

mfg
v6ph1

Se7Ven
15.12.08, 21:17
ja sicherlich ist das eine ganze menge Holz aber ,,,,wer permanent Filme und Musik umwandelt .... die Torrents herunter lädt...braucht raum..platz zum bearbeiten deshalb wären 2 TB schon sehr gut......jetzt habe ich 1,5TB

aaaaab
15.12.08, 22:47
hat man denn schon ausgerechnet wie groß der unterschied
von 2TB zu 2TiB ist?

jedes GB was da fehlt ist eins zu viel...

wie soll ich denn da mein imaginäres 2TiB projekt darauf sichern? :D

v6ph1
15.12.08, 22:55
hat man denn schon ausgerechnet wie groß der unterschied
von 2TB zu 2TiB ist?
Knapp 200GB.

Und es ist nicht schlimm, die Festplattenhersteller sind im Recht, sie werben ja nur mit TByte = 10^12Byte und nicht mit TiByte = 2^40 Byte.

Dass Hersteller von Software nicht korrekt umrechnen können ist ja keine Schuld der Festplattenhersteller.

mfg
v6ph1

aaaaab
16.12.08, 06:35
da ja daten ja primär binär sind und nicht dezimal hätte ich es schon lieber richtig

seit mal ehrlich welches betriebsystem hat (per default) die dezimal umrechnungseinheiten?

man hatte doch schon bei der diskette gesehen, das die hersteller selber schon nicht mehr duchblicken...

mabuse
16.12.08, 09:49
Viel Spass beim defragmentieren :klatsch_3:
Defragmentieren ist nicht das Problem - mach dadrauf mal Scandisk mit intensiver Oberflächenprüfung. Dauert auf ner (schnellen!) 320er von 26 Stunden . . .


2TB sind aber echt extrem.Och, ich würd die vollkriegen. Aber problemlos. Alles in allem hab ich im Moment 3,5 TB hier rumstehen, und ich muss laufend was abbrennen, weil's sonst wieder einen Overflow gibt.
Und mit Video mach ich in letzter Zeit eher wenig, sind hauptsächlich Musik und Comics.

user132
16.12.08, 10:14
uff meine 500GB Platte extern reicht mir für alles. mal ehrlich ihr müsst so viel datenmüll haben^^

Dagon
16.12.08, 16:42
für geschenkt nehm ich die! gut würde vieles geschenkt nehmen. wäre bestimmt recht schnell was drauf.

Mfg Dagon

Snitlev
16.12.08, 17:09
also ich habe momentan 2x160 und eine 250 extern, aber die 2x160er sind schon so voll dass ich ständig am rausschmeissen bin, aber 1Tb wäre meines Erachtens bei sehr guter Geschwindigkeit 10000 U/min sehr wünschenwert (wenn der Preis stimmt) ;-)

v6ph1
16.12.08, 20:42
da ja daten ja primär binär sind und nicht dezimal hätte ich es schon lieber richtig

seit mal ehrlich welches betriebsystem hat (per default) die dezimal umrechnungseinheiten?
Linux: Da kann man die Anzeige in Binär oder Dezimal-Präfixen sogar einstellen.
(Meine jetzt unter KDE, hab Gnome nicht installiert)

Und ja, die Daten selbst sind zwar binär, aber du kannst trotzdem 10Byte oder 1000Byte problemlos zusammenfassen. (Problematisch wird es nur beim Adress(De)Kodierer, das interessiert aber kaum)

Wie gesagt: Die Festplattenhersteller halten sich an die korrekte Normung, aber eben die Betriebssystemhersteller (insbesondere M$) nicht.
Betrug wäre es nur, wenn man sie mit 2TiB anpreisen würde, das ist aber nicht der Fall.


man hatte doch schon bei der diskette gesehen, das die hersteller selber schon nicht mehr duchblicken...
Dort war es extrem, weil man sowohl Binär- als auch Dezimalpräfixe gleichzeitig genutzt hat.
Denn man hat 1440KiByte genommen und das als 1,44MB verkauft.
Korrekt wären 1,41MiByte oder 1,47MByte.

mfg
v6ph1

LongbowArcher
16.12.08, 20:52
Defragmentiere grade, nachdem ich von FAT auf NTFS umgewandelt habe, meine 320GB Platte....läuft seit heute morgen 9h :(
Also auf 2TB hätte ich da keine Lust ^^

aaaaab
16.12.08, 21:19
@v6ph1
daten sind binär und sollten auch so behandet werden
die TiB suffixe wurden nur erfunden,
um die beiden gruppen unterscheiden zu können

ich will nicht recht daran glauben
ich wette sogar das die binär-umrechnung
weitaus vor der dezimal-umrechnung verwendet wurde

das kahm der industrie doch nur recht...
2TB verkauft sich doch weit aus besser (& billiger) als ~1,8TiB

möge man mich konservativ nennen, aber in einer welt der digitalen datenverarbeitung
gehören nunmal binäre einheten, und nicht das dezimal gedönz...

v6ph1
16.12.08, 21:33
@v6ph1
daten sind binär und sollten auch so behandet werden
die TiB suffixe wurden nur erfunden,
um die beiden gruppen unterscheiden zu können
Das ist korrekt, nur bedeutet Kilo eben noch immer 1000 und nicht 1024.

ich will nicht recht daran glauben
ich wette sogar das die binär-umrechnung
weitaus vor der dezimal-umrechnung verwendet wurde
Da täuscht du dich: Es gab und gibt sogar CPUs mit Dezimal-Einheit, die also ohne umrechnung in Binärwerte mit dezimalen Ziffern rechnet.
Am Anfang als noch wenige Byte nötig waren, gab es das ganze Problem noch nicht. Die Dezimalumrechnung ist sogar bei Netzwerken heute noch üblich.

das kahm der industrie doch nur recht...
2TB verkauft sich doch weit aus besser (& billiger) als ~1,8TiB
Natürlich insbesondere bei TB. Bei den anfänglichen Größen, wie KB und MB war es kaum relevant. Weiterhin haben sogar die Festplatten oftmals etwas mehr, weil noch ein paar Sektoren für Notfälle vorhanden sind. Bei Flash-Speicher (USB und auch SSDs) ist es nicht anders.
Dass sich 2TB besser verkaufen lassen ist auch klar, normalerweise wird aber eben auch nur mit 2Billionen Byte beworben.

Es gab sogar mal deswegen einen Prozess in Amerika gegen Seagate, kam aber zu einem Vergleich, weil Seagate die negative Publicity fürchtete. Gewonnen hätten sie.


möge man mich konservativ nennen, aber in einer welt der digitalen datenverarbeitung
gehören nunmal binäre einheten, und nicht das dezimal gedönz...
digital ist nicht binär. Ich würde das aber auch eher technisches Unverständniss nennen.

mfg
v6ph1

supermarrioh
16.12.08, 23:00
Da täuscht du dich: Es gab und gibt sogar CPUs mit Dezimal-Einheit, die also ohne umrechnung in Binärwerte mit dezimalen Ziffern rechnet.
Am Anfang als noch wenige Byte nötig waren, gab es das ganze Problem noch nicht. Die Dezimalumrechnung ist sogar bei Netzwerken heute noch üblich.
Zeig mir den CPU(Bitte keinen Analogrechner) der das wirklich macht und kann, und ich lecke dir die Füße. Wenn Ein Cpu das machen sollte, rechnet er intern sicher binär und hat einen "Wandler" der das ganze Dezimal ausgibt (Wobei ich mir nicht vorstellen kann wie das gehen sollte, da müsste mit mehr als 2 Spannungsstufen gearbeitet werden, die wieder interpretiert werden müssen... unglaublich ineffizient würde ich spontan sagen) .

v6ph1
16.12.08, 23:33
Zeig mir den CPU(Bitte keinen Analogrechner) der das wirklich macht und kann, und ich lecke dir die Füße. Wenn Ein Cpu das machen sollte, rechnet er intern sicher binär und hat einen "Wandler" der das ganze Dezimal ausgibt (Wobei ich mir nicht vorstellen kann wie das gehen sollte, da müsste mit mehr als 2 Spannungsstufen gearbeitet werden, die wieder interpretiert werden müssen... unglaublich ineffizient würde ich spontan sagen) .
IBM Power6 (http://en.wikipedia.org/wiki/POWER6) - siehe Description.
Es werden natürlich BCDs genutzt: (Man bildet die Dezimalwerte mit 4 Binärziffern ab) weil man eben Low- bzw. High-Pegel besser übertragen kann.
Gerechnet wird eben dann trotzdem Dezimal.
(Mehr Spannungsstufen sind einfach nicht sonderlich gut zu handhaben)
Dass die Logik trotzdem mit High- und Low-Pegeln arbeitet ist durch CMOS bedingt. Mit Analog-Rechnern ginge das Natürlich auch.

Der Genauigkeit zuliebe wurden direkt mit (kodierten) Dezimalziffern gerechnet.
Komplizierter wird die zu nutzende Logik trotzdem. (insbesondere bei der Division)

mfg
v6ph1

PS: Ich drifte schon leicht ab vom Thema.

aaaaab
17.12.08, 06:31
also würde man sagen das decimal weniger effektiv ist als eine binär umsetzung
(egal wie hochoptimirt)

mabuse
17.12.08, 09:50
Defragmentiere grade, nachdem ich von FAT auf NTFS umgewandelt habe, meine 320GB Platte
Du hast echt ne 320er unter FAT laufen lassen?
Das ist mutig. Mich hat son Stunt seinerzeit gut ein Drittel meiner mp3-Sammlung gekostet.


....läuft seit heute morgen 9h :(
Also auf 2TB hätte ich da keine Lust ^^
Da kann ich dich beruhigen. Unter NTFS geht es bedeutend schneller und vor allem muss man es nur sehr selten machen, das ist da sehr viel intelligenter.

user132
17.12.08, 13:11
Wozu braucht eine so große Platte denn so übertrieben viel Platz für sich?
Oder generell versteh ich nicht wozu eine Platte Speicher für sich brauch^^
Vielleicht versteh ichs wenn ich wüsste warum.
Sonst würde ich sagen in diesen Dimensionen müssten diese ungefähren 10% sinken.

aaaaab
17.12.08, 17:13
also bei mir stellt sich fie frage nicht wozu so viel speichr...
ich bin immerwieder erstaunt, wenn so ne platte plötzlich voll ist :D

user132
17.12.08, 23:12
^^
ja aber wieso braucht bitte eine platte soviel für sich??
Leerlauf oder was?

v6ph1
17.12.08, 23:43
Wozu braucht eine so große Platte denn so übertrieben viel Platz für sich?
Oder generell versteh ich nicht wozu eine Platte Speicher für sich brauch^^
Vielleicht versteh ichs wenn ich wüsste warum.
Sonst würde ich sagen in diesen Dimensionen müssten diese ungefähren 10% sinken.
Benötigt sie auch nicht.
Das einzige, was etwas Platz braucht ist der MasterBootRecord (MBR) am Anfang der Platte, wo die 4Primären Partitionen drin stehen.
(Logische Partitionen können dann in einer Art Schachtel/Matroschka-Modell als eine Primäre Partition ausfgefasst werden)
Das sind etwa 512kByte, da dafür benötigt werden, inkl. Bootmanager.
Der Rest sind nochmal kleine Verwaltungseinheiten für die einzelnen Dateisysteme, dazu gehört immer eine FAT (Tabelle, wo welche Datei steht) und es gehören oft noch weitere Daten dazu, wie Besitz-Informationen u.ä. (Insbesondere bei NTFS, HPFS, extfs(1-4), reiserfs und vielen anderen fortschrittlichen Dateisystemen)

Die Festplatte selbst benötigt keinen Platz für Verwaltungsinformationen.

Das Problem, was von aaaaab und mir diskutiert wurde ist das Problem, dass Festplattenhersteller sich bei den Speicherkapazitäten korrekt auf Dezimalpräfixe (Kilo=1000) berufen und diese auch nutzen, aber Hersteller von Dateimanagern und Betriebssystemen noch nicht in der Lage sind zwischen Kilo=1000 und Kibi=1024 zu unterscheiden und damit die Kapazität scheinbar geringer ist aber eben nur, weil einige zu doof zum Rechnen sind.

mfg
v6ph1