Diskussion:Festplattenlaufwerk/Archiv/1

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 14 Jahren von Smial in Abschnitt Cable-Select
Zur Navigation springen Zur Suche springen
Dieses Diskussionsarchiv hat die empfohlene Seitengröße erreicht und gilt damit als abgeschlossen. Sein Inhalt sollte nicht mehr verändert werden (ausgenommen Kleinbearbeitungen wie Link- und Vorlagenfixe). Verwende für die Archivierung von Diskussionsbeiträgen bitte das aktuelle Archiv und benutze bitte für aktuelle Diskussionen die aktuelle Diskussionsseite.
Um einen Abschnitt dieser Seite zu verlinken, klicke im Inhaltsverzeichnis auf den Abschnitt und kopiere dann Seitenname und Abschnittsüberschrift aus der Adresszeile deines Browsers, beispielsweise
[[Diskussion:Festplattenlaufwerk/Archiv/1#Abschnittsüberschrift]]
oder als Weblink zur Verlinkung außerhalb der Wikipedia
https://de.wikipedia.org/wiki/Diskussion:Festplattenlaufwerk/Archiv/1#Abschnittsüberschrift

Datentransferraten

Wenn ich mir diesen Artikel so durchlese fühle ich mich an ein Phänomen erinnert, dass bei CPUs lange verbreitet war. Dort haben immer alle auf die Ghz-Zahl geschaut und darüber die tatsächliche Rechenleistung vergessen. In diesem Artikel dreht sich alles um die Speichergröße in GB/TB der Festplatten. Was ich vollkommen vermisse sind Angaben zur Entwicklung der Datentransferrate. Da die Festplatte gemeinhin der Flaschenhals eines PC-Systems ist und alle Anwednungen (zumindest beim Starten der Anwendungen) durch diesen limitiert werden, fände ich derartige Angaben nicht unwichtig. Vielleicht kann man realistischerweise wenigstens ergänzen, mit wieviel mb/s eine durchschnittliche 5400 upm Notebookplatte Daten überträgt. Was der Burst-Modus ist, etc.

Leider kann ich das nicht selbst machen.

Leider habe ich da auch kein ausreichendes Zahlenmaterial. --PeterFrankfurt 22:00, 21. Nov. 2007 (CET)Beantworten

Gruß, Jan.

PS: Ich bin kein Wikipedianer und hoffe ich habe diesen Beitrag jetzt richtig erstellt.

Fast. Aber Du hast anscheinend den vorher hier stehenden Beitrag durch Überschreiben zerstört, und zweitens soll man neue Fragen möglichst unten anhängen und nicht oben. Halt nächstes Mal. --PeterFrankfurt 22:00, 21. Nov. 2007 (CET)Beantworten

Falscher Verweis

Bei der Erklärung des Lesekopfes wurde fälschlicherweise zum MR(Magnetischer Widerstand) verlinkt. Richtig wäre, "Magnetoresistiver Effekt". Bitte Korrigieren. Die beiden Sachen haben nichts miteinander zu tun. Gruß Norbert 10.11.2007

(Nach Zerstörung durch IP restauriert, auch wenn das Problem anscheinend schon gelöst wurde. --PeterFrankfurt 22:00, 21. Nov. 2007 (CET))Beantworten

Sinn?

Zitat: "Festplatten-Gehäuse Wird eine Festplatte in normaler, verunreinigter Luft geöffnet, so sorgen bereits kleinste Staub-/Rauchpartikel, Fingerabdrücke, etc für wahrscheinlich irreparable Beschädigungen der Plattenoberfläche und der Schreib-/Leseköpfe. Zum Vergleich: Ein Haar ist 0,05 mm = 50 Mikrometer = 50 000 nm dick!"

Wie lautet denn das Vergleichsobjekt??

Der erste Satz stammt von mir, letzterer hat jemand hinzugefügt, ohne nachzudenken -> entfernt. --Kohl 15:30, 19. Jun 2006 (CEST)
Smial hat den Satz an die richtige Stelle verschoben. Es ging um den Vergleich zwischen Abstand Platte<->Lesekopf und der Dicke eines Haars. Kohl 17:20, 19. Jun 2006 (CEST)

A/V video fähig

könnte man was über unterschiede normale und video fähige platten schreiben? ich habe gehört dass es hier unterschiede gibt.

Früher war es so, daß IDE-Platten bedingt durch ihre Erwärmung (und der damit verbundenen Materialausdehnung) in gewissen Abständen rekalibrieren müßten. Während des Kalibrierens waren diese alten Platten nicht in der Lage Daten zu lesen oder zu schreiben.
Alte SCSI-Platten waren schon immer in der Lage auch während des Kalibrierens den Datenstrom aufrecht zu erhalten. Dieses Feature wurde dann auch in die IDE-Platten übernommen. Zu Beginn dieser Portierung ließen sich die Hersteller dieses gesondert bezahlen und bezeichneten diese Platen als "A/V fähig", da bei Audio- und Videomitschnitten eine Unterbrechung des Datenstroms das aus bedeutet.
Heute gehört die Technik zum Standard bei allen Festplatten. Darum gibt es auch keine gesonderten A/V-Festplatten mehr. Cbkrueger 14:14, 15. Feb. 2007 (CET)Beantworten
Es gibt aber auch CE-Festplatten, die auf digitale Unterhaltungsgeräte wie Festplatten-Rekorder zugeschnitten sind und damit fast die gleiche Zielgruppe ansprechen. Sie sind leiser und haben eine weniger ambitionierte Fehlerkorrektur, damit Video- und Audioströme nicht beim verzweifelten Rekonstruieren eines Bits hängen bleiben, sondern flüssig weiterlaufen, notfalls halt mit einem hör- oder sichtbaren Knackser an der betroffenen Stelle. Siehe auch http://www.heise.de/tp/r4/artikel/21/21108/1.html
--Halbm0nd 14:59, 20. Okt. 2007 (CEST)Beantworten

kleinigkeiten

Hier einmal einige kommentare (und antworten) aus meiner 20+ jährigen erfahrung mit festplatten:

  • das nicht explizit geparkte platten kaputt gehen ist eindeutig eine UL
hab ich auch gedacht, die verlinkte doku der 2,5"-platte spricht aber wirklich davon, daß bei einfach abschalten ein not-park-mechanismus aktiviert wird, der etwa 10..100 mal so stressful ist wie manuell parken. also #poweroff statt #reboot
Nein ist sie nicht - es betrifft aber ausschließlich Platten vor Baujahr 1992 und da auch nicht alle. Ende der Achtziger Jahre allerdings verfügten die meisten Platten noch nicht über eine automatische Rückführung der Köpfe und es sind einige Platten dabei zu Schaden gekommen. Ab etwas 1992 haben alle Platten eine Autoparkfunktion. PF20080529
  • entweder habe ich es übersehen oder es ist nicht da: das defect management. moderne festplatten haben eine gewisse anzahl von sektoren mehr als ihre eigentliche kapazität. bereits von werk aus werden einige relocated (perfekt sind die platten auch dort nicht) und später im betrieb immer mal wieder einige ohne dass man was bemerkt. wenn also die platte defekte sektoren bekommt sind das nicht die ersten, es heisst nur das die sektoren zum relocaten ausgehen.
richtig, eine platte die defekte sektoren meldet ist ECHT KAPUTT(tm)
Nicht unbedingt, manchmal werden auch Sektoren von Festplattenprüfprogrammen als defekt erkannt, ohne dass sie physisch defekt sind, sondern nur weil irgendein Schreibvorgang fehlgeschlagen ist. Derartige Sektoren fun ktionieren wieder, wenn man die Festplatte nicht nur formatiert, sondern (was mit der Herstellersoftware geht und pft "Low-Level-Format" genannt wird, obwohls eigentlich keines ist) auch vollständig mit Nullen überschreibt. --MrBurns 10:25, 27. Sep. 2007 (CEST)Beantworten
Da Low-Level-Format ist die einzige Möglichkeit defekte Sektoren zu markieren. Ein Platte deren Vorrat an Reserversektoren erschöpft ist und deshalb Fehler liefert, muss demzufolge neu LL-Formatiert werden. PF20080529
Das OS kanna auch Fehler markieren. Zwar wird immer ein ganzer Cluster markiert und wenn man die HDD neu partitioniert oder in einem anderen Dateisystem formatiert, sind diese Markierungen eventuell weg. Zwar beziehen sich die Fehler auf ganze Clluster und müssen nicht unbedingt auf einen Fehler der Datenträgeroberfläche zurückzuführen sein, sonder können z.B. auch durch fehlerhafte Datenübertragung aussgelöst werden und beziehen sich nicht auf einzelne Sektoren, sodnern auf ganze Cluster, aber das änder nichts daran, dass man auch eine Festplatte, die defekte Sektore und keine Reservesektoren mehr hat trotzdem weiterhin nutzen kann. Auch Programme wie Scandisk unterstützen auch die wiederherstellung von Daten aus fehlerhaften Clustern, wobei diese dann natürlich beschädigt sind, awas aber bei der Wiederherstellung von Daten aus fehlerhaften Sektoren ohne die Verwendung von Spezialequipment und Reinsträumen unumgänglich ist. --MrBurns 18:29, 6. Jun. 2008 (CEST)Beantworten

- erst mehrfaches beschreiben kann daten wirklich unwiederruflich löschen. datenrettungsunternehmen können einige male überschriebene daten wiederherstellen. (gerüchten zufolge muss man 23 mal überschreiben damit die nsa nichts lesen kann ;)

bei den derzeitigen datendichten strittig.
Die hängt von der Platte selbst ab und hierbei spielt die Datendichte gar nicht einmal die große Rolle. PF20080529
  • es gab (und gibt) immer (mal) wieder festplattenserien mit konstruktionsfehlern. IBM hatte lange jahre arge probleme damit, dass wenn die festplatte während eines schreibvorgangs heruntergefahren wurde, dieser nicht mehr vollständig ausgeführt werden konnte. dies führte zu crc fehlern im block, der sektor wurde als defekt erkannt. ein low-level format (oder ggf. sogar nur das erneute beschreiben mit daten) half dort meistens. Ich selbst hatte mal ziemlichen ärger, ibm meinte es sei doch zumutbar die platte alle 3 monate zu formatieren, man würde sie nicht umtauschen.
  • spekulationen helfen zwar wirklich nicht, aber dieser fall kam so häufig vor und wurde in den medien so oft erwähnt, dass er eine eindeutige statistische anomalie darstellt.
  • es gab übrigens mal fujitsu festplatten mit relativ starren scheiben aus plastik.
  • im artikel steht dass einfache formatierung nichts löscht, nur die low level formatierung. das ist so nicht korrekt. während üblicherweise eine normale formatierung nur die dateisystem metainformationen resetted (windows /q "quickformat" z.b.) haben fast alle systeme die möglichkeit einer "vollständigen formatierung" bei der alle nicht unmittelbar benötigten blöcke (meist mit 0) überschrieben werden. das low-level format kommt dem ähnlich, geht aber weiter und löscht auch diejenigen blöcke die als defekt markiert und durch andere ersetzt wurden. in seltenen fällen werden so einige "wiederbelebt"
strittig, es gibt kein Lowlevel format mehr, das entsprechende Kommando kann man zwar absetzen, aber das macht sonstwas oder gar nix. Lowlevel format war zu MFM-zeiten oder so eine Möglichkeit, neuere Platten kann man einfach nicht als User formatieren. Was das defekt-mgmt da macht ist unklar. -145.253.2.232 17:09, 23. Sep. 2007 (CEST)Beantworten
Viele Festplattenhersteller bezeichnen das überschreiben aller Daten mit Nullen als "Low Level Format". --MrBurns 10:27, 27. Sep. 2007 (CEST)Beantworten
Oh Mann....der Unterschied zwischen LLF und HLF Format: Beim LL Format werden die Spuren, die Sektoren und deren Lage und vor allem die Marken für die Softsektorierung gesetzt. Sie so ausgezeichneten Sektoren werden geprüft und eventuell als fehlerhaft markiert. HLF "installiert" auf eine LL formatierten Platte das Filessystem und nichts anderes. PF20080529
Das ändert aber nichts daran, dass bei vielen Herstelleranwendungen das überschreiben mit Nullen (fälschlicherweise) als LLF bezeichnet wird. --MrBurns 18:31, 6. Jun. 2008 (CEST)Beantworten
  • jede festplatte hat temperaturgrenzen die nicht übertreten werden dürfen, sonst nimmt die festplatte (auf längere sicht) schaden. wichtiger ist, dass die garantie dann meist futsch ist, und smart zeichnet das hübsch in der platte auf. vielfach ist das ein grund warum unsre kunden keine notebook festplatte getauscht bekommen haben
Das kommt darauf an: Ist es die original Festplatte im Notebook ist es freilich ein Garantiefall, da der Hersteller gewährleisten muss, das die Konstruktion des NB so gewählt ist, sod das ein thermischer Überlastungszustand nicht eintreten kann. PF20080529
  • zu A/V video fähig: der unterschied ist die geschwindigkeit ab der es sinn macht die platten für sowas einzusetzen. sonst gibts hier keine
  • 5mb haben bestimmt auch mal 10000dm gekostet...
Ein 10MB Platte aus dem Jahre 1984 kostete rund 5.000 DM.
  • zur 1m platte fällt mir noch ein: im desy rechenzentrum hatten wir mal ähnliche. man konnte sie mit der hand anhalten und anfassen, hatte denen nix ausgemacht. anders heutige, der fettfilm der dabei hinterlassen wird ist bei weitem grösser als der abstand der köpfe. sogar ein kleines nikotinpartikelchen ist grösser... so eine abbildung wäre noch nett für den artikel.
Selbst die vollständige Formatierung überschreibt nicht alles mit Nullen (Maximal den teil des Dateisystems, der für das neue, leere Dateisystem nicht mehr benötigt wird). Oder wie kannst du dir sonst erklären, die Zeit die für die Formatierung benötigt wird viel weniger stark als linear mit der Partitionsgröße ansteigt? -MrBurns 01:06, 8. Jan. 2007 (CET)Beantworten
Weil dabei auf die Platte nicht in der Form zugegriffen wird wie beim Lesen oder Schreiben. Für das Formatieren und dabei mit 0 überschreiben spielt die Geschwindigkeit der Datenübertragung und der Neupositionierung der Köpfe keine wesentliche Rolle, da es sich um eine Funktion des Plattencontrollers handelt. Die Zeit für eine solche Formatierung hängt von der Anzahl der Spuren, der Drehzahl und der Kopfwechselzeit ab. PF20080529
Probier mal folgendes: nimm irgendeine große Festplatte und erzeuge eine Partition mit z.B. 1GB und eine sher große, z.B. der Rest der Festplatte und vergleiche dann die Zeit für die Formatierung. Der Unterschied ist so gering, dass man das nicht nur damit erklären kann, dass eine der Partitionen näher am Anfang und die andere näher beim Ende liegt. Und die größére Partition hat natürlich auch viel mehr Spuren. --MrBurns 18:34, 6. Jun. 2008 (CEST)Beantworten

preisbeispiel

ähm bei dem preisbeispiel, 5mb 5000€uro, da ist doch gewiss DM gemeint oder?

Nee, paßt schon (siehe oben): "5mb haben auch mal 10.ooo,- DM gekostet." Cbkrueger 21:22, 18. Feb. 2007 (CET)Beantworten
Die ersten Platten für PC's aus dem Jahre 1984 kosteten bei 10MB rund 5.000 DM. 5MB Platten für 10 Kilomark waren angekündigt, kamen jedoch meines Wissens nie auf den Markt. PF20080529

Ein kleines Rechenbeispiel

Die theoretische Geschwindigkeit mit der die Trägerplatten den Schreib-/ Lesekopf passieren läßt sich relativ leicht errechnen. Bei einer handelsüblichen Server-Festplatte beträgt der Durchmesser der Trägerplatte 3,5 Zoll oder 8,89 Zentimeter. Anhand dieser Information ergibt sich mit Hilfe der Zahl π (3,1415) eine Kreisbahn von etwa 29,3 Cm. Multipliziert mit 15.000 Umdrehungen pro Minute ergibt dies eine Geschwindigkeit von 4189,31 Metern pro Minute oder umgerechnet 251,36 Km/h.

Geht man von einer Plattengröße von 5,25 Zoll aus, ergibt sich eine Geschwindigkeit von 377,04 Km/h.

Zum Nachrechnen - Die Formel lautet:

.

-- aka 08:12, 16. Apr 2004 (CEST)

Das die Berechnung stark vereinfacht ist und die Geschwindigkeit von vielen anderen Faktoren abhängt ist mir klar. Ich wollt eigentlich nur zeigen, welche Belastungen / Geschwindigkeiten / Genauigkeiten vorliegen - sprich was für Wunderwerke der Technik Festplatten eigenltich sind. Außerdem wollt ich mal TeX testen und brauchte dazu einen Grund ;-)
--TorPedo 08:36, 16. Apr 2004 (CEST)

Die rotierenden Platten (platter) von 3.5" Festplatten (HDDs) mit 15000 rpm haben keinen 3.5" Durchmesser, sondern sind kleiner, je nach Hersteller 2.5" bis 3" --JoDerBaer 10:42, 6. Dez. 2007 (CET)Beantworten

Sektoren, Blöcke und Zylinder

Ich finde, dass man auf den Zusammenhang zwischen Sektoren, Blöcken und Zylindern genauer eingehen sollte.

Vielleicht könnte man auch einen Absatz über die PIO-Modes verlieren.

Nein, das ist in ATA und in Programmed Input/Output nachzulesen. --Kohl 17:54, 24. Mai 2005 (CEST)Beantworten

Die Benutzung von Sektor als Kreissektor im Artikel, sollte aber zumindest als historisch gekennzeichnet werden, da heutige Festplatten mit Sicherheit (reinschauen kann nur noch der Hersteller) eine nach außen zunehmende Anzahl von Sektoren pro Spur aufweisen. Ad0815 19:16, 9. Okt. 2007 (CEST)Beantworten

Gigabyte und GB

Ein leidiges Thema, wahrscheinlich auch unter RAM zu finden: Die Definition von Gigabyte als 1000³ und GByte oder GB als 1024³. Analog natürlich für KB, MB genauso. Auf die falsche (und herstellerfreundliche) Definition per mathematischer Vorsilbe "Giga" sollte verzichtet werden, weil sie immer für den Speichertechnologie-Bereich falsch ist. Umgangssprachlich ist das inzwischen leider was anderes, aber... --

Was von den beiden nun falsch ist, da gehen die Meinungen auseinander. --Matthäus Wander 18:20, 14. Mär 2005 (CET)
Nein, das ist eigentlich recht klar: Die Vorsilbe "kilo-" bezeichnet den Faktor 1000, und das war schon so lange bevor die Computerleute mit ihren komischen Zweierpotenzen kamen. Wenn man also 1024 Bytes ein Kilobyte nennt, dann ist das "Kilo" schlicht falsch, analog Mega und Giga. Und daß eine Einheit anders definiert ist abhängig davon was man damit misst, das ist einfach nur bescheuert. --Brazzy 00:54, 25. Mai 2005 (CEST)Beantworten
Du kannst es noch so oft wiederholen, es bleibt eine Ansicht, daneben gibt es dann halt noch eine andere. --Matthäus Wander 12:55, 13. Jun 2005 (CEST)
Daß unterschiedliche Definitionen für einen Einheit abhängig vom Meßgegenstand bescheuert sind, das ist sicher meine persönliche ::::Ansicht, der Rest aber nicht. Das hat nichts mit Wiederholung zu tun. Daß die Definition "kilo == 1000" deutlich älter ist, ist ::::nachprüfbarer Fakt. --Brazzy 10:50, 17. Jun 2005 (CEST)
Sehr richtig, meint stud. phys. Max Plenert 09:35 18.08.2005
Das SI-System gilt nur für physikalische Einheiten, Byte ist aber keine physikalische Einheit. Deshalb denke ich, dass man auch nicht schreiben sollen, dass Betriebsssysteme ein kB fälschlicher Weise als 1024 Byte angeben, weil es keine Einheitliche Definition für kB gibt. Unter Normung steht folgendes: "Freiwilligkeit: Die Mitarbeit an der Normung und die Anwendung geschieht freiwillig. Die Arbeitsergebnisse, die DIN-Normen, sind Empfehlungen, die keine andere Macht hinter sich haben als den in ihnen liegenden versammelten, qualifizierten Sachverstand. Erst durch Rechtsakte Dritter können sie Verbindlichkeit erlangen". Also keiner ist gezwungen, diesen Standard zu verwenden. Und die Betriebssystemhersteller verwenden halt einen anderen Standard. -MrBurns 12:32, 7. Sep 2006 (CEST)
... und zwar einen Standard, der in diesem Kontext wesentlich sinnvoller ist, und von den meisten Leuten auch so geteilt wird, die wenigern SI-Verfechter mal ausgenommen. --Bodo Thiesen 19:13, 6. Dez. 2006 (CET)Beantworten

Schnittstellen

Habe heute den Abschitt Schnittstellen überarbeitet u.A. mit dem Ziel zu verdeutlichen, dass es sich bei Firewire, USB, Fibre-Channel und iSCSI nicht um Festplattenschnittstellen im engeren Sinn handelt, weil ja nicht die Festplatte selbst damit ausgestattet ist. Sollten diese Schnittstellen evtl. ganz aus diesem Artikel raus (wohin?) oder drin lassen wg. Vollständigkeit? --Joz 16:47, 8. Mär 2005 (CET)

Drinlassen (meine Meinung). --Kohl 16:55, 15. Jun 2005 (CEST)


Wie sieht es mit historischen Schnittstellen aus? Ich denke da an ESDI und MFM. Cbkrueger 10:54, 15. Feb. 2007 (CET)Beantworten

Lese und Schreibvorgang

es wäre nicht schlecht diesen Abschnitt so zu erklären das ihn auch ein Laie versteht!!!!

mfg

Warum werden die magnetisch gespeicherten Daten nicht durch den starken Neodymmagneten des Schreib/Lesekopfantriebs zerstört?

Wahrscheinlich weil er weit weg genug ist. Da zählt jeder Millimeter, und zwar positiv. --PeterFrankfurt 17:53, 28. Okt. 2006 (CEST)Beantworten

Unverständlich

Ein anonymer Benutzer hat am 21. Mai diesen Absatz eingefügt ([1]):

In konventionellen Festplatten wurde auf die Oberfläche dieser Platter dotierte Eisenoxid-Partikel als magnetisierbares Material aufgebracht. Im Zuge immer höherer Speicherdichten ist dieses amorphe Filme und mittlerweile durch Mehrschichtsysteme ersetzt.

"Oberfläche dieser Platter" habe ich mittlerweile durch "Scheibenoberfläche" ersetzt. Der zweite Satz ist unverständlich und wurde deshalb von mir entfernt.

Wäre nett wenn der Autor oder jemand, der sich mehr mit "amorphe Filme" auskennt, es verständlicher formulieren könnte. Danke, --Kohl 17:38, 24. Mai 2005 (CEST)Beantworten

Ursprünglicher Absatz ist wieder drin. Was sind eigentlich "konventionelle" Festplatten? --Kohl 17:52, 24. Mai 2005 (CEST)Beantworten
Info: Festplatten mit silberner Oberfläche haben keine Beschichtung aus Eisenoxid (braun) mehr. Eine von mir analysierte Platte (s.u.) hatte eine unstrukturierte Nickelbeschichtung von 11µm. --Ty von Sevelingen 15:31, 13. Nov. 2007 (CET)Beantworten

Logischer Aufbau

Der Benutzer der Festplatte kann diese partitionieren. So kann eine Festplatte in mehrere Bereiche unterteilt werden, die man als Partitionen bezeichnet. Man kann sie sich als logische Festplatten vorstellen, die unter einem Betriebssystem als einzelne Laufwerke erscheinen. Der Anwender sieht also nur Laufwerke und es ist nicht offensichtlich, ob es sich tatsächlich jeweils um eine physikalisch getrennte Festplatte handelt oder lediglich um ein logisches Laufwerk auf einer gemeinsamen Festplatte.

Das mag ja für Windows zutreffen, für Unix-artige Betribssysteme ist es falsch. Hier kann man der Gerätedatei einer Partition doch wohl ganz genau ansehen, auf welcher physikalischen Festplatte sie sich befindet.

hda - primary master
hdb - primary slave
hdc - secondary master
usw.

Primäre Partitonen haben die Nummern 1-4, logische 5 und Folgende

--> Wenn ich jetz also ein "Laufwerk" hda1 vor mir habe weiß ich genau das es sich um die 1. Primäre Partition auf der Platte handelt, die als Master am primären Controller hängt.

mfg, Adam Dohnal, 26. Mai 05


Ich denke, da liegst Du falsch. Die Namen der device-Dateien sind eine reine Konvention, es ist problemlos möglich der 1. Partition der 1. Platte den Namen "C" zu geben - solange der auch entsprechen in /etc/fstab verwendet wird macht das keinen Unterschied. Entscheidend sind die Device-Nummern, deren Interpretation wiederum vom Gerätetreiber abhängt. Und ich bin mir sicher, daß das Alles ausschließlich für Linux gilt und bei anderen unixoiden Betribssystemen wieder völlig anders ist. Was an dem Absatz Windows-Spezifisch ist, ist vor Allem die Formulierung "Laufwerke" und die implizite Annahme daß der Benutzer diese als getrennt wahrnimmt - ich passe das mal etwas an. --Brazzy 11:23, 30. Mai 2005 (CEST)Beantworten


Gut, das mit den Unixen war wohl zu weit gegriffen, kommt davon wenn man nich nachschaut was man schreibt :) War allerdings nich ganz falsch, ich hab mir zum Vergleich mal das FreeBSD Handbuch angeguckt, die benutzen zwar nicht die gleichen Bezeichnungen, aber die Logik ist ähnlich (d.h. man kann auf das Gerät/die Art der Partition schließen). Damit steht Linux also nicht alleine da, allerdings wirst du wohl Recht haben das manche (mir nicht bekannte) Unixe ganz andere Bezeichnungssysteme haben.

Der geänderte Absatz gefällt mir ganz gut, vor allem weil durch "Es ist dabei im Verhalten nicht erkennbar" die nachfolgende Aussage passend begrenzt wird.

mfg Adam

Das Auslesen der Daten wurde (bis ca. 1994) durch Induktion des Magnetfelds der polarisierten Fläche in der Spule des Schreib-/Lesekopfes erreicht.

Leider habe ich hier keine Informationen finden können, wie es seitdem erreicht wird.

Diesen Abschnitt habe ich mittlerweile ergänzt. --Kohl 19:19, 12. Sep 2005 (CEST)

Lager

Wenn sich jemand mit Lagern auskennt, könnte er/sie den Hinweis auf die Lager noch ausbauen. Außerdem bin ich mir nicht sicher, ob es sich bei den "Flüssigkeitslagern" moderner Festplatten um Hydrodynamisches Gleitlager handelt. Wenn ja, kann man den Link ja noch ergänzen. --Kohl 15:01, 29. Jul 2005 (CEST)

Das mit dem Lager hab ich immer noch nicht verstanden

Speicherkapazität

in diesem Abschnitt wurde Gibibyte als Einheit für und entsprechend Gigabyte als Einheit für betrachtet (falls ich so richtig verstanden hatte). Daraus ist die Umrechnungsfaktor abgeleitet aber, denke ich, in darauf folgendem Beipiel falsch angewandt. Kann das sein? Also für 80 Gigabyte Festplattenkapazität entpricht dann 85,899 Gibibyte.

Nein, 80 GB entsprechen 74,5 GiB. Der Umrechnungsfaktor im Artikel ist korrekt. --Kohl 16:28, 2. Sep 2005 (CEST)

Nee eigentlich würde es weniger anzeigen. Ich habe eine 160 GB Festplatte und es zeigt nur 149 GB im Arbeitsplatz an

Wobei die "149 GB" eigentlich "149 GiB" sind. 160 GB und 149GiB entsprechen jeweils 160 * 10^9 Byte. Gruß --Kohl 16:28, 2. Sep 2005 (CEST) (Bitte mit --~~~~ unterschreiben, siehe Wikipedia:Signatur)

Könnte man bitte im Artikel angeben, dass Mebi- und Gibibyte mittlerweile die präferierten Größenangaben der IEEE bzw. der EN-Norm sind. Ansonsten werden diese Präfixe nie von von der Fachwelt akzeptiert. 172.178.229.161 18:53, 16. Mai 2007 (CEST)Beantworten

Auf die Artikel Byte und Binärpräfixe wird doch im Artikel verwiesen. --Pohli 09:14, 18. Mai 2007 (CEST)Beantworten
Die Fachwelt wird diese neuen Präfixe ohnehin nie akzeptieren, daran kann wikipedia auch nix ändern. Wikipedia ist zwar groß und bekannt, aber so einflußreich auch wieder nicht. Ich glaub, einige überschätzen den Einfluß von wikipedia. -MrBurns 04:45, 1. Jun. 2007 (CEST)Beantworten

3.5" != 3.5"

Es gibt scheinbar zwei verschiedene Arten von 3.5" Festplatten: Einml die, die heute verwendet werden und in einem alten 286 habe ich ene gefunden, die etwa 1,5 mal so hoch ist. weiß jemand näheres dazu?

Die „3,5"“ bezeichnen die Breite, nicht die Höhe des LW. -- Pemu 12:49, 14. Sep 2005 (CEST)
Siehe Formfaktor_(Computertechnik) (halbe Höhe/Low-Profile). -- Joz 18:02, 08. Jan 2007
Vergleiche auch 1970 6 Plattenoberflächen im wechselbaren Stapel IBM 3330 Höhe 6 Zoll --SonniWPinformatik 23:46, 12. Sep. 2007 (CEST)Beantworten

Gewichtsprobleme

Stimmt es, dass eine volle Festplatte leichter ist als eine leere? -- Danke für die Hilfe, Clarissa 19:10, 19. Nov 2005 (CET)

Eine interessante Frage. Da müssten sich wohl mal Atomphysiker und Computerexperten beraten, um dieses Problem zu lösen. Ich hab mal kurz bei Google gesucht und einen Forumsbeitrag zu diesem Thema gefunden: hier. Die Diskutierer sind sich aber auch nicht einig. ;-) --MSchnitzler2000 00:29, 6. Dez 2005 (CET)
Hallo Markus, danke für den Link! Interessante Diskussion, aber wirklich schlau werde ich daraus auch nicht (und die Qualität der einzelnen Beiträge geht auch sehr auseinander). Hat jemand eine Idee, wie ich es herausfinden kann? Mag jemand Christoph Drösser fragen? :-) -- Dankeschön, Clarissa 05:01, 30. Dez 2005 (CET)
lol. Festplatten basieren auf verschieden ausgerichtetem Magnetismus. Da letztendlich jedes Atom magnetisch is und durch ändern der Daten nur die Ausrichtung umgeordnet wird, sollte da eigentlich kein Energie unterschied entstehen. also auch kein Gewichtsunterschied. Zu dem Thread in telefon-treff, ich behaupte mal dreist, da hat keiner mit ahnung von atomphysik gepostet ;)
falls die anordnung durch irgendwelche effekte zwischen den Atomen doch einen auswirkung auf die Energie hat, wie die ziemlich sicher trotzdem nicht messbar sein (der umrechnungsfaktor von joule zu kg wird so bei etwa 10 hoch minus 17 liegen).
Man könnte jetzt noch das Erdmagnetfeld in betracht ziehen, das je nach statistischer Ausrichtung der Magnetfelder der Festplatte, unterschiedliche Anziehungskräfte ausübt. Darüber hinaus sollte man allerdings voll nicht mit voll gleichsetzen. Die Daten auf einer verschlüsselte Festplatte z.B. sehen immer wie Rauschen aus, egal, ob da letztlich nur Nullen oder "richtige" Daten gespeichert sind. Davon abgesehen, werden meist 1en durch Magentfeldwechsel, und 0en durch ausbleiben der gleichen gespeichert, so daß es also auch einen unterscheid macht, ob die "leere" Festplatte mit 0en oder mit 1en vollgeschrieben ist. Alles in allem ist die Fragestellung aber unsinn, wenn es tatsächlich einige Pikogramm unterschied machen sollte, so wird es im regulären Betrieb und im Leben eines Menschen keine merkbaren unterschiede machen. Ich werde mal die Frage an die Philosophie-Studenten weiterleiten ^^, --Bodo Thiesen 18:44, 6. Dez. 2006 (CET)Beantworten
Also ist 1 schwerer als 0? Oder umgekehrt? ;-) 130.83.72.135 14:06, 8. Jan. 2007 (CET)Beantworten
Wenn man aber das Erdmagnetfeld in Betracht zieht, dann hängt es auch von der Lage der Ferstplatte ab, ob sie angezogen oder abgestoßen wird und wie Stark de Effekt ist. D.h. man bekommt am Nordpol z.B. ein anderes Ergebnis als am Äquator und auch wenn man die Festplatte vertikal statt horizontal einbaut, was moderne Festplatten ja erlauben. -MrBurns 18:25, 8. Jan. 2007 (CET)Beantworten
Nein. Eine volle Platte ist genauso schwer wie eine leere. Ein Raum wird auch nicht deshalb schwerer weil ich darin aufräume - bei der Datenspeicherung wird die Orientierung der Pits geändert - es kommen keine hinzu. PF20080529
Wenn du einen komplett abgteschlossenen Raum (im Sinne eines abgeschlossenen Systems) aufräumst, dann ändert sich sein Gewicht nicht, weil keine Energie entweichen oder eindringen kann. Wenn du aber von außen reinkommst, den Raumk aufräumst und anchher wieder rausgehts, änderst du seine Energie und damit auch sien Gewicht (wenn es keinen anderen Energieaustausch gibt, dann wird der Raum schwerer, weil du wenn du im Raum aufräumst einen Teil der Energie, die du mitgebracht hast im Raum "liegen lässt"). Eine Festplatte ist aber kein abgeschloßenes System und eine beschriebene Festplatte kann einen anderen Enrgiegehalt haben als eine leere und wird das i.A. auch haben, weil magnetisch antiparallel ausgerichtete Atome im allgemeinen eine andere Energie haben sind als parallel ausgerichtete (beim Ferromagnetismus ist die Energie bei paralleler Ausrichtung niedriger), selnst ohne äußeres Magnetfeld (siehe z.B. Weiss-Bezirk). Natürlich ist der Unterschied in der Gesamtmassse der Festplatte so klein, dass man ihn nicht mehr messen kann. Falls Du den Zusammenhang zwischne Energie und Masse nicht kennst, dann schau dier mal E=mc² an. --MrBurns 18:48, 6. Jun. 2008 (CEST)Beantworten

Gewichtsprobleme (Zentner)

Ich finde es ja ganz nett, dass das Gewicht einer so alte Festplatte auch in einem gaaanz alten Maß angegeben ist. Trotzdem fände ich es gut, wenn z.B. dahinter in Klammern das Gewicht in einem heute gebräuchlichen Maß angegeben würde. "Die 350 wog 10 Zentner (500 kg)".

In anderen Quellen ist allerdings zu lesen, dass dieses Grrät fast eine Tonne wog. Quelle: Computerwoche 33/2006 Seite 16 im Artikel "Eine Tonne schwer und so groß wie zwei Kühlschränke" Welche Gewichtsangabe ist denn richtig? -- 77.176.23.202 20:28, 15. Mär. 2007 (CET)Beantworten

Vielleicht liegt das an der uneinheitlichen Definition von Zentner als 100 Pfund oder 100 kg. --MrBurns 18:54, 6. Jun. 2008 (CEST)Beantworten

Festplatten-Schwarzbuch

Ich hatte die Idee einer Datenbank als Wikibook von besonders "ausfälligen" Serien mit konkreten Ursachen. Dazu jeweils mitunter vorhandene Hilfestellungen und natürlich Warnhinweise vor gefährlichen Aktionen. Das Buch würde ich dann gern hier verlinken, damit es auch gefunden wird. Gibt es dazu (grundsätzliche) Anregungen / Bedenken? Vielen Dank schonmal. 82.67.11.110 um 20:16, 11. Jan 2006 (CET)

Gute Idee. Aber bitte nur den Link dorthin in den Artikel setzen, sonst wird es zuviel (meine Meinung). Gruß --Kohl 16:11, 19. Jan 2006 (CET)

Fragt sich dann nur, was eine "besonders ausfällige" Serie ist? Wer masst sich an eine, "normale" Ausfallrate zu definieren? Das würde voraussetzen, dass man die konkreten Ausfallraten im Feld kennt - und das weiss vielleicht der Hersteller, aber auch nur fuer den Zeitraum der Garantie bzw. Gewaehrleistung - und diese Daten wird er mit Sicherheit nicht rausruecken. Also bleibt nur Spekulation und Einzelmeldungen aus der Praxis, die statistisch nichts aussagen . Im uebrigen: Was hilft es, wenn man weiss, dass die Fujitsu-MPG-Serie innerhalb von 1-2 Jahren nach Produktionsaufnahme massive Ausfaelle hatte? Sind dann auch die Platten gefaehrdet, die dieses Burn-In ueberlebt haben. Fazit: Vermutungen helfen nicht weiter, nur Fakten, und die gibts nicht:-(

block und sektor

"Jede Spur ist in kleine logische Einheiten unterteilt, die man Blöcke nennt. Ein typischer Block enthält 512 Byte an Information. Jeder Block verfügt dabei über Kontrollinformationen (Prüfsummen), über die sichergestellt wird, dass die Information auch korrekt geschrieben oder gelesen wurde. Die Gesamtheit aller Blöcke, die die gleichen Winkelkoordinaten auf den Platten haben, nennt man Sektor. Leider wird der Begriff Sektor häufig fälschlicherweise auch synonym für Block verwendet."

Das ist schwachsinn. Der sektor ist 512Bytes lang, wärend der block das doppelte an daten fasst. so hab ich das jedenfalls in der schule gelernt (nicht signierter Beitrag von 84.177.175.79 (Diskussion)) 23:59, 18. Jan. 2006 (CET)Beantworten

Siehe Festplattengeometrie, Kreissektor. --Kohl 16:23, 19. Jan 2006 (CET)

Ich stimme dir zu das sollte schleunigst klargestellt werden am besten einer klärt das mal! Auch im Internet schneiden sich die Begriffe Block/Sector und sogar Block/Cluster in zusammenhang mit Betriebssystem. Das gehört ein für alle mal klar gestellt am besten in einer schematischen darstellung! (nicht signierter Beitrag von 195.127.235.87 14:28, 27. Jan 2006 (CET) (Diskussion | Beiträge))

Bilder besser verteilen?

Hallo.

Könnte man die Bilder nicht eventuell ein wenig besser aufteilen? Bei mir (1024x768) sind die alle ganz oben rechts hingequetscht. Sieht komisch aus. Unten kommen dann dafür gar keine Bilder mehr. Erik Streb 02:39, 28. Jan 2006 (CET)

Plattenstapel-Laufwerk

Ich denke die alte IBM-Festplatte ist eigentlich ein Plattenstapel-Laufwerk. Bei diesen kann nach abheben des Gehäuses der Plattenstapel gelöst, und dann ausgewechselt werden. Die einzelnen Plattenstapel werden dann im Archiv gelagert, und bei Bedarf in ein beliebiges Laufwerk eingelegt. Trotz der damals recht geringen Speicherdichte muss natürlich immer sehr vorsichtig mit den einzelnen Plattenstapeln umgegengen werden (Aufbewarung in Schutzglocke). -- Burts 17:27, 9. Mär 2006 (CET)

Parken der Köpfe

Aber auch heutzutage sollten Festplatten explizit geparkt werden, da mitunter mit dem Autoparken (Parken bei abgeschalteter Versorgung aus der Restenergie der auslaufenden Platten) eine geringere Lebensdauer einhergeht.

Diese Aussage erscheint mir sehr fragwürdig, ich habe sie jedenfalls noch nie gehört. Meiner Meinung nach ist ein manuelles Parken heutzutage gar nicht mehr möglich, da erstens die Festplatten das (soweit ich weiß) gar nicht mehr zulassen und zweitens jedes Betriebssystem beim Herunterfahren die Köpfe durch Schreib/Lesezugriffe wieder aus der Parkposition holen würde. Es könnte natürlich sein, dass das Betriebssystem diese Aufgabe ausführt, das wäre dann aber kein manuelles Parken mehr. Mit solchen Betriebssysteminterna habe ich mich nie beschäftigt, ich halte diese Möglichkeit dennoch für äußerst unwahrscheinlich.

Könnte einer der Autoren dieses Artikels diese Aussage bestätigen oder widerlegen? --Christoph 19:50, 27. Mär 2006 (CEST)

War wohl früher bei den XT/AT-Computern möglich, heutzutage aber nicht mehr. Von der geringeren Lebensdauer habe ich noch nichts gehört. Kohl 11:54, 26. Apr 2006 (CEST)
IDE-Platten (und später) ignorieren afaik Park-Kommandos, SCSI sowieso. Das mit der geingeren Lebensdauer durch Autopark scheint mir doch eine UL zu sein. -- Smial 12:43, 26. Apr 2006 (CEST)

wenn ein notebook mit win xp in den standby-modus gelangt ist, ist die festplatte dann soweit geparkt, das man das notebook unbedenklich transportieren kann (zb. im auto)?

news:de.comp.hardware.laufwerke.festplatten -- Smial 02:31, 2. Jun 2006 (CEST)
Ich entdecke gerade zufällig diese Diskussion. Es ist keine UL (zumindest vor zwei Jahren nicht). Gestern habe ich den Artikel überarbeitet und dabei eine sinngemäße Passage samt beispielhaftem Link auf das Datenblatt meiner (mittlerweile etwa zwei Jahre alten) Festplatte eingefügt. Es passt ja auch zum (verschlimmbessernden) technischen Fortschritt, da es ja praktisch kaum noch Rechner mit FP geben wird, dessen OS nicht heruntergefahren werden muss. -- Pemu 19:52, 13. Sep 2006 (CEST)
Notebook-Platten parken unmittelbar nach dem Schreibvorgang. Zudem sind die Arme so kurz, dass wesentlich stärkere Erschütterungen als bei 3,5- oder gar 5,25"-Platten nötig sind, bevor was aufschlägt. TheK 13:16, 24. Jun. 2007 (CEST)Beantworten
Aktuelle Linux-Kernel schicken die Festplatten explizit in den Sleep-Modus, unmittelbar bevor der Rechner ausgeschaltet wird. Dies führt also indirekt eine Park-Aktion durch, die insbesondere, da es ja in der Kontrolle des Festplattencontrollers liegt, wann genau der Strom für den Spindelmotor abgestellt wird, keine negative Beeinträchtigung der Lebenszeit nach sich ziehen sollte. Aber auch wenn man von einem Verlust der Spannungsversorgung ausgeht: Das Positionieren eines Festplattenkopfes dauert heutzutage keine 10 ms. Die Spindel verliert in dieser Zeit so gut wie garnicht an Geschwindigkeit. Daher existiert das Luftpolster zwischen Plattern und Köpfen noch während des gesamten Positionierungsvorgangs, bis die Kopfe also die Parkposition erreicht haben. Erst "Ewigkeiten" später würden sie drohen, auf die Plattenoberfläche aufzusetzen, aber dazu kommt es ja normalerweise dann garnicht mehr. --Bodo Thiesen 18:51, 6. Dez. 2006 (CET)Beantworten
Der Satz ist Schwachfug. Alle Platten nach 1992 verfügen über eine Autoparkfunktion. Die Technik, die sich durchgesetzt hat, ist das bei Wegfall der Stromversorgung der Aktor durch die auslaufende Platte nach außen geschoben wird und dort mechanisch verankert wird - die ist bei vielen Platten als leises Klicken wahrzunehmen. Der Anker wird bei wieder bestehende4r Stromversorgung gelöst. Öffnet einmal eine alte Platte, positioniert die Köpfe in der mitte und dreht die Spindel. Bei einer Drehrichtung werdet ihr feststellen, das sich die Köpfe von alleine nach außen bewegen. Ist die Platte im Notebookbetrieb, werden die Köpfe Grundsätzlich nach Zugriffen auf PP gefahren. Wer ungedingt auf hohe Lebensdauer der Platten wert legt, sollte vielmehr auf eine erschütterungsfreie Einbaulage, auf ausreichende Kühlung, aus möglichst wenige Start/Stop Zyklen achten. Zudem sollte eine Platte nach längeren intensiven Dateioperationen nicht sofort abgestellt werden (z.B. Defragmentierung) PF20080529

Temperatur im Notebook?

Ich hätte da mal eine Frage; ich habe ein Notebook und darin eine 2.5" 80GB HD. Die Temperatur dieser Festplatte ist meistens so bei ca. 59-62°C. Ist das zuviel? Ich habe wirklich Angst, dass meine Festplatte davon kaputtgeht. Letztens war die Temperatur sogar auf 66°C angestiegen! Hat die Festplatte da bleibenden Schaden davongetragen?

Um aber auch etwas Neues zum Thema Festplatten zu sagen: Ich habe auch noch ein Compaq Contusa Laptop. Der hat eine 2.5"HD eingebaut, 84.3MB. Und ich würde sagen, der ist von vor 1990. Könnte also in die Liste aufgenommen werden, oder? -- 20:45, 1. Mai 2006 (CEST)

Hat die Festplatte da bleibenden Schaden davongetragen? Solche Fragen werden (nahezu) täglich in news:de.comp.hardware.laufwerke.festplatten gestellt und beantwortet. groupsgoogle hilft. Weiters kann man in den Datenblättern der Hersteller nachschauen. -- Smial 10:06, 4. Mai 2006 (CEST)Beantworten

Überblick über die Speicherkapazitäten der verschiedenen Baugrößen

Der Abschnitt bzw. die Tabelle ist in der Form völlig überflüssig. Wenn überhaupt, gehört das in einen Abschnitt "Geschichte" oder "wesentliche Entwicklungsschritte" oder sowas hinein. -- Smial 10:00, 4. Mai 2006 (CEST)Beantworten

Ok- Dann schreib etwas im Abschnitt Geschichte dazu. Ich hatte die Tabelle mal angelegt als jemand angefangen hatte, das Ganze in Textform aufzuziehen. Zu dem Zeitpunkt war die Tabelle platzsparender. --Kohl 20:09, 4. Mai 2006 (CEST)
Nuja, so eine Tabelle verleitet doch sehr, sie wildwüchsig zu erweitern, das war so meine Sorge. -- Smial 23:20, 4. Mai 2006 (CEST)Beantworten


Unverständliche Einleitung

Ich bin mit dem aktuellen Status der Einleitung (Mitte Juni 2006) nicht sehr glücklich. "Remanente Scheibe", "hoch suszeptible Magnetschicht" - das soll eine allgemein verständliche Einleitung sein...?

  1. Im allgemeinen Sprachgebrauch ist zumindest die "remanente Scheibe" zudem sinnlos, weil das Wort "remanent" bleibend bzw. zurückbleibend bedeutet. Okay, es ist tatsächlich eine bleibende Scheibe, aber dennoch... Der Link auf Remanenz hilft auch nicht viel:
    • In der ersten Bedeutung ("zurückbleibende Magnetisierung") ist es zumindest unrichtig (nicht die Scheibe, sondern deren Beschichtung wird magnetisiert), wenn nicht sogar sprachlich sinnlos. Das deutsche Wort für Remanenz lautet übrigens Restmagnetismus.
    • In der zweiten Bedeutung ("Informationserhalt über einen Stromausfall hinweg") ist es aus demselben Grund unrichtig (nicht die Scheibe erhält die Information).
  2. Das "hoch suszeptibel" ist definitiv kein Begriff der Alltags- oder auch nur der Bildungssprache und wird auch im Link Suszeptibilität nicht wirklich einfach erklärt. Im Übrigen bedeutet "suszeptibel" lediglich "fähig, etwas aufzunehmen" und ist daher sachlich weit weniger genau (oder auch nur richtig), als die bombastische Formulierung vorgibt. Wenn schon, dann hat die Beschichtung hohe magnetische Suszeptibilität, aber auch das wäre für eine Einleitung unnötig bombastisch.

Für mich klingt die aktuelle Einleitung nach dem Versuch, möglichst viele Fremdwörter anbringend möglichst gelehrt zu wirken. Die Verständlichkeit, die sprachliche Korrektheit und sogar die sachliche Korrektheit haben gelitten. Sehr viel brauchbarer fand ich den Artikel noch am 5. Juni z.B. in folgender Fassung: [2].

Viele Grüße, --GottschallCh 10:29, 17. Jun 2006 (CEST)

Gute Kritik ist wichtig  ! ! !

Hallo Admin (GottschallCh), ich habe den Eindruck, dass es sich hier um eine guten Kritiker (GottschallCh) handelt, denn ich habe den Artikel nochmals überarbeitet und denke, dass man das jetzt besser verstehen kann, dazu wurden die Fremdwörter nun in Klammern verbannt (werde demnächst mal die "Suszeptibiliät" uberarbeiten).

Wie wichtig das Verstehen der Fremdwörter ist, sieht man an dem ferro-magnetisch, denn keiner hat von euch was gesagt, dass da in der Einleitung irgendjemand geschrieben hat "ferro-magnetisches" Speichermedium, was aber keine kategoriale Beschreibung ist, richtig wäre hier "para-magnetisches Speichermedium", da das Oberflächen-Material nicht unbedingt aus Eisen (ferro-) sein muss, das Präfix "ferro-" dies aber impliziert. Deshalb ist die Abstraktion wichtig, da diese keine Konflikte in den mentalen Konzepten (Semantik) erzeugt.

Mein Sinnen ist es, diesen Artikel hier (mit-)zu modifizieren, sodass daraus ein Exzellent-Artikel werden kann. Dazu habe ich das Ende des Jahres anvisiert, habe auch den Artikel (ca 75%) "BMW R27" geschrieben, der jetzt zu einem "Lesenswerten" Artikel avanciert ist.

Vielleicht kann man noch den Absatz, der unterhalb der Einleitung steht, in die "Geschichte" der Festplatten verbannen, denn ich finde nach der Einleitung sollte das Inhaltsverzeichnis folgen.

Mfg, JohTzs.

Kleinere (offtopic) Anmerkungen: GottschallCh ist kein Admin. Bitte immer mit --~~~~ unterschreiben, damit jeder weiß von wem der Beitrag ist und wann dieser geschrieben wurde. (siehe Wikipedia:Signatur) --Kohl 12:14, 19. Jun 2006 (CEST)
Ich habe mal "ferro-magnetisch" durch "magnetisch (meist ferro-magnetisch)" ersetzt, ich hoffe das passt so. --Uwe Hermann 00:49, 8. Jul 2006 (CEST)
Ich werde gleich das „meist“ wieder entfernen. Natürlich ist die Oberfläche nicht zwingend aus Eisen. JohTzs irrt, wenn er glaubt, dass die Vorsilbe "Ferro-" dies bedeutet. Es gibt auch andere Materialien, die Ferromagnetismus aufweisen. Siehe Ferromagnetismus. Die sprachliche Verbindung zu Eisen ist natürlich etymologischer Natur. Paramagnetismus weist keine Remanenz auf, daher kann ein paramagnetischer Werkstoff keine Informationen in seinem Magnetfeld speichern. -- Pemu 20:51, 12. Sep 2006 (CEST)

Lesenswert-Kandidatur: Festplatte (Archivierung Abstimmung 30. Juni bis 7. Juli 2006)

Eine Festplatte (engl. hard disk drive = HDD) ist ein ferro-magnetisches Speichermedium der Computertechnik, welches die Daten binär auf die Oberfläche einer rotierenden Scheibe schreibt. Dies geschieht mittels magnetischer Umpolung, auf dauerhaften (remanenten), magnetischen (suszebtiblen) Oberflächenschichten

  • pro - als Laie erscheint mir der Artikel sehr solide. Etwas störend ist der listenhafte Aufbau des Geschichtsabschnittes und sicher gibt es die ein- oder andere Bauweise, auf die tiefer eingegangen werden könnte - alles in allem aber imho lesenswert. -- Achim Raschka 09:28, 30. Jun 2006 (CEST)
  • Pro, dito. Hab auch soweit keine Lücken gefunden, die Fragen offen lassen. Lesenswert ist er auf jeden Fall. -- Bundesstefan @ 16:13, 30. Jun 2006 (CEST)
  • Pro interessanter gut geschriebener Artikel ohne für einen Laien offensichtliche Fehler--Stephan 06:40, 1. Jul 2006 (CEST)
  • Pro deckt nicht ganz den professionellen Bereich ab, aber das macht der Begriff "Festplatte" ja auch nicht. -- Thomas M. 15:31, 1. Jul 2006 (CEST)
  • Pro Sehr solider Artikel. Hätte gerne noch mehr wissenschaftliche Quellen über die technischen Grundlagen gehabt aber für lesenswert reicht es alle mal.--Nemissimo 16:14, 5. Jul 2006 (CEST)
  • Pro Dieser Artikel ist wirklich lesenswert. Meiner Meinung nach könnte man bei der Geschichte mehr auf die Schnittstellen eingehen. Es gibt nämlich immernoch IDE-Festplatten.--Highdelbeere 09:51, 7. Jul 2006 (CEST)
  • Pro Jo, durchaus lesenswert. --Uwe Hermann 23:09, 7. Jul 2006 (CEST)

Aussenmaße passen nicht zu Zoll angaben

Leider konnte ich bisher nichts brauchbares dazu finden, aber die Zoll-Angaben (5 1/4", 3,5", etc.) sind definitiv nicht die Aussenmaße der HDDs.

1 Zoll == 1 inch == 2,54 cm ( google nach "1 inch in cm" oder Wikipedia "Zoll" :-))

d.H.: 3.5 Zoll sind 8,89 cm, die 3,5" Festplatten haben aber ein Aussenmaß von etwa 4 Zoll == 10,16 cm (empirischer Test mit zwei Festplatten und einer Schublehre). 2,5 Zoll Festplatten haben ein Aussenmaß von etwa 2,75 Zoll.

Meine Vermutung ist nun, dass sich die Zoll Angabe bei Festplaten auf den Durchmesser der Rotierenden Scheiben bezieht. Kann das irgendjemand stützen?

Vielleicht sollte der Unterschied in Bezeichnung vs. tatsächlichen Maßen im Abschnitt über die Dimensionen mit aufgenommen werden? 85.181.6.135 14:55, 20. Aug 2006 (sig nachgetragen -- Smial 19:37, 20. Aug 2006 (CEST))

Die Angabenbeziehen sich auf die Größe von 3,5" und 5,25" Diskettenlaufwerke, bei welchen sich die Größenangaben wiederum auf die Disketten beziehen. -MrBurns 13:13, 7. Sep 2006 (CEST)
Also es gibt ja auch einen Artikel Diskette, dort wäre sowas ja einsehbar. Hier sind wir aber definitiv beim Artikel Festplatte. --PeterFrankfurt 23:22, 7. Sep 2006 (CEST)
Gemeint war wohl, dass die Diskettengrößen die Laufwerksgehäusegrößen bestimmen. Dass die Disketten-Laufwerksgehäusegrößen wiederum die Abmessungen der Festplattengehäuse bestimmt haben, damit beide in die gleichen Schächte passen. -- Pemu 23:52, 12. Sep 2006 (CEST)

Cluster

Im Artikel steht derzeit, dass die Cluster eingeführt wurden, weil Betriebssysteme nicht mehr als 32 Bit für die Addressierung der Sektoren verwenden können. Ich glaub eher richtig wäre 16 Bit: Bei 32 Bit können 2^32 = 4294967296 Sektoren addressiert werden, was bei 512 Byte pro Sektor 2 TiB entspricht, selbst wenn man signed Integers verwendet und deshalb nur 31 Bit zur Verfügung hat sinds noch immer 1 TiB. Zu dem Zeitpunkt, wo Cluster eingeführt wurden hatten die Festplatten noch kapazitäten im MB-Bereich. Bei 16 Bit können max. 65536 Sektoren, also 32 MiB adressiert werden. -MrBurns 13:11, 7. Sep 2006 (CEST)

Genauer gesagt wurden sie eingeführt, weil 12 Bit nicht reichten. Aber das betraf, glaube ich, nur ED-Disketten (2,88 KiKB). Oder gibt/gab es FAT-12 bei HDs? Dann nichts wie rein in den Artikel. -- Pemu 23:57, 12. Sep 2006 (CEST)
Cluster sind eine Eigenart von FAT (und später auch NTFS) und haben nichts mit Festplatten an sich zu tun, sondern nur mit der Organisation des Dateisystems. Cluster gab es schon bei Disketten (siehe support.microsoft.com/kb/Q67321 (http bitte selbst davor setzen, ich kann leider das unsichtbare Captcha nicht lösen)) und dienen zur effizienteren Verwaltung des Dateisystems. Nebenbei wird die Bezeichnung "Sektor" für "Block" sogar von Festplattenherstellern verwendet, also kann sie nicht so falsch sein. Ein "Block" wiederum ist im ext3-Filesystem von Linux das, was bei Microsoft "Cluster" heißt... Cluster werden auch nicht auf Hardwaretreiber-Ebene aufgelöst (die arbeiten auf Blockbasis = Sektor = derzeit 512 Byte), sondern rein im Dateisystem. Zum Hardwaretreiber sollte man auch auf gleich auf die Adressierung mittels CHS und LBA und LBA48 eingehen.
Zuerst wurde FAT16 eingeführt, für Festplatten. Als diese die 32MB Marke erreichten, wurden die Cluster erfunden, die dann bei FAT16 offiziell maximal 2 GB erlaubten (tatsächlich möglich sind aber 4GB). FAT32 (ist eigentlich nur FAT28, 4 Bits werden offiziell nicht benutzt) war dann dazu gedacht, die 2GB Grenze ebenfalls zu durchbrechen. Cluster existieren in fast allen Dateisystemen, neben FAT und ext2 kennt z.B. auch NTFS das Konzept von Clustern, bei anderen Dateisystemen bin ich mir nicht sicher, aber ich nehme an, daß quasi alle Dateisysteme, die große[TM] Blockgeräte verwalten können, auch das Konzept von Clustern kennen. Darüber hinaus ist es völlig irrelevant, wieviele Menschen Sektor und Block nicht unterscheiden können, und ob da Festplattenhersteller darunter sind, ist auch irrelevant. Relevant ist, daß ein Sektor was anderes ist, als ein Block, und daß es noch Leute gibt, die das wissen. --Bodo Thiesen 18:59, 6. Dez. 2006 (CET)Beantworten
Tatsächlich wurden Cluster (hießen damals Records) bereits unter CP/M beim Wechsel von 8" auf 5 1/4" Floppys eingeführt, und man glaubt es kaum, aber damals waren die logischen Einheiten (Record/Cluster) mit 128 Byte kleiner(!!!!!) als die kleinste am Stück adressierbare Einheit (512 Byte, die dann als Sektor bezeichnet wurde). Der Grund dafür war eine tief ins System eingebaute Festlegung auf 128 Byte für die logische Blockgröße, welche bei 8" Floppys noch der Sektorgröße entsprach.
Das hat zwar nichts mit Festplatten zu tun, sollte aber die Irrelevanz dieser Diskussion aufdecken. Ich würde daher vorschlagen Cluster, Sektor etc. nur noch in Klammern zu verwenden und sich stattdessen der deutschen Sprache zu bedienen. Bei Cluster="logischer Block" ist das noch einfach. Bei Sektor="physikalischer Block" sollte bitte ein Germanist helfen ("physischer Block" scheint mir insbesondere bei soft-sektorierten Medien nicht angebracht). Dann sollte auch besser klar werden, dass es ziemlich egal ist ob für ein bestimmtes Dateisystem die eine Blockgröße größer, kleiner oder gar gleich der anderen ist (selbst variable Blockgrößen sind denkbar). Relevant ist zunächst ausschließlich die Unterscheidung zwischen physikalischer und logischer Blockgröße, da diese unterschiedlich sein können, aber nicht müssen. Erst dann sollte man darauf hinweisen, dass bei Festplatten-Dateisystemen die logische Blockgröße meist größer als die physikalische Blockgröße gewählt wird, um den Verwaltungsaufwand zu reduzieren. Auch ein Hinweis darauf, dass im Mittel eine halbe logische Blockgröße pro Datei ungenutzt bleibt, da jedoch häufig viele Dateien deutlich unterhalb der Größe eines logischen Blocks bleiben, der tatsächlich Verschnitt oft sehr viel größer ist, scheint mit erwähnenswert.
Ad0815 20:38, 9. Okt. 2007 (CEST)Beantworten

Generalüberholung

Ich habe mich mal an eine solche herangemacht. Insbesondere habe ich einige Stellen überarbeitet, die klangen, als seien sie von einem Nichtmuttersprachler verfasst. Bitte nicht auf-den-Schlips-getreten fühlen. -- Pemu 23:52, 12. Sep 2006 (CEST)

Google-Suchergebnis als Quellenangabe

Da ich keine Lust habe, mir die passende Quelle unter den Suchergebnissen rauszusuchen, habe ich den Link auskommentiert. Sollte man nicht besser die Site, um die es geht, direkt als Link eintragen? -- Pemu 01:45, 23. Sep 2006 (CEST)

Begriffsdefinitionen

Wie der Abschnitt Geschichte richtig zeigt, gibt es bei der Entwicklung der Festplatten zwischen 1956 und 1973 eine recht große Lücke. Das war die Zeit der Datenverarbeitungsanlagen auf der Basis von Klein- und Großrechnern (z.B. IBM 360), die mit Wechselplattenspeichern (removable disk - also Magnetplattenspeichern mit wechselbarem Plattenstapel, oft als WPS bezeichnet) als wesentliches externes Speichermedium ausgerüstet waren. Auch die Betriebssysteme (z.B DOS und OS von IBM - nicht zu verwechseln mit den gleichnamigen Betriebssystemen für PCs) waren darauf ausgerichtet. Einer der Hauptaufgaben des Operators der Datenverarbeitungsanlage war damals das Bereitstellen und Wechseln von Plattenstapeln. Deren Technologie stieß aber bald an die Grenze des Machbaren und erst die Winchester-Technologie von IBM mit "dichtem" Gehäuse und nicht wechselbarem Plattenstapel ermöglichte die Weiterentwicklung zu heutigen Speicherkapazitäten. Diese damals für Groß- und Minirechner (von PCs war noch nicht die Rede) bereitgestellten Geräte mit festem Plattenstapel wurden fixed disk storage oder im deutschen Sprachraum Festplattenspeicher genannt. Gerade Minirechner wurden oft mit einer Kombination aus einem Festplattenspeicher (für das Betriebssystem) und einem Wechselplattenspeicher (für die Daten) angeboten. Der Begriff Festplatte ist also die Alternative zur Wechselplatte und hat seinen Ursprung nicht in der Härte des Mediums. Letztere wird richtig mit den englischen Begriffen hard disk bzw. flexible disk dargestellt. Auch die Wechselplatte (removable disk) ist eine hard disk, aber eben keine Festplatte (fixed disk). Da seit der Ära der PCs praktisch nur noch Festplatten eine Rolle spielen, spricht man in der Praxis im gleichem Atemzug berechtigterweise von Festplatte und hard disk und setzt (leider) beide Begriffe (auch in vielen Veröffentlichungen) gleich. Bei einer exakten Begriffsbestimmung (wie eben in einer Enzyklopädie) sollten aber oben genannte Gesichtspunkte berücksichtigt oder zumindest erwähnt werden. Zusammengefasst:

  • hard disk ist das Gegenstück von flexible disk
  • fixed disk (Festplatte) ist das Gegenstück von removable disk (Wechselplatte)

Eine hard disk muss also keine Festplatte sein, obwohl sie das heute im Allgemeinen ist! --Reseka 09:40, 4. Okt 2006 (CEST)


Hey Leute ich hatte vorkurzen eine Diskussion um HD und HDD´s. Wo bei gesagt wurde (nicht von mir) es gibt keine HD. Das heißt in jedenfall HDD. Nun das find ich komisch (ohne dabei meinen Vorredner hier auf die Füße zu treten) weil wenn ich mit die beiden Begriffe HardDisk Drive und HardDisk so mal logisch übersetze heißt HDD = Festplattenluafwerk und HD = Fesplatte. Und ich denke das auf definitiv beides gelten sollte weil in den richtigen Zusammenhang es einfach passt. Was sagt ihr das zu?

MfG [R3D]

Beide Begriffe haben ihre Bedeutung, denn man muss immer Medium und Laufwerk unterscheiden. Eine HD ist sicher im HDD enthalten. Aber bei einer Festplatte kann man aus Prinzip praktisch nur das HDD "körperlich" handhaben. Da man beide aber nicht trennen kann, hat sich umgangssprachlich auch der Begriff HD für HDD "eingeschlichen". Sehr wohl kann man aber eine Wechselplatte (die auch eine HD ist) vom Wechselplattenlaufwerk (was eben ein HDD ist) und eine FD vom FDD unterscheiden und trennen. Und wie ich oben deutlich machen wollte, ist eben "hard disk" nicht gleich "Festplatte" (die ist nämlich "fixed disk"). --Reseka 09:22, 6. Dez. 2006 (CET)Beantworten

Hey danke. Mir ging es halt darum das man beides sagen kann und nicht so wie der andere es meinte , dass es keine HD gibt. Ich verstehe das mit HD (HDD) und FD (FDD) es halt sich halt HDD oder HD "eingebürgert". MfG [R3D]

Festplattenloch

Die meisten meiner Festplatten haben kein Festplattenloch. Wie regeln diese ihren Druck, bzw. wo sind diese undicht? Müsste ich für ein Ölrechnerprojekt wissen.Choey

Das Loch wird gerne versteckt, ich rate mal, um Neugierige auf keine dumme Gedanken zu bringen. Dazu wird es meist unter einem der sowieso vorhandenen Etiketten angeordnet. Für den betreffenden Notfall sind die Etiketten immer noch durchlässig genug. --PeterFrankfurt 20:33, 29. Okt. 2006 (CET)Beantworten
Nope. Schon alle Labels etc. abgezogen.Choey
Die folgenden Angaben beziehen sich auf vor gut einem Jahr gekaufte S-ATA 250 GB Platten:
  • Hitatchi: Auf dem Lable steht "DO NOT COVER THIS HOLE" mit Pfeil auf ein Loch.
  • Samsung: Hier kann ich kein Loch finden.
  • Maxtor: Ebenfalls kein Loch erkennbar.
  • Seagate: Hat auf der unterseite ein Loch, es existiert aber kein Warnhinweis.
  • Western Digital: "DO NOT COVER ANY DRIVE HOLES". Es exitiert zwar ein Loch, ich kann aber nicht sagen, ob es eine Druckausgleichsöffnung ist, oder nicht.
Zu Samsung und Maxtor: Hier sind zwar keine Löcher erkennbar, aber diese können immernoch unter der Platine versteckt sein. Kurz: Wenn du die Festplatten mit Öl kühlen möchtest, dann solltest Du da ein ähnliches Konzept entwicken, wie auch bei Wasserkühlung verwendung findet, also ein geschlossener Ölkreislauf. --Bodo Thiesen 19:08, 6. Dez. 2006 (CET)Beantworten
Bei meiner WD200 sitzt die Druckausgleichsöffnung mit einem silbernen Aufkleber "D1" überklebt an der Seitde des Laufwerkes. PF20080529

Größte Festplatte

Die größte erhältiche Festplatte wurde von der Seagate 7200.10 750 GB in folgende: http://www.lacie.com/de/products/product.htm?pid=10351 geändert. Bei der Variante Lacie sind doch in dem Gehäuse bestimmt mehrere Festplatten womit die Platte mit der größten Speicherkapazität immer noch von Seagate kommen würde oder? –Batrox 19:39, 6. Nov. 2006 (CET)Beantworten

Aktualisierung der größten Festplatte

Ich habe mich ein bisschen erkundigt und bin auf eine Festplatte gestoßen, die eine Speicherkapzität von 1000 GB aufweist: http://www.grs-trading.de/product_info.php?info=p6074_SCHN%C3%84PPCHEN%20Formac%20XTR%20raven%20black%203,5%201000%20GB%207200%20RPM%20FW8.html 88.65.221.138 18:43, 20. Nov. 2006 (CET)Beantworten

Das ist aber auch ein Gehäuse in das 2 500-GB-Festplatten eingebaut sind. – Batrox 19:22, 20. Nov. 2006 (CET)Beantworten

Bild von 1m großer alter Festplatte

1m große Festplatte aus uraltem Großrechner, zum Vergleich eine normale 3,5".

Ich hätte ein Bild von einer von mir kürzlich erworben 1m großen Festplatte für den Artikel unter "Geschichte"
(Der vorstehende Beitrag stammt von Tapf! (Beiträge) – 20:53, 10. Dez. 2006 (MEZ) – und wurde nachträglich unterschrieben.)

Nachdeem das Bild sehr anschaulich ist, füge ich es mal im Artikel ein. --MrBurns 09:58, 14. Mär. 2008 (CET)Beantworten

Bild Tauschen?

Hi, bin im Englischen Artikel über folgendes Bild gestolpert: Image:HDDspin.JPG und finde es besser als Bild:Harddisk-head.jpg - evtl. sollte es aber nicht einfach getauscht werden. Falls mal jemand den Artikel überarbeitet, könnte er nach einer passenden Stelle suchen; ich will den Artikel auch nicht mit Bildern überladen. --Ucc 00:16, 31. Dez. 2006 (CET)Beantworten

Umrechnung???

Toller Artikel, bin nur über eine Sache gestolpert. Im Bereich "Chronologische Übersicht" steht etwas geschrieben von 6 millionen Zeichen entspricht etwa 5 Megabyte. Das kann ich nicht ganz nachvollziehen, vielleicht hab ich ja ´nen Denkfehler wenn ich davon ausgehe, dass ein Byte quasi ein Zeichen wäre.

Wenn man davon ausgeht, das ein Zeichen 7bit braucht (ASCII-Code) und es 6 Millionen davon gibt (7*6 = 42) und man das dann in Byte haben möchte, also durch 8 teilt (42/8 = 5,25) dann könnte es stimmen. --Ucc 16:28, 6. Jan. 2007 (CET)Beantworten
Damit hast du wohl recht. Allerdings belegt heutzutage jedes 7bit-ASCII-Zeichen 8 Bit bzw. 1 Byte, weil weniger kann einfach nicht addressiert werden. -MrBurns 00:59, 8. Jan. 2007 (CET)Beantworten
Siehe Artikel Byte. Hier ist die Zuordnung genau erläutert. -- 77.176.23.202 20:20, 15. Mär. 2007 (CET)Beantworten

80 polige Kabeln und Master/Slave

Jemand hat folgenden Satz im Artikel eingefügt:

Ausnahme: Bei 80poligen Kabeln sollte der Slave in der Mitte angeschlossen werden; die Stecker sind dementsprechend beschriftet.

Gibts für diesen Satz überhaupt Quellen?

Weil ich bezweifle das: die Kabel sind zwar so beschriftet, aber ich glaueb das bezieht sich nur auf Cable Select (was bei 40-poligen Kabeln genauso möglich ist und im Selben Abstaz auch extra erwähnt wird). Ich hab bis jetzt immer die Slave-Laufwerke auch bei 80-poligen Kabeln am Ende gehabt und damit nie Probleme gehabt, obwohl ich die Festplatten mit ATA 66/100/133 bertieben habe. Ich hab immer folgende Konfiguration verwendet: Festplatte als Master in der Mitte und opitsches Laufwerk als Slave am Ende oder nur optisches Laufwerk als Slave am Ende (wenn man nur 1 Laufwerk verwendet ists normalerweise wurscht, obs als Master oder Slave gejumpert ist). -MrBurns 04:27, 9. Jan. 2007 (CET)Beantworten


Bei neueren BIOS-Versionen ist es imho egal. Aber bei alten zickigen IDE-Kontrollern ist das sehr wohl entscheident. Ich weiß nicht, ob du dich noch an die Zeit erinnern kannst, als IDE-Festplatten maximal 504 MB hatten, weil das BIOS nicht mehr unterstützt hat. aus der Zeit stammt auch der Satz mit dem "Master ans Ende, Slave in die Mitte und nie Slave ohne Master an einem Strang betreiben." Damals waren die IDE-Spezifikationen wohl noch nicht so festgezogen, so daß es da schon Probleme machte zwei unterschiedliche Festplatten an einem Kabel zu betreiben. Cbkrueger 14:28, 15. Feb. 2007 (CET)Beantworten

Falsch:

Blauer Stecker aufs Mainboard, slave in die Mitte und Master ans andere Ende. Pflicht. Sonst werden die Geraete maximal mit UDMA 33 laufen. Probierts aus. Mag auch ausnahmen geben, aber nach dem Standard zu beurteilen muss es so ablaufen.

Bei den alten IDE Kabeln mit 40Pin ist es absolut egal.

512 GB Grenze bei SATA 2 Festplatten

Die Diskussion dazu befindet sich hier. --Micha99 23:21, 12. Jan. 2007 (CET)Beantworten

Magnettrommel Vorläufer der Festplatte

Im Artikel steht unten:

Vorläufer der Festplatte war die Magnettrommel ab 1958 (Zuse Z22).

Ein paar Zeilen weiter unten wird jedoch angegeben, dass die IBM 350 schon 1956 kam. Da kann also etwas nicht stimmen. Da letzteres Datum mit einer Quelle belegt ist, denke ich, dass das erste (1958 Magnettrommel) falsch ist. Weiß einer wie das richtig ist? --tobiwae 18:31, 19. Feb. 2007 (CET)Beantworten

Also die Zuse z22 kam 1957 auf den Markt, von daher kann es für diesen Computer vor 1957 auch keine Magnettrommel gegeben haben. Aber wenn wir mal die z22 beiseite lassen und uns rein auf Magnettrommeln konzentrieren: Die gibt es schon seit 1932. (vgl. Trommelspeicher) Cbkrueger 09:36, 20. Feb. 2007 (CET)Beantworten
Ok, auf die Idee mal unter Trommelspeicher zu gucken hätte ich auch kommen können. ^^ Naja, jetzt ist es jedenfalls richtig. --tobiwae 13:43, 20. Feb. 2007 (CET)Beantworten

Bitte den Wikilink auf "Festplatten-Scheduler" korrigieren von "Scheduler#Festplatten-Scheduler" (Begriffsklärungsseite) zu "Festplatten-Scheduler". Thx --Chiananda 15:46, 7. Mär. 2007 (CET)Beantworten

Cache-Größe

Wie groß genau ist der Cache bei Festplatten? MB oder MiB? --Pohli 11:28, 14. Mär. 2007 (CET)Beantworten

Bei modernen Festplatten sind folgende Cache-Größen üblich: 2MB, 8MB und 16MB. ich denke, damit sind MiB gemeint, aber das weiß ich nicht, da musst du wahrscheinich einen Festplattenhersteller fragen. -MrBurns 07:56, 21. Mär. 2007 (CET)Beantworten
Es sind definitiv MiB. "BuffSize=8192kB" meldet da zum Beispiel meine Samsung SP2504C. Auch die Technik spricht klar dafür - SI-MB gibt es ja nur bei linearen Speichern (magnetisch oder optisch). TheK 16:20, 18. Jun. 2007 (CEST)Beantworten
Hab's jetzt noch in der Übersichtstabelle geändert. --Pohli 17:37, 22. Jun. 2007 (CEST)Beantworten

Angaben über üblichen Datendurchsatz fehlen

Sowohl bei der Auflistung über historische Festplatten(größen), als auch bei den aktuellen fehlen die Angaben über den durchschnittlichen Datendurchsatz einer Festplatte: wie schnell werden Daten an der jeweiligen Schnittstelle übergeben?--85.178.28.122 10:07, 9. Mai 2007 (CEST)Beantworten

2,5"-Festplatten

Ich habe unter anderem [3] eine Festplatte mit 300 GB finden. Meine Frage ist, ob wir dass eintragen, weil ich die Festplatte auf der Internet-Seite des Herstellers nicht finden konnte. --Horsefreund 10:38, 16. Jun. 2007 (CEST)Beantworten

Bei 2,5"-Platten gibt es immer mal wieder irgendwelche - ehm - Geister. Angekündigt wird vieles, teilweise aber erst Jahre später ausgeliefert. Als _lieferbar_ gilt nur die 250GB von Samsung (die ich dann auch mal in die Tabelle gesetzt habe). Die 300er Fujitsu scheint bisher nur angekündigt. TheK 14:22, 16. Jun. 2007 (CEST)Beantworten
Manche Herstellerhomepages sind nicht ganz aktuell. Mir ist es schon öfters passiert, dass es bis zu 2 Moante gedauert hat, nachdem ein produkt schon in .at im handel erhältlich war, bis es auch auf der Herstellerseite war. Ein paar Wochen kommen öfters vor. Ein gutes Beispiel ist der Motherboardhersteller Asus, da dauerts normalerweise immer ein bissi. Also kann sowas auch bei rennomierten Herstellern passieren. Einen Artikel, der erst in >1 Monat auf den Markt kommt findent man auf Herstellerseiten meistens nur als Presseankündigung, jedoch nicht unter den produkten. Btw, dein link geht nur, wenn man den letzten teil agid=451|hier weglässt. Also http://www2.atelco.de/7AwjLgDHKMtgZe/1/articledetail.jsp?aid=10091&. -MrBurns 22:09, 21. Jun. 2007 (CEST)Beantworten

Microdrives?

Werden die Dinger überhaupt noch hergestellt, oder kann man die mit "#" als "hat ausgedient" ablegen? Afaik sind solche Platten inzwischen durch Flashspeicher ersetzt? TheK 14:22, 16. Jun. 2007 (CEST)Beantworten

Ob sie noch hergestellt werden weiß ich nicht, abver verkauft werden sie jedenfall noch, wenn auch nicht mehr in dem Umfang von früher. Siehe z.B. [4], wobei sich bei geizhals unter den CF-Karten auch noch andere Microdrives finden lassen. -MrBurns 22:15, 21. Jun. 2007 (CEST)Beantworten

2000GB

Ich hab beim Surfen perzufal eine 2000GB Festplatte gefunden. Kann man die auch einfügen [5] und dann Computer Home Office, Festplatten, Externe 3,5" Festplatten, 2. Seite, 4. Bild kostet 1699.95Franken --Vanneo 12:34, 23. Jun. 2007 (CEST)Beantworten

das sind wohl 2 1TB oder sogar 3 750GB-Platten, definitiv aber nicht eine. TheK 15:43, 23. Jun. 2007 (CEST)Beantworten
Wenn, dann sinds 3 666GB Festplatten, weil 3x750 = 2250. Bei externen Festplatten ist es schon länger üblich, meherere Festplatten in das selebe Gehäuse zu stecken und dann als eine übergroße Festplatte zu verkaufen- -MrBurns 11:57, 24. Jun. 2007 (CEST)Beantworten
Das sind ganz bestimmt nicht mehrere Platten drin!!! Hab sie per zufall aus einander genommen:--Vanneo 22:16, 24. Jun. 2007 (CEST)Beantworten
LOL! Per Zufall gestern beim Surfen entdeckt und heute per Zufall aus ein an der ge nom men – nee, is klar! :-) --Pohli 22:24, 24. Jun. 2007 (CEST)Beantworten
Vielleicht habens die mehreren platten einfach in ein gehäuse gesteckt, dass sich nimmer (leicht) auseinander nehmen lässt. Mehr als 1000GB passen in eine normale halbwhohe 3,5" Festplatte nach dem derzeitigen Stand der Technik einfach nicht rein und für externe Fetplatten wurde noch nie ein neues Format entwickelt. das wwäre einfach zu teuer. Es bringt dem Hersteller ja auch keien Verbesserung, extra eine doppelt so hohe Festplatte zu entwickeln, wenn er auch einfach 2 normalhohe zusammenstecken kann. --MrBurns 10:24, 27. Jun. 2007 (CEST)Beantworten

Urban Legends...

Zu Festplatten grassiert ja ein ganzer Haufen von Urban Legends, von denen wir in dem Artikel zwar einige, aber imho nicht alle los sind:

  • "die Hersteller betrügen beim Platz" - wie angegeben: sie nutzen nur begeistert die SI-Prefixe, da sie denen einen Vorteil bieten.
  • "wenn man eine Festplatte nicht ausdrücklich parkt, geht sie kaputt" - heutige Platten parken automatisch, zum Teil schon im Betrieb (sobald nix zu schreiben ist), zum Teil erst rein mechanisch, wenn der Saft weg ist.
  • "man muss die Daten mehrfach überschreiben, damit sie weg sind" - Wenn man SEHR viel Glück hat, lässt sich die Restmagnetisierung des vorherigen Dateninhaltes noch erahnen (nach dem Prinzip: "ist das Feld ungewohnt schwach, war's wohl vor kurzem noch andersrum"), spätestens beim zweiten Mal drüber ist aber essig. Realistisch ist nur (wie angegeben) das Ausnutzen der "Löschmarkierung", wo die Daten also _eigentlich_ noch da sind.
  • "Festplatten müssen kalt sein, damit sie lange leben" - diverse Hersteller (insbesondere die ohne Sensoren ;) geben 40-50°C als zulässige Temperatur an, siehe auch verlinktes Datenblatt. Laut einer Studie von Google von es auch keine zusätzlichen Ausfälle, wenn man sie im oberen Bereich der zulässigen betreibt.

...hat noch wer solche ULs für Festplatten, auf die man immer mal wieder achten sollte? TheK 13:27, 24. Jun. 2007 (CEST)Beantworten

Was den punkt mit dem Speicherplatz angeht: die Norm, kilo auch in Kilobytes im SI-Sinn zu verwenden stammt ursprünglich von den Festplattenherstellern, erst viel später wurde ein entsprechender Standard (wahrscheinlich auf Druck der Festplattenhersteller) entwickelt, der die traditionellen Binärpräfixe in Kibi, Mebi,... bzw. Ki, Mi,... umbenannt hat. Das Argument, dass im SI die Präfixe Kilo, Mega,... schon immerim Sinne 10^3 verwendet wurden ist nicht stichhaltig, da Byte keine physikalsiche Einheit ist und daher nicht dem SI unterliegt. Generell sollte man idiesbezüglich keine Aussagen im Artikel einbauen, ob jetzt die Festplattenhersteller betrügen oder nicht, weil da gehen die Meinungen zu weit auseinander.
Was das kalt sein angeht: das mit den 40-45° stimmt schon, aber unter ungünstigen Bedingungen (hohe Außentemperatur im Bereich von 30°C, schlecht gekühltes Gehäuse, Festplatte, die viel wärme erzeugt) kann man aber leicht 50°C erreichen. Es gibt einige OEM-Computer, wo das Gehäuse so schlecht gekühlt ist, dass die Gehäusetemperatur bis zu 15°C über der Raumtemperatur liegt.
Und zum mehrfachen überschreiben: ich hab schon öfters gehört, dass das FBI Möglichkeiten hat, die ursprünglichen Daten noch auszulesen, wenn die Festplatte mehrfach überschrieben wurde. daqs liegt wahrscheinlichd aran, dass man meistens abwechselnd mit zufälligen Daten und Nulldaten überschreibt, die ursprünglichen Daten aber nicht zufällig war. Man findet also kleine Schwankungen in der Zufallsverteilung des Feldes. -MrBurns 13:52, 24. Jun. 2007 (CEST)Beantworten
die Kombination 30° drinnen UND im PC 15° mehr ist schon arg selten - sicher, theoretisch geht alles, aber es gibt schon einen gewissen "Festplatten-Kühl-Wahn", die Dinger am besten auf 20° zu drücken ;). Das mit den FBI-Möglichkeiten ist genau die besagte UL: so etwas geht schlicht und einfach nicht. TheK 14:05, 24. Jun. 2007 (CEST)Beantworten
Selbst wenn man nur 25° Raumtemp. hat, was ja urchaus noch im normalen bereich ist und dann im Gehäuse 15°C mehr, hat man dann noch immer 40°C im Gehäuse. Einige Maxtor-Festplatten schaffen dann auch noch locker 10°C mehr, also ist man auch schon bei 50°C. -MrBurns
Nochwas zum herfach überschreiben: ich hab gerade die Gutmann-Methode entdeckt. Dürfte also doch keine UL sein. --MrBurns 06:07, 5. Jul. 2007 (CEST)Beantworten
Köstlich... Also wenn das Signal unter dem soll-wert ist, war das davor wohl die kleinere Spannung, über dem Sollwert die größere? AHA! Ist ja auch nicht so, dass PMR erfunden wurde, weil sich die Signale zu sehr gegenseitig beeinflusst haben.. TheK 20:52, 5. Jul. 2007 (CEST)Beantworten
Jungs, bitte. Beim Überschreiben der Daten geht es meinen Informationen nach um ein ganz anderes Problem, nämlich um die Spurführung. Die hat nun mal auch ihre Toleranz, und die ist größer null. Wenn man also neuen Inhalt über eine Spur schreibt, landet der in der Regel ein bisschen versetzt neben dem alten Inhalt. Angeblich gibt es nun Firmen, die entweder noch schmalere (Lese)Köpfe auf so eine Oberfläche ansetzen oder die Kopfsteuerung selbst übernehmen, um gezielt an diese Restmagnetisierung im Seitenrasen zu heranzukommen. Um sowas auszutricksen, muss man also mehrfach überschreiben, weil dabei die Wahrscheinlichkeit steigt, dass man mit der Zeit die ganze Breite der alten Spur abdeckt. Es wird dabei angeblich auch versucht, den Kopf abwechselnd von innen nach außen und umgekehrt die Spuren abfahren zu lassen, dass er also tendenziell mal mehr links und mal mehr rechts auf seiner Spur fährt. Aber alles natürlich nur Hörensagen. --PeterFrankfurt 22:06, 5. Jul. 2007 (CEST)Beantworten
Woher die Geschichten kommen ist eigentlich klar, da beim normalen Löschen nur in der Dateizuordnungstabelle geschrieben wird (der erste Buchstabe des betreffenden Dateinamens wird gelöscht) die daten selbst liegen aber noch vor, daher funktioniert bis zu diesem Punkt auch eine Dateiwiederherstellung, die sich aber je nach Fragmentierungsgrad schwierig gestalten kann (nach der Formatierung, also Löschen der Dateizuordnungstabelle). Daß nach einem Überschreiben noch Restmagnespuren übrigbleiben halte ich für eine Erfindung der Securitysoftwarehersteller um deren Software zu verkaufen. Ein magnetisches Fels läßt sich nur bis zu einem Bestimmten Grad begrenzen, der entstehende Bereich plus einen kleinen Abstand zur Sicherheit (Kopfungenauigkeiten) bestimmt die Spurbreite, wenn "zwischen" den Spuren magnetisierte Bereiche liegen, dann werden die von beiden benachbarten Spuren mitbeschrieben was zu einem ziemlichen Chaos führt, schon wenn nur einmal überschrieben wird (nicht zu vergessen die vorherigen Schreibvorgänge!)... Wenn jemand daraus noch Daten entnehmen will kann er sich die nur zusammenspinnen. --Benni 12:13, 26. Jul. 2007 (CEST)
Es gibt ja einen Abstand zwischen den Spueren, der sogar breiter ist als die Spuren selbst. Deshalb wird eine Spur, wenn die neue Spur leicht versetzt geschrieben wird nicht zu 100% gelöscht. --MrBurns 01:41, 13. Sep. 2007 (CEST)Beantworten

Eine urban legend ist, die Festplatten seien ein 100% Produkt von IBM USA. Als ich noch bei IBM war, haben mir (pensionierte) Kollegen vom Labor Schönaich erzählt, daß IBM USA die Entwicklung schon einstellen wollte, da die Platten nicht eben genug hergestellt werden konnten. In Schönaich entwickelte man daraufhin eine "Plandrehmaschine" mit einem Staubsauger als Vakuumerzeuger, dadurch konnte die Platte auf einem rotierenden Drehtisch festgesaugt und plan abgedreht werden. Ohne diese Herstellungstechnologie gäbe es keine Festplatten (zumindest von IBM)... [Quelle: Erzählung von IBM Ingenieuren, wurde auch in einen c't Artikel übernommen, nachdem ich das einem c't-Redakteur erzählt hatte] Kann man ja vielleicht unter Geschichte noch einbauen. --JoDerBaer 10:18, 6. Dez. 2007 (CET)Beantworten

Eine Anmerkung zum dritten Punkt: Daten lassen sich in der Tat noch wiederherstellen, wenn diese oftmals schon mehrfach überschrieben wurden. Allerdings geht das nicht mehr mit Hausmitteln, sondern nur noch im Labor mit viel Aufwand. Wie das funktioniert? Nun, nimm ein Blatt Papier und ziehe einesn Strich mit einem Bleistift. Nun nimm einen Kugelschreiber und ziehe ebenfalls mit der Hand einen Strich genau darüber. Was fällt auf: Deine Hand ist nicht präzise genug den Strich genau wieder zu treffen - und das gleiche Problem gibt es bei der Festplatte. Kopfschwingungen und ähnliches sorgen dafür, dass das überschriebene niemals exakt auf das zu löschende fällt und somit Reste noch vorhanden sind. Die Mechanik der heutigen Platten ist eine Meisterleistung - in Bezug auf mögliche Datengröße jedoch noch immer Grobmotorisch.
Zweite Methode: Die Platte wird mit einem Analogkopf abgetastet und ein Magnetprofil erstellt. Dann zieht man die bekannten Daten ab (die aktuellen Daten), übrig bleibt das magnetische Grundrauschen und die Reste alter Daten. Diese können verstärkt und somit wieder lesbar gemacht werden. PF20080529
Und wie ist es denn damit: Wenn ohnehin Schwankungen bzw. Ungenauigkeiten bestehen, kommt es dennoch sehr selten vor, dass Daten nicht mehr gelesen werden können. Es müsste dann auf Grund der Ungenauigkeit ja auch vorkommen, dass bereits vorhandenen Daten mit neuen überschrieben werden, weil der Kopf nicht genau positioniert werden kann. 84.128.162.88 23:53, 5. Jun. 2008 (CEST)Beantworten
Deshalb pberschreibt man ja mehrmals: wenn man das tut, ist die Wahrscheinlichkeit, das die Spour irgendwann komplett überschrieben ist groß. Wenn man das mit dem Kugelschreiber vergleicht: wenn man den alten Strich oft genug nachzieht, erkennt man ihn irgendwann auch nicht merh (um das zu testen muß man natürlcih 2 verschiedenfarbige Kulis nehmen). --MrBurns 19:04, 6. Jun. 2008 (CEST)Beantworten
Ich meinte ja nicht das gewollte Überschreiben zum Datenschutz, sondern das versehentliche Überschreiben mit Daten, die eigentlich auf die benachbarte Region gehören. Wenn die Köpfe derart ungenau schreiben, muss es ja zuweilen vorkommen, dass ich mit gewollten neuen Daten auf benachbarte Bereiche schreibe und damit ungewollt Daten überschreibe, die bestehen bleiben sollten. 84.128.146.21 20:17, 7. Jun. 2008 (CEST)Beantworten
Das passiert deshalb nicht, wiel der Abstand zwischen den Spuren viel größer ist als die Spuren selbst breit sind (ich hab schon mikroskopishce Aufnahhmen von Fesplatten gesehen, da sieht man das recht gut). Außerdem mu´sich die alte Spur mit der neuen ja großteils überlagern, damit die HDD überhaupt "weiß", welche die neu Spur ist, d.h. es muß der Großteil der alten Spur überschrieben werden, damit das Signal der neuen viel stärker ist als das der alten. Man weiß alleridngs, wie das normale Signal aussehen muß und kann d.h. das neuen Signal sozusagen "abziehen" um dann das alte zu erhalten. --MrBurns 01:19, 8. Jun. 2008 (CEST)Beantworten

Lebensdauer MO

Im Artikel steht, dass lediglich Magneto-optische Verfahren 50 und mehr Jahre Lebensdauer erreichen. Laut Herstellerangaben erreichen jedoch manche CD/DVD-Rohlinge sogar bis zu 100 Jahre, bekannt ist mir das von Rohlingen der Firma Verbatim. Natürlich geht das nur bei optimaler Lagerung (ideale Temperatur + Luftfeuchtigkeit,...). --MrBurns 10:32, 27. Jun. 2007 (CEST)Beantworten

und wie, außer mit Zeitreisen sind die auf dieses Ergebnis gekommen? Entschuldigung, ich werde be solchen Angaben immer skeptisch --Benni 12:35, 26. Jul. 2007 (CEST)

Es gibt schon siet längerem Methoden, mit denen man die Langzeitbelastungen, die selbst bei optimaler Lagerung z.B. durch chemische Prozesse mit der Luft entsstehen (denn von alleine gehen die Daten nicht verloren) simulieren kann, imdem man über einen kürzeren Zeitraum stärkere Belastungen erzeugt. Soviel ich weiß sind derartige Methoden sogar recht verlässlich. --MrBurns 01:45, 13. Sep. 2007 (CEST)Beantworten

Allgemeine Unschärfen

Was mir schon seit einiger Zeit auf den Sack geht, ist daß immer der Begriff physikalisch (siehe hier) verwendet wird wenn eigentlich physisch ( siehe hier) gemeint ist. Klar kann ein Übersetzungsfehler mal passieren, aber müssen das dann alle nachplappern? Es ist doch wohl eindeutig der körperlich vorhandene Speicher gemeint und nicht ein Speicher der nach einem bestimmten physikalischen Prinzip arbeitet. Das nur als Beispiel. Wenn das mal bitte einer berichtigen könnte (in allen Artikeln)! --Benni 12:32, 26. Jul. 2007 (CEST) PS: hab mich grad an der physikalischen Größe einer Festplatte (Formfaktor) gestoßen...

Je nun, dass das gern ein bisschen unkorrekt verwendet wird, ist aber normal. Es gibt ein prominentes Analogon, nämlich grammatisch und grammatikalisch, und dort ist es meines Wissens mittlerweile so, dass beides querbeet erlaubt ist, man also den Kampf gegen Windmühlenflügel aufgegeben hat. Hier würde ich vorschlagen, auch nicht päpstlicher als der Papst zu sein. Man kann ja bei eigenen Beiträgen mit leuchtendem Beispiel vorangehen, aber wahrscheinlich ist es besser für das eigene Nervenkostüm, wenn man sich von Fehlern dabei nicht so sehr beeindrucken lässt. --PeterFrankfurt 01:46, 27. Jul. 2007 (CEST)Beantworten

Langzeitarchivierung

Der Punkt ist sehr allgemein gehalten und sagt über Festplatten garnichts. Im Moment ist dieses Medium das günstigste verfügbare Speichermedium. Kann jemand Information zur Lebensdauer von Daten im ausgeschalteten Zustand beisteuern? Vllt. einen Vergleich zwischen Festplatte (3.5"/2.5"), CD/DVD, Band usw.?

Die Lebensdauer der Daten entspricht nach meinen Erfahrungen ca. 5 Jahre und ist jedenfalls wegen der Natur von Festplatten nicht davon abhängig, ob sie eingeschaltet oder ausgerschaltet sind. Allerings wird die Lebensdauer des Laufwerks dadurch, dass man es einschaltet verkürzt, aber diese Verkürzung ist auf die mechanische Bleastung des Laufwerks zurückzuführen und bei Festplatten, die durch mechanische Ursachen ausfallen kann eine Datenrettungsfirma normalerweise noch alle Daten problemlos auslesen. --MrBurns 01:49, 13. Sep. 2007 (CEST)Beantworten

Seltsamer Satz

Zitat: "Dies wird unter anderem dadurch erreicht, dass möglichst viele Operationen im RAM durchführt und auf der Platte die Positionierung der Daten auf die Zugriffsmuster abstimmt." Ich verstehe diesen Satz nicht. Er hört sich für mich extrem komisch an. Kann es sein, dass er Grammatikalisch nicht richtig ist? Bitte um Erklärung. -- 84.175.120.61 09:25, 21. Aug. 2007 (CEST)Beantworten

Oh, in der Tat, da fehlte was. --PeterFrankfurt 00:58, 22. Aug. 2007 (CEST)Beantworten


Klärungsbedarf

Zitat: "Bei der Aufzeichnung erfolgt durch den (normalerweise im Festplattengehäuse eingebauten) Controller eine weitere Kodierung der Daten, weswegen kein unmittelbarer Zusammenhang zwischen den gespeicherten Daten und der daraus folgenden Magnetisierung der Plattenoberfläche besteht." Ich denke dort besteht noch ein wenig Klärungsbedarf. Der Gerätetreiber sagt zur Festplatte: Speichere: 01010110010. Was soll denn der Controller dann noch machen? Also entweder speichert er es so, wie er es gesagt bekommt oder er speichert was falsches. -- 83.189.30.238 19:23, 29. Aug. 2007 (CEST)Beantworten

Das Zitat ist ja aus der Einführung, die Details kommen weiter hinten, und zwar im Kapitel Festplatte#Speichern (Schreiben) und Lesen der Daten und dort um den zweiten Absatz: Vor dem Schreiben der Daten werden diese mittels spezieller Verfahren wie den früher üblichen GCR, MFM, RLL und heute üblichen PRML oder EPRML kodiert... --PeterFrankfurt 02:13, 30. Aug. 2007 (CEST)Beantworten

Vekauf gebrauchter Festplatten

Vielleicht sollte man noch erwähnen, dass man vor Verkauf die komplette Platte mindestens mit einer Folge von Nullen und Einsen überschreiben sollte, so dass eine Rekonstruktion der Daten nicht mehr möglich ist. Die Verwaltungsvorschrift des Innenministeriums zum Geheimschutz von Verschlusssachen beim Einsatz von Informationstechnik (VS-IT-Richtlinien - VSITR) sieht sogar ein siebenfaches Überschreiben vor. 84.173.233.213 11:03, 3. Sep. 2007 (CEST)Beantworten

Absatz "Festplatten-Gehäuse"

Da steht "Es ist staub-, aber nicht luftdicht abgeschlossen: Durch eine mit einem Filter versehene kleine Öffnung kann bei Temperaturänderungen Luft eindringen oder austreten." Ich glaube das betrifft eher Luftdruckschwankungen. Wärme wird ja über das metallische Gehäuse zu-, bzw. in den meisten Fällen abgeführt. --87.177.223.169 12:14, 9. Sep. 2007 (CEST)Beantworten

Aber es geht ja nicht nur um die vom Laufwerk selbst erzeugte Hitze, sondern auch um die von außen, und die wird durch das Metallgehäuse natürlich thermisch bestens ans Laufwerk angekoppelt. Wenn ich also Umgebungstemperaturschwankungen habe, und das ist auch an normalen Arbeitsplätzen schon um ca. 10° möglich und mit mehr Freiluftkontakt noch viel mehr, dann wird das Laufwerk das merken. --PeterFrankfurt 21:00, 9. Sep. 2007 (CEST)Beantworten
Dann könnte man das Loch ja weglassen! --87.177.230.25 19:04, 10. Sep. 2007 (CEST)Beantworten
Das ist nicht richtig: zuerst einmal muß sich die Luft erwärmen, bevor sie die Wärme auf das Metall überträgt. In Festplatten können durchaus Temperaturen erreich werden, die 10°C über der Umgebungstempertur liegen. --MrBurns 01:59, 13. Sep. 2007 (CEST)Beantworten

Fehler

Festplatten sind luftdicht verschlossen. Der Druckausgleich wird über eine flexible Membran hergestellt. Bitte einen Berechtigten um Korrektur im Artikel.

Das stimmt nicht. Zumindest früher hatten sie ein definiertes Ausgleichventil in Form eines kleinen Lochs, das von einer teildurchlässigen Folie abgedeckt wurde. Und daneben prangte ein Warnschild, dass man dieses Loch niemals ganz zukleben dürfe, um diesen Ausgleichsvorgang nicht zu behindern. Auch hier gibt es also eine breite Variabilität der Lösungen je nach Hersteller und nach Jahrgang. --PeterFrankfurt 00:35, 7. Sep. 2007 (CEST)Beantworten
Peter, Du irrst. Hinter dem Loch ist eine Membran. Seit min. 10 Jahren ist das bei allen Herstellern so. Es wäre also toll, wenn ein Berechtigter den Fehler endlich fixen würde.
Wozu sollte da eine Membran sein, wenn sie nicht doch was durchlassen würde? Wieso gibt es jenen Warnhinweis? Mag ja sein, dass diese Technik in den ganz aktuellen Laufwerken nicht mehr verwendet wird (wirklich nicht?), aber die Dinger sind noch genügend in Umlauf und existieren so. --PeterFrankfurt 01:16, 8. Sep. 2007 (CEST)Beantworten
Lieber Peter, hinter dem Loch in jeder beliebigen Festplatte der letzten zehn Jahre verbirgt sich kein Filter, sondern eine Membran, die sich je nach Luftdruck nach innen oder außen stülpen kann und so den nötigen Druckausgleich in Festplatten sicherstellt. Würde nun bitte jemand den Artikel korrigieren? "Jede Platte hat ein Lese- Schreibkopf-Set für jede verwendbare Seite. Die Festplatte ist quasi hermetisch abgeriegelt um Staubfreiheit innerhalb der Festplatte zu gewährleisten. Es gibt mindestens eine Membran die einen entsprechenden Druckausgleich vornehmen kann, ohne Staub in die Platte gelangen zu lassen." http://www.it-academy.cc/article/475/Wie+funktioniert+eine+Festplatte.html
Soweit ich das sehe, kann da jeder veröffentlichen, was er will. Damit ist es als Quelle nicht tauglicher als der Wikipedia-Artikel. Gibt es diese Aussage auch aus einer verlässlichen Quelle? --Eike 19:27, 10. Sep. 2007 (CEST)Beantworten
@Eike: http://www.heise.de/ct/faq/hotline/99/03/14.shtml (Harald Bögeholz (bo) / c't) - Appaloosa 20:40, 10. Sep. 2007 (CEST)Beantworten
Ich habe alles versucht, aber irgendwann streiche ich auch die Segel im Kampf gegen die Dummheit der Masse. Festplatten stellen den Druckausgleich über eine Membran her, ob ihr das glaubt oder halt nicht, soll nicht mehr meine Angelegenheit sein. Wikifehlia ist und bleibt halt als Quelle unglaubwürdig. 85.179.199.167 10:20, 15. Sep. 2007 (CEST)Beantworten

"Lieber Peter, hinter dem Loch in jeder beliebigen Festplatte der letzten zehn Jahre verbirgt sich kein Filter, sondern eine Membran, die sich je nach Luftdruck nach innen oder außen stülpen kann und so den nötigen Druckausgleich in Festplatten sicherstellt." DAS will ich sehen! Wen sich ein Gas-Volumen dieser größe um >10°C erwärmt wird etwas zu viel Druck aufgebaut, als dass es diese kleine Membran ausgleichen könnte. Es muss sich um eine Öffnung mit Filter halten, alles andere wäre zu teuer, zu aufwändig und nicht zuletzt auch zu anfällig. So müßte es für jede Raumtemperatur eine andere Festplatte geben - absurd.

Festplatten müssen nicht magnetisch und mechanisch sein!!

Die SSD Festplatten Solid State Drive haben gar keine magnetische Speicherfläche und sind auch nicht mechanisch. Der Artikel muss also für diese neuen Festplattenkonzepte umgeschrieben werden! Dick Tracy 21:00, 12. Sep. 2007 (CEST)Beantworten

Erwähnt werden sollte schon was. ABER: Das sind dann im strengen Sinne keine FestPLATTEN mehr, sondern halt nichtflüchtige Massenspeicher, die WIE Festplatten verwendet werden. Das ist wieder was anderes. Aber da der Trend tatsächlich heftig in diese Richtung geht, muss das irgendwie mit abgedeckt werden, klar. Und dann gibt es noch diese Hybridplatten, die neben der konventionellen Platte noch einen kleineren Flash-Speicher praktisch als Cache enthalten, die sind aber wahrscheinlich nur eine Übergangserscheinung. --PeterFrankfurt 21:42, 12. Sep. 2007 (CEST)Beantworten
Nun ich habs versucht. Aber mit Begründung "Flash-Platten müssen irgendwie mit rein, aber das müssen wir anders lösen" wurde der gelöscht. Wie stellst du dir die Lösung vor? Wenn deine Formulierung, dann bitte funktional wie Festplatten! In "praktisch als Cache ist das praktisch überflüssig --SonniWPinformatik 23:06, 12. Sep. 2007 (CEST)Beantworten
So wie das im Augenblick drinsteht, finde ich es schon in Ordnung. --PeterFrankfurt 00:03, 13. Sep. 2007 (CEST)Beantworten
SSD Festplatten oder Hyprid-Platten werden aber auch unter dem Begriff HDD-Platten verkauft und können die ursprünglichen HDD Platten auch vollkommen ersetzen. Aus diesem Grund müsste das noch ausgebaut werden. Dick Tracy 23:36, 13. Sep. 2007 (CEST)Beantworten
Dass SSD "Festplatten" funktionsgleich mit echten Festplatten sind und dass diese auch als Festplatten verkauft werden steht eh schon im Text. Und mehr muß auch nicht drin stehen, weil die Bezeichnung von SSD-Laufwerken als Festplatten ist nur Marketing. --MrBurns 13:32, 14. Sep. 2007 (CEST)Beantworten
sorry das ist Quatsch! SSD-Festplatten werden in einigen Monaten bzw. eventuell 1 bis 2 Jahren die Festplatten in notebooks und Consumer-Pcs ablösen! Und sollten deshalb hier mit mehr Aufmerksamhkeit beschrieben werden! Und das mit marketing ist absoluter Quatsch! Dick Tracy 23:09, 14. Sep. 2007 (CEST)Beantworten
Natürlich ist es Marketing. Nur weil zwei verschiedene Dinge die gleiche Funktuion haben sind sie noch lange nicht das selbe. Und ich bezweifle auch, dass SSDs herkömmliche Festplatten in 1-2 Jahren ablösen werden, weil da wird der Preisunterschied noch immer zu groß sein. Derzeit beträgt der Preis/GB bei SSDs laut geoizhals.at min. € 7,797/GB, bei normalen Festplatten min. € 0,0135/GB. Außerdem selbst wenns nicht so unwahrscheinlich wäre, dass SSDs Festplatten in 1-2 Jahren ablösen werden, wärs noch immer reine Spekulation. Derzeit ist der Marktanteil von SSDs im Vergleich zu normalen HDDs wohl noch vernachlässigbar. --MrBurns 02:09, 9. Okt. 2007 (CEST)Beantworten

Kapazitäten 1970

Ich erinnere mich noch an 1970 IBM 3330 mit 10 Oberflächen a 300 kB im wechselbaren Plattenturm --SonniWPinformatik 23:42, 12. Sep. 2007 (CEST)Beantworten

Tippfehler

Im letzten Absatz vor dem SCSI-Abschnitt steht Gegensatnd statt Gegenstand.

korrigiert --P.C. 11:42, 17. Sep. 2007 (CEST)Beantworten

In der Mitte vom Absatz Festplatten-Gehäuse befindet sich ein "ein" zuviel. Zitat: "zum Betrieb ein aber ein Mindestdruck erforderlich ist"

Hybrid-Festplatten

Hat Jemandschon etwas schon über Hybrid-Festplatten gehört? http://www.heise.de/newsticker/meldung/83177/

--Wendelin Kritik?

Die hybriden werden ja auch schon, wenn auch sehr am Rande, erwähnt. Wenn ich mir den heise-Artikel anschaue, brauchen wir da wohl auch nicht zu sehr in Hektik zu verfallen. Bevor das ein Alltagsaspekt wird, muss es noch einiges billiger und evtl. auch noch schneller werden. --PeterFrankfurt 22:44, 22. Sep. 2007 (CEST)Beantworten

Fehler?

Zu beachten ist, dass sich 2 Geräte an einem Kabel die Geschwindigkeit teilen und dass stets das langsamste unterstützte Busprotokoll gilt.

Ich glaub nicht, dass dieser Satz bei modernen Mainboards noch stimmt. Ich hab selber an zwei ATA-Chennels jeweils eine Festplatte und ein DVD-Laufwerk. Die Festplatten rennen mit ATA100 bzw. ATA133, die DVD-Laufwerke nur jeweils mitr ATA33. Und ich kann die Volle Geschwindigkeit bei beiden Fstplatten nutzen. --MrBurns 10:35, 27. Sep. 2007 (CEST)Beantworten

Doch, das gilt immer noch (steckt im Protokoll). Nur dürfte es kein Mensch merken, denn nur die aller aller neuesten Platten (und die wird niemand mehr als IDE nehmen) würden UATA/100 überfordern. Und EINGESTELLT wird das, was maximal benutzt werden soll - aber nicht unbedingt, was benutzt WIRD. --TheK? 08:27, 30. Sep. 2007 (CEST)Beantworten
Bei ATA33 hätte ich max. 33MB/s datenübertragungs- und Burstrate, aber ich hab mit diveresen Benchmarkprogrammen eine Datenüberttragungsrate von bis zu 60MB/s und eine Burst-Rate von ca. 90 MB/S am ATA100- und 120 MB/s beim ATA133-Laufwerk, also laufen die eindeutig mit ATA100/133. Unter en:AT_Attachment#.22Slowest_speed.22 steht auch, dass es seit ca. 1997 nicht mehr stimmt, dass bei laufwerke immer gleich schnell rennen. --MrBurns 01:59, 1. Okt. 2007 (CEST)Beantworten

Datenübertragungsrate

Es wäre doch schön, wenn man im Artikel eine Übersicht bzgl. der durchschnittlichen Datenübertragungsrate von Fesplattten finden würde, ruhig nach Jahr geordnet. Also nicht die reinen Schranken der Schnittstelle sondern wirklich die Werte der Platten.

Derzeit dürfte die durchschnittliche Datenübertragungsrate bei 7200rpm-Platten ca. 30-60MB/s (je nach Plattenposition) sein, bei SCSI gibts jedoch Platten bis 15000 rpm. Die dürften dann ca. das doppelte schaffen. Und mir RAID (insbes. RAID 0) kann man durch den Einsatz mehrere Platten die Übertragungsrate noch weiter erhöhen. Für die Vergangenheit wird das aber eher schwer zu rekonstruieren sien, weil die Drehzahl alleine sagt noch nicht so viel über die Datenübertragungsrate aus, weil wenn sich die Platte gleich schnell dreht, die dAten aber dichter beienander sind hat man eine höhere Datenübertragungsrate. --MrBurns 04:35, 30. Sep. 2007 (CEST)Beantworten
Also die aktuellen 7200er kratzen bei hdparm -t (sequentielles Lesen) durchaus schon an der 100MB/s-Marke, evtl. sogar leicht drüber (ich hab immer noch keinen wirklich brauchbaren Test der 1TB-Platten gesehen). Das gleiche gilt für die WD Raptor (10.000 rpm, aber etwas betagteren Technik). 5400 rpm-Laptop-Platten liegen bei etwa 55 bis 60MB/s. Die richtigen Geschosse sind [unbezahlbare] 25.000 rpm-Platten, die sicherlich weit über 150MB/s schaffen. --TheK? 08:14, 30. Sep. 2007 (CEST)Beantworten
Ist das mit den 25.000 rpm ein Tippfehler? Auf geizhals.at steht unter keinem Anschlusstyp irgendetwas von 25.00 rpm, sondern max. 15.000 rpm. Und auf geizhals.at steht normalerweise so ziemlich alles drin, was es im Handel gibt.

Fujitsu bietet SAS und SCSI U320 Festplatten an, die bei 15K Upm 147Mbyte die Sekunde schaffen, und bei etwa 3ms mittlerer Zugriffszeit liegen. Und die sind sicherlich nicht unbezahlbar. Mit 300€ ist man dabei, wenn man so wie ich auf viel Speicherplatz keinen Wert legt. Der Controller ist die groessere Huerde.

Einlesen und Speichern von Speicherkarten

Mobile externe Festplatten wie Photo Bank o.ä. fehlen hier, oder nicht...? [6] 84.56.29.178 03:07, 10. Okt. 2007 (CEST)Beantworten

Nö, da gibt es das Kapitel "FireWire und USB als Schnittstellen für externe Laufwerke". Ist zwar etwas knapp, aber eigentlich alles gesagt. Ansonsten gibt es da fließende Übergänge zu eigenständigen Playern, die selbst ja wieder Rechner darstellen. Das muss man eigentlich nicht in diesem Artikel hier aufdröseln. --PeterFrankfurt 22:33, 10. Okt. 2007 (CEST)Beantworten

Haltbarkeit der Daten

Hier wird gesagt, dass magneto-optische Verfahren 50 Jahre oder mehr Datensicherheit gewähren, im Gegensatz zu rein magnetischen Aufzeichnungen, denen nur 5-10 Jahre gegeben werden. Also dieses Vertrauen in die magneto-optischen Aufzeichnungen teile ich nicht. Man erinnere sich an die Anfangszeit, als in den NeXT-Computern als ersten magnetooptische Laufwerke als Standard-Massenspeicher eingesetzt wurden. Das musste nach sehr kurzer Zeit revidiert (und zu herkömmlichen Festplatten zurückgekehrt) werden, da die Dinger schon nach Wochen, spätestens ein paar Monaten ihre Daten vergaßen. Grund: Für diese magnetooptischen Effekte braucht man als Materialien vor allem Seltene Erden, damit die Effekte sich groß genug aus dem Rauschen erheben. Dummerweise sind diese Seltenen Erden aber auch rein technisch extrem schwierig zu handhabende Materialien und alles andere als stabil. Man mag seitdem da ein paar Fortschritte gemacht haben, diese Nachteile zu bändigen, aber ob das wirklich realistisch sein soll, dass die schon so viel besser sind als normale Festplatten, das mag ich nicht so richtig glauben... --PeterFrankfurt 22:40, 12. Okt. 2007 (CEST)Beantworten

Die magnetooptischen Speichermedien von mitte der 80er kann man nicht mit den heutigen vergleichen. Ob die daten wirklich 50 jahre halten wird sich zeigen, aber sie halten auf jeden fall länger als bei herkömmlichen magnetischen und optischen Aufzeichnungsverfahren. Deshalb werden magnetooptische Datenträger obwohl sie ziemlich teuer sind z.B. zur Archivierung im medizinischen Bereich eingesetzt. Das weiß ich, wiel ich selber bei meinem Zivildienst in diesem Bereich tätig war. --MrBurns 03:13, 13. Okt. 2007 (CEST)Beantworten

Externe Gehäuse

Es gibt nicht nur externe Festplatten, sondern auch externe FGehäuse zu kaufen, in die man herkömmliche IDE- oder SATA-fEstplatten einbauen kann. Siehe [7]. Aber immer, wenn ich das im Artikel erwähnen will, wird das kommentarlos gleich wieder vom Benutzer TheK gelöscht.

Ich halte das aber sehr wohl für relevant, da es sich um eine meist billigere und auf jeden Fall flexiblere Alternative zu externen Festplatten handelt, die sehr wohl eine Bedeutung im Markt hat.

Man kö nnte zwar argumentieren, dass es sich bei externen Festplatten um genau das gleiche handelt, der unterschied ist jedoch, dass man die Gehäuse ohne Festplatte erwirbt und jede beliebige Festplatte einbauen kann, was bei den Gehäusen von normalen externen Festplatten nicht der Fall sein muss. --MrBurns 13:19, 14. Okt. 2007 (CEST)Beantworten

Also ich sehe auch nicht, warum man das nicht erwähnen sollte. --PeterFrankfurt 22:40, 14. Okt. 2007 (CEST)Beantworten

Nachteile von 5,25" Platten?

Was waren überhaupt die Nachteile von 5,25" Platten, die schließlich zu ihrem Verschwinden geführt haben? Aufgrund der größeren Fläche ließen sich viel mehr Daten als auf einer 3,5" Platte unterbringen - und zu Platzproblemen in Desktopgehäuse würde es auch nicht kommen, da optische Laufwerke ebenfalls 5,25" Schächte benutzen.

Von dem waqs ich gelsen hab ist der hauptgrund, dass die Platten schwerer sind und sich deshalb nicht so schnell drehen lassen wie 3,5"-Platten. Festplatten mit über 7.200 rpm (z.B. die Raptor mit 10.000rpm) verwenden oft sogar intern nur 3"-Platten, weil sich diese schneller drehen lassen als die normalen 3,5"-Platten (die aber nicht unbedingt genau 3,5" durchmesser haben müssen). --MrBurns 19:25, 16. Okt. 2007 (CEST)Beantworten
Umso größer eine Festplatte ist, umso weiter sind die Schwingungswege der äußerem Plattenränder bei Erschütterungen - und umso eher knallt der Kopf gegen die Scheibe. Bei einer 5,24"-Platte geht das so weit, dass man die unter Umständen töten kann, wenn man während eines Schreibvorganges gegen den PC tritt. Die Scheiben selbst haben übrigens heute in einer 3,5"-Festplatte idr. 2,5" (und in einer 2,5" dann 1,8), also _wesentlich_ weniger. --TheK? 12:21, 25. Dez. 2007 (CET)Beantworten
Also ich ahb in einem Review gelesen, dass die Raptor wegen der schnelleren Drehzahl von 10.000 rpm statt 7.200 rpm 3" statt den üblichen 3,5"-Plattten verwendet. 2,5"-Platten in 3,5" HDDs gibts wahrscheinlich nur bei 15.000 rpm Serverplatten. Wenn man sich Herstellerfotos von Festplatten anschaut (z.B. [8]), sind eigentlich 3,5"-Festplatten nicht viel kleiner als das Gehäuse, was auch eher für eine tatsächliche Plattengröße von 3,5" spricht. Wenn man das mit Herstellerfotos der raptor wie diesem hier vergleicht, sieht man auch, dass diese deutlich kleinere Platten hat. Wenn an sich die Fotos der normalen 3,5"-Platten anschaut, dann müssten eigentlich 2.5"-Platten sogar in ein 2,5"-Gehäuse passen, allerdings wird in vielen Servern ohnehin nur der 3,5"-Standard verwendet, d.h. man könnte garkeine 2,5"-HDDs einbauen und außerdem ist das 3,5"-Gehäuse auch höher und bietet daher Platz für mehr Platten und einen größeren Motor. Dafür sprechen auch die Herstellerfotos von 15.000 rpm Platten wie z.B. [9]. Die Fotos der 2,5" SAS-Platten sprechen dafür, dass bei 10.000 rpm teilweise 2,5"-Platten verwendet werden (z.B. [10]), teilweise auch 1,8", bei 15.000 rpm ausschließlich 1,8", was wahrscheinlich an dem kleinen Platz fürn Motor liegt. --MrBurns 22:05, 25. Dez. 2007 (CET)Beantworten

Es gibt folgende Antworten auf diese Fragen: Zum Ersteren, wie schon gesagt: Ein Headchrash ist mit solch grossen Platten sehr leicht zu provozieren, und die Umdrehungsrate ist nur gering. Datentransferrate also sehr mau, trotz der grossen Platter. Wenn ich mich recht entsinne waren solche grossen Dinger mit 5200Upm wohl eher unueblich. Da drehten die Meisten davon sogar nur mit 3600Upm. Koennte mich aber taeuschen.

Dann kommt das eigentlich Problem: Zugriffszeit. Fuer solche Platten waren 20ms durchschnittliche Zugriffzeit oder mehr ueblich, welche selbst von aelteren Festplatten in 486igern unterboten werden konnte. Eine Quantum Bigfoot hatte gegen eine alte Conner mit 420Mbyte in der Hinsicht keine Chance, obwohl die alte Conner 4 - 5 Jahre mehr auf den Buckel hatte. (Mit einem VLB-IDE 40Mhz Controller erreichte die Conner auf 13ms mittlere Zugriffszeit, schneller als heutige Standardlaufwerke, mit PCI IDE aber nur 15ms). Uebrigens sind bei schnelleren SATA Platten zur Zeit etwa 10ms im realen Betrieb ueblich. Fuer neuere Betriebssystem wie Windows 9x war die Quantum also nicht geeignet gewesen, es sei den man mochte nach dem Einschalten des Rechners erstmal Kaffee trinken gehen.

Drittens ist der hohe Stromverbrauch, der hohe Materialaufwand und der Kosten-Nutzen Faktor schlecht. Quantum hat die Dinger zuletzt nur noch im Billigsegment vertreiben koennen.

Also ich bin mir nicht sicher, ob der Hohe Stromverbrauch wirklich ein entscheidender Faktor war: heutige Festzplatten rbauchen soviel ich weiß 5-10W als Maximalleistung, selbst wennn eine 5,25" doppelt so viel verbraucht, ist das im Vergelich zum gesamtverbrauch noch immer wenig, wenn man wie die mesiten Leute nur 1 oder 2 Festplatten im System hat. Selbst zu Bigfoot-Zeiten dürften wenn ich mich recht erinnere schon 230-250W bei Netzteilen üblich gewesen sein, was durch die damlaigen Systeme wohl selten auch nur halbwegs ausgelastet wurde. Und die Hitzentwicklung düfte auch nicht größer sein, weil 5,25" Platten zwar mehr Strom verbrauchen, aber auch eine viel größere Oberfläche haben. --MrBurns 23:34, 28. Feb. 2008 (CET)Beantworten
Und zu deiner Behauptung, 13ms wären sogar für moderen Platten schnell: ich finde auf geizhals.at nur weinige Platten mit 10ms mittlerer Zugriffszeit laut Herstellerangaben, alle anderen haben <9ms. Die Raptoren von Western Digital haben sogar nur 4,5-4,6ms. Wenn m,an die Platten mit einem Benchmark wie hdtach testet, kommt man natürlich auf höhere Zugriffszeiten, die bei den meisten Platten tatsächlich knapp übner 13ms leigen, bei den Raptoren jedoch deutlich <13ms. --MrBurns 23:46, 28. Feb. 2008 (CET)Beantworten
Die Zugriffszeiten-Angaben der Hersteller sind stark geschoent. Zudem sind sie auch noch von dem verwendeten Controller abhaengig. Die meisten Standardplatten liegen immer noch bei 15 - 13ms.

Da wird sich auch nicht viel daran aender, weil die Leute eher leise Festplatten bevorzugen. Bei < 10ms Zugriffszeit hat man auch entsprechende Zugriffsgeraeusche. Es gibt ja auch Leute die sich ne Raptor mit im Durschnitt 5 -6ms reale Zugriffszeit kaufen und dann darueber aufregen, das sie rumrattert. Der hohe Stromverbrauch von 5 Zoll Platten kommt daher, das der Motor mehr Arbeit beim "Anfahren" leisten muss. Auch der Aktuator der Platten war, soweit ich mich entsinne, wesentlich groesser... Besonders mehrere solcher Platten koennen ein Netzteil schnell abwuergen. Zu der Bigfootzeit waren 200W normal, maximum 300W. Der Stromverbrauch ist sicher kein entscheidender Faktor. Ist aber ein negativer Punkt.

HDTach ist uebrigens ein sehr gutes tool, welches schon sehr gut das reale Verhalten des Controllers + Platte wiederspiegelt. Das man die Werte natuerlich nicht zu 100% genau nehmen kann ist klar, dennoch ist es das wohl beste und messgenaueste Tool, das man fuer den Festplattentest haben kann.

SCSI Platten koennen das Problem mit dem Stromverbrauch beim Hochfahren ja dadurch loesen, das Sie erst durch den Controller angeschubst werden. Hier existiert das Problem nicht.

Ich wär mir nicht so sicher, ob das nur an der Lautstärke liegt, schlie0ßlich sind die meisten estplatten in ducrhschnittlichen luftgekühlten Gehäusen garnicht mehr zu hören. Außerdem besitzen sie meist AAM, um die Lautstärke zu regeln. Die Lautstärke lässtt sich dabei üblicherweise über ein Tool einstellen, das auf Diskette gespeichert wird und von der Herstellerseite downgeloadet werden kann. Klar ist das den meistenh usern zu kompliziert, aber man könnte Festplatten dann ja mit verschiedenen Voreinstellungen verkaufen, mit Zusätzen wie "Performance" und "Silent" versehen sind. Ich denke eher, dass der Grund ist, dass Festplatten mit schnelleren zugriffszeiten zu teuer in der Herstellung sind und in der Performance abgesehen von etwa schnelleren programmstarts nicht so viel bringen, dass die Leute dafür soviel mehr ausgeben wollen. Die Raptoren haben ja auch 10.000 rpm, was sich ebenffalls positiv auf die Zugriffszeiten auswirken würde, aber das allein erklärt nicht halb so kurze Zugriffszeiten, da muß auch der Kopf viel schneller sein. Ich glaub 10.000 rpm wird auch eher aus Preisgründen vermieden, weil die neuen Raptoren sind vom Laufgeräusch von dem was ich so gelesen hab nimmer allzu laut. Außerdem braucht ein größerer Motor mehr Platz, vor allem, wenn man wirklich 3,5"-Platten verwendet statt die 3" der Raptoren, wodurch weniger Platz für den Plattenstapel übrig bleibt, was sich wiederum negativ auf die Kapazität auswirkt. --MrBurns 16:39, 13. Mär. 2008 (CET)Beantworten
AAM verhindert eine schnelle Zugriffszeit. Und jeder vernuenftige Mensch, der Wert auf Perfomance legt, stellt AAM ab. Einige aktuelle Festplatten, selbst schon etwas aeltere, unterstuetzen es auch garnicht mehr. Seagate zum Beispiel. Ist nur was fuer Silent PCs. Rattern kannst du nicht vermeiden, sobald die Zugriffszeit unter 10ms im Durchschnitt geht. Zwar hat sich da inzwischen was getan, meine alten SCSI Platten mit 9ms rattern mehr als meine neuere mit 4,5 (Cheetaa 15K 36Gbyte U160 SCSI). Dennoch kann man das Rattern nicht voellig verhindern. Ob man eine 15K Platte hat, 10K oder 7200K spielt Lautstaerkemaessig kaum noch eine Rolle, da selbst die sehr schnell rotierenden Platten inzwischen recht leise sind. Nur bei Zugriffen sind starke Geraeusche vorhanden.

Aktualisierung

Siehe hier: http://www.computerbase.de/news/hardware/laufwerke/massenspeicher/2007/januar/seagate_38_terabyte_hdd_2010/

Des Weiteren gibt es nicht nur 1-TB-, sondern bereits 5-TB-Platten. Siehe hier: http://www.jkoit.eu/product_info.php?info=p842_5-TB-externe-Festplatte-LaCie-Biggest-S2S.html&XTCsid=7fc51af5a332a71f20d9faecd7716bba Ronny Michel 21:22, 29. Okt. 2007 (CET)Beantworten

Also ich weiß nicht, ob man die optimistischen progonosen der Hersteller ("wir erreichen 2010 bis zu 50 Terabit pro Quadratzoll") wirklich im Artikel erwähnen braucht, weil ob sie das wirklich 2010 erreichen werden steht noch in den Sternen.
Und deine externe "5-TB-Festplatte" ist wie man auch am Foto unschwer erkennen kann eigentlich ein externes Gehäuse, in das 5 1TB Festplatten eingebaut sind. --MrBurns 06:59, 30. Okt. 2007 (CET)Beantworten

Scheibenbeschichtung

Ich habe mit einem Kollegen eine Materialanalyse einer IBM 146GB-Festplattenscheibe für Server-RAID gemacht (3.5",10.000U/min). Sie besteht aus einer Aluminium/Magnesium/Silberscheibe mit 830µm Dicke auf die je eine 11µ dicke Nickel/Neon/Phosphorschicht aufgetragen wurde (silberne Oberfläche). Daher sollte Nickel noch als Schichtmaterial aufgenommen werden. Ich kann auch das Analysebild für Wiki zur Verfügung stellen. --Ty von Sevelingen 13:49, 5. Nov. 2007 (CET)Beantworten

Höheangaben

Gerade bei 2,5" Festplatten findet man häufig die Angaben zur Höhe in 1/8H, 1/6H und 1/3H wie kommt man dann auf z.B. 9,5 mm?

Das sind diese vorsintflutlichen Höhenangaben... 1H ist dann das doppelte (!) eines CD-ROM-Laufwerkes (etwa 8cm). Was du dann suchst, ist wohl 1/8H. 1/6H sind die 1,25mm, die zum Beispiel Fujitsu bei seinen sehr großen Modellen vor kurzem hatte, gibt es aber vereinzelt auch bei Desktop-Platten. 1/3H ist wohl eher eine normale Desktop-Platte. --TheK? 12:26, 25. Dez. 2007 (CET)Beantworten

zum eigenen Vorteil

Ich hab jetzt zum x-tem Mal den Hinweis zum eigenen Vorteil (die Zahlenwerte erscheinen abgekürzt größer) entfernt. Der Hinweis hat im Artikel nichts zu suchen. Erstens sind die Festplattenhersteller nicht die einzigen die ihre Größen über SI Maßeinheiten abkürzen. Wären sie die einzigen, könnte man das hinnehmen. Allerdings ist es inzwischen auch im IT-Bereich weigehend üblich. Zweitens - hätten sie ihre eigenen Abkürzungen erfunden, könnte man es sagen, aber sie bedienen sich der SI-Präfixe. Eigener Vorteil hin, eigener Vorteil her, sie bedienen sich standardisierter Maßeinheiten. Auch wenn man sich die Frage stellen kann ob die Regulierungsstelle für IT zuständig ist, Kilo ist Kilo. Es kann nicht auf der ganzen Welt üblich sein für 1000 Kilo zu schreiben, bist auf einem Gebiet. Und Drittens - auch wenn sie es zum eigenen Vorteil machen würden, es ist eine Meinung. Ihr einzige Zweck ist zu sagen: die Festplattenhersteller sind böse, denn sie haben es zu ihrem eigen Vorteil gemacht. Außerdem ist diese Information unwichtig. Das hier ist Wikipedia, eine Enzyklopädie. Wichtig ist nur, daß die Festplatten SI Maßeinheiten angegeben werden. Unwichtig ist wieso es gemacht wird. Nicht jede Info ist relevant. MartinPb 12:25, 25. Dez. 2007 (CET)Beantworten

Nein. "Warum" ist genau die Frage, die "Information" von "Wissen" unterscheidet. --TheK? 12:31, 25. Dez. 2007 (CET)Beantworten
Dieses Warum ist an dieser Stelle unwichtig. Habe ich es oben nicht ausführlich genug geschrieben? Sie bedienen sich standarisierter Maßeinhaeiten. Somit wird es egal wieso sie es machen, denn sie bedienen sich üblicher Maßeinheiten. Da könntest du genauso sagen, daß die Milchanbieter, sich zum eigenen Vorteil des Geldes bedienen, weil sie dann so dann für ihr Produkt ein Gegenwert erhalten. Ist doch unwichtig warum.
Sie bedienten sich dieser Einheiten schon, als sie noch lange nicht standardisiert waren und sind bis heute eine der wenigen Stellen, die sich dieser bedient - üblich isses in der IT eben nicht, die SI-Einheiten zu benutzen. --TheK? 13:09, 25. Dez. 2007 (CET)Beantworten
Thek hat vollkommen recht: die SI-Vorsätzwe wurden zwar nicht von den Festplattenherstellern erfunden, aber die Idee, diese auch im IT-Bereich, wo die traditionellen 2^10-Einheiten eigentlich viel sinnvoller sind einzusetzen, war ihre Erfindung. Die einzige Denkbare Motivation, derartig von den etablierten, wenn auch nicht offiziell festgeschriebenen, Standards abzuweichen ist, dass dadurch die Festplattenkapazitäten größer werden. --MrBurns 21:44, 25. Dez. 2007 (CET)Beantworten

160-GB-Platte im 1,8-Zoll-Format

Im großen iPod steckt doch eine 1,8-Zoll-Platte? Den gibts mittlerweile mit einer Kapazität von 160 GB. Demnach wäre die Artikel-Tabelle zu korrigieren (160 GB statt 120 GB Maximum). 141.2.169.203 12:58, 11. Jan. 2008 (CET)Beantworten

Wenn du das Ding irgendwo "solo" auftreibst - das zählt für die Tabelle nämlich. Flash würde ich bei der Größe in der Tat ausschließen (aus Preisgründen). --TheK? 02:25, 14. Jan. 2008 (CET)Beantworten
Ich würde Flash nicht nur aus Preisgründen ausschließen, sondern vorallem, weil es sich bei Flash-Speichermedien technisch gesehen nicht um Festplatten handelt, selbst wenn sie wie festplatten eingesetzt werden.
Wenns nach einzeln erhältlich geht, würde ich die Obergrenze noch immer bei 100GB ansetzten. --MrBurns 02:31, 14. Jan. 2008 (CET)Beantworten

500-GB-Platte im 2,5-Zoll-Format

Hitachi bringt in Kürze eine aus 3 Plattern zusammengesetzte 500-GB-Platte im 2,5-Zoll-Format auf den Markt. 88.68.249.48 23:51, 19. Jan. 2008 (CET)Beantworten


Festplattenmeilensteine: Werbung?

2005: 500 Gb platte von hitachi ... schön, aber im Gegensatz zu anderen Daten ist das außer vielleicht vom Speicherplatz kein Meilenstein. Wenn es evnlt. mit perpendicular Recording erreicht wurde, sollte das dazu geschrieben werden.

80.136.185.76 19:29, 5. Mär. 2008 (CET)Beantworten

Weiter unten steht, dass die erste Festplatte mit perpendicular recording eine 160GB Notebookfestplatte war und 2006 erschien. Ich habs also entfernt. --MrBurns 11:25, 6. Mär. 2008 (CET)Beantworten
Das volle Terabyte aber drin lassen - das is dann doch ein anderer Fall als so eine mehr oder minder krumme Zahl --TheK? 11:31, 6. Mär. 2008 (CET)Beantworten

Flüssigkeitslager

Hallo, wie habe ich mir denn so ein Flüssigkeitslager vorzustellen? Ist es ein hydrodynamisch geschmiertes Gleitlager oder sogar ein hydrostatisches Lager? Die Übersetzung ins Englische tut hier nicht not, da es gerade im Deutschen wesentlich treffendere Bezeichnung für sowas gibt. --schrotti.oO 16:52, 8. Mär. 2008 (CET)Beantworten

Also die vielen englischen Bezeichnungen sind in dem Artikel, weil die einem in den Datenblättern immer wieder begegnen - diese sind ja komplett englisch. --TheK? 17:14, 8. Mär. 2008 (CET)Beantworten
Da hast du recht, aber der entsprechende deutsche Begriff sollte hier nicht fehlen. In diesem Fall wäre das ein Hydrodynamisches Gleitlager. --schrotti.oO 15:38, 10. Mär. 2008 (CET)Beantworten

Entwicklung der Speicherkapazität

Hallo zusammen, ich habe mir vorgestern die Mühe gemacht, den Abschnitt zur Entwicklung der Speicherkapazität zu erweitern. Dazu habe ich das vorhandene Schaubild in Zahlen ausgedrückt und es in Tabellenform abgebildet, um die Formel zu erkennen, die dem vergangenen Trend unterliegt. Außerdem habe ich den zukünftigen Verlauf dargestellt, den Festplattengrößen erleben werden, wenn die Formel gleich bleibt, um eine Einschätzung des Marktes zu haben. TheK hat alles revertiert mit dem Hinweis es sei TF (Theoriefindung), also ich würde hier eigene Meinung/Theorien verbreiten. Ich finde nicht, dass dem so ist, weil ich A) vorhandene Fakten darstelle (bis zum heutigen Tage) und B) ab heute in die Zukunft eine Trendextrapolation im Sinne der Angabe eines Erwartungswertes auch nicht meine Meinung/meine Theorie ist, sondern ein gängiges Verfahren, um eine Prognose anzugeben. Ähnlich wie "und wenn die Temperatur weiter so steigt wie bisher, dann steht das Wasser im Jahre 2020 in Hamburg 2m höher". Das wäre ja auch in Ordnung. Ich bitte um eine Abstimmung, ob der Revert zwingend notwendig ist, oder ob meine Arbeit doch in den Artikel kann. Hier meine Version: [11] Danke! --Tomakos 18:35, 11. Mär. 2008 (CET)Beantworten

Ich denke schon, dass das Theoriefindung ist, weil wir waren 2005 schon bei 500GB und krebsen jetzt 20008 noch immer bei 1TB herum. Das entspricht nicht mehr einer Verzehnfachung alle 5 Jahre: wenn man e^(5*x)=10 löst und dann da Ergebnis in e^(3 x) einsetzt, kommt fast genau eine vervierfachung in 3 Jahren heraus, nicht nur eine Verdopplung. Wahrscheinlich stößt die derzeitige Festplattentechnologie schon an ihre Grenzen, trotz Perpendicular Recording. --MrBurns 21:34, 13. Mär. 2008 (CET)Beantworten
Bitte schaue Dir doch mal meine Inhalte an! Das mit dem verzehnfachen ist überhaupt nicht von mir. Vielmehr schreibe ich von einem durchschnittlichen Zuwachs von ca. 58,49% und dieser wird rein aus den tatsächlichen Daten abgeleitet (deskriptiv). Es wird außerdem angegeben, dass dies ein Durchschnittswert ist, also nicht Taggenau diese Rechnung stimmt, sondern auch z.B. Größenzuwächse in Sprüngen stattfinden. Ab heute wird dann in die Zukunft extrapoliert, um eine Trendvorschreibung zu haben. Es werden jedoch auch sofort die Bedenken einer Extrapolation aufgezeigt, incl. der von Dir genannten technologischen Einschränkungen. Bitte schaue Dir meine Inhalte hier an: [12] und urteile dann. Danke! --Tomakos 09:11, 14. Mär. 2008 (CET)Beantworten
Die 58,49% kommen aber bis auf den Rundungsfehler genau raus, wenn man eine Verzehnfachung alle 5 jahre auf Das Wachstum pro Jahr umrechnet. Und die Tabelle entspricht auch genau einer verzehnfachung alle 5 Jahre. Man kann statt mit der Exponentialfunktion und Einsetzen in auch genauso mit 1.5849³ (bzw. genauer: ) rechnen. Siehe Exponentielles Wachstum. --MrBurns 09:31, 14. Mär. 2008 (CET)Beantworten
Hallo MrBurns! Schön, darf ich das als Zustimmung dafür verstehen, dass die Veranschaulichung des Wachstums der Vergangenheit sowie die Trendextrapolation in die Zukunft eine interessante und durchaus zulässige Angabe für die Enzyklopädie ist? Gruß --Tomakos 08:26, 15. Mär. 2008 (CET)Beantworten
Also, da hier auch nach 5 Tagen offenbar keine Mehrheit gegen meine Einfügungen Einwände hat, setze ich meine Änderungen nun wieder in den Artikel. Gruß --Tomakos 19:14, 16. Mär. 2008 (CET)Beantworten
Blödsinn. Ob dir hier alle zustimmen, dass die Zahlen stimmen, ist egal: HIER WIRD NICHT SELBST GEFORSCHT. Und außer der Aussage, dass es sich bisher im Schnitt alle 5 Jahre verzehnfacht, bleibt da nichts übrig. --TheK? 19:19, 16. Mär. 2008 (CET)Beantworten
Hallo Thek, es ist weder Blödsinn, noch "eigene Forschung", wenn man ein im Artikel längst akzeptiertes Schaubild in Zahlen darstellt. Und das lässt eben mehr zu, als nur deine Verzehnfachung. Ebenso ist es keine eigene Forschung, das Instrument der Trendinterpolation anzuwenden, es ist ein vollkommen gängige Methode, um Wissensbestand zu analysieren. Es schafft kein neues Wissen, wie von dir behauptet. Gruß --Tomakos 19:23, 16. Mär. 2008 (CET)Beantworten
Außerdem braucht dein Statistik-Quatsch zu viel Platz in einem eh schon langathmigen Artikel, der alles erklärt, nur noch was er soll. --TheK? 19:29, 16. Mär. 2008 (CET)Beantworten
TheK, was soll dein pöbelndes, kindisches und niveauloses Verhalten?! Stelle meine Änderungen bitte wieder zurück, Du bist hier nicht das Maß aller Dinge. Hier war seit fünf Tagen die Möglichkeit, darüber zu diskutieren, und Du hast sie absichtlich nicht genutzt, stellst dich jetzt aber als großer Aufpasser über den Artikel. Eine Rolle, die Dir nicht gehört. Also hör mit dem Kinderkram und stelle meine Änderungen wieder rein, dankeschön. gruß --Tomakos 19:33, 16. Mär. 2008 (CET)Beantworten
Wieso sollte ich? Ich finde deine Änderung scheiße, du findest sie toll; sonst hat niemand was dazu gesagt (dass das ganze inhaltlich richtig ist, war nicht die Frage!). --TheK? 19:38, 16. Mär. 2008 (CET)Beantworten
Tut mir leid, aber es fällt mir schwer, jemandem, der keine Umgangsformen hat, den Sinn und Zweck von Umgangsformen zu erklären. Ich habe den Teil jetzt erneut reingestellt und in Hinblick auf Deine Kritik verkürzt. Außerdem habe ich ihn so umformuliert, dass nun auch Dir klar sein sollte, dass es sich nicht um TF handelt, sondern um Abbildung von gesichertem Wissen. Dass dich der Verlauf der Kapazität nicht interessiert, nehme ich zur Kenntnis. Dein Interesse ist jedoch nicht relevant. Gruß --Tomakos 19:56, 16. Mär. 2008 (CET)Beantworten
P.S. Bitte unterlasse nun Deinen kindischen Editwar, sonst muss ich den Artikel sperren lassen, das wäre schade. --Tomakos 19:58, 16. Mär. 2008 (CET)Beantworten

(vorzieh) Gekürzt? Dass ich nicht lache. Ersatzlos raus gehört der Bezug zu Moores Law (da deine Behauptung). Formulierungen der Art "Die entsprechenden Werte werden gerundet in der untenstehenden Tabelle dargestellt." haben in eienr Enzyklopädie nichts zu suchen. Ebenso will ich da keinerlei Zukunftprognosen sehen, da viel zu sehr Kaffeesatzleserei. Im Ergebnis bleibt da eben nix mehr, außer dem einen Satz, den ich an anderer Stelle eingesetzt habe. Lediglich dazu, dass eine Ablösung durch SSD "droht", sollte mal in den Artikel - aber das hat nix mit den Kapazitäten zu tun. --TheK? 20:16, 16. Mär. 2008 (CET)Beantworten

Ich denke schon, dass der Bezigs zum Mooreschen Gesetz bleiben soll, da dieses ebenfalls ein exponentielles Wahstum vorhersagt und es sich durchaus um verwandte Gebiete handelt.
Aber Tomakos Aussage, dass das so weiter gehen wird halte ich auch für Theoriefindung, vor allem, weil es im Moment eher so ausschaut, wie wenn das nicht mehr so weiter gehen würde. --MrBurns 20:36, 16. Mär. 2008 (CET)Beantworten
@TheK: Die Aussage zu Moore´s Law stammt nicht von mir und auch ich sehe diese Aussage kritisch, da der Zusammenhang einen Beweis entbehrt. Deine Aussage jedoch, dass man in einer Enzyklopadie Werte einer Abbildung in einer Tabelle nicht gerundet darstellen kann, entbehrt jeglicher Grundlage. Ebensolches gilt für Trendfortschreibungen die Darstellen "was wäre wenn". Sie sind sehr wohl zulässig. Siehe z.B. Globale_Erwärmung#Prognostizierte_Erw.C3.A4rmung. Insofern ist auch dein nunmehr dritter Revert meiner Arbeit völlig unbegründet. Ich werde ein neuerliches Revertieren als unbegründeten und destruktiven Editwar verstehen. --Tomakos 22:43, 16. Mär. 2008 (CET)Beantworten
@MrBurns: Du verstehst die Aussage der Tabelle erneut falsch. Sie behauptet nicht (!) dass es so weiter gehen wird. Sie sagt nur wie es aussähe, wenn es weiterginge, wie in den letzten 30 Jahren. Das wird im Grunde unmißverständlich ausgedrückt, incl. der Annahme, dass es wohl fraglich ist, dass es unverändert weitergehen wird. --Tomakos 22:43, 16. Mär. 2008 (CET)Beantworten
Nicht alles, was hinkt, ist ein Vergleich. Mit Zukunftsprognosen zum Klimawandel wird man in jedem Revolverblatt bombardiert, das ist also keine _eigene_ Forschung (auch wenn die eines Journalisten nicht wirklich besser ist). Wenn das mit Moore nicht von dir ist, dann bitte Quelle angeben. Übrigens ist es im Streitfalle üblich, ERST zu diskutieren, dann die Änderung wie der rein zu setzen. --TheK? 22:48, 16. Mär. 2008 (CET)Beantworten
Meine Angaben sind auch keine eigene Forschung, aber das willst du einfach per Entscheidung nicht begreifen. Das von Moore ist nicht von mir. Ich habe es nicht geschrieben. Also habe ich auch keine Quelle. Das wäre dir klar geworden, wenn du meine anmerkungen genauer lesen würdest, anstatt dich mit dem revertieren zu beschäftigen. es wurde hier 5 tage lang diskutiert, du hast dich nicht beteiligen wollen. jetzt steht der teil wieder drin und es ist nunmehr richtiger ERST hier eine entscheidung zu finden und DANN ggf. meine arbeit zu revertieren. hör endlich auf. --Tomakos 22:55, 16. Mär. 2008 (CET)Beantworten
Wo wurde hier bitte diskutiert? Hier haben genau 2 Leute zu deinem Vorschlag was gesagt - und beide haben das ganz als TF bezeichnet. --TheK? 23:17, 16. Mär. 2008 (CET)Beantworten
+1 Der erste Satz gibt genau wider, was schon im Abschnitt vorher steht. Der Rest ist redundant zu der Graphik und verliert sich in statistischen Erörterungen, die dem Artikel nichts bringen. Die Aussagen zur zukünftigen Entwicklung sind spekulativ und damit TF. In einer Enzyklopädie wird beschrieben was ist und nicht was sein könnte. --Phoinix 23:29, 16. Mär. 2008 (CET)Beantworten
Dass die Entwicklung der Speicherkapazität genauso wie moore's law einem exponentiellen Gesetz entspricht, sieht man schon an der Grafik, noch besser sicht man das in der Grafik vom englischen Artikel. Selbst die Verdopplungszeit von ca. 1,5 Jahren entspricht in etwa moore's law. Da der expoonentielle Verlauf in der Vergangenheit bis ca. 2005 klar erkennbar ist, ist das keine TF. --MrBurns 23:54, 16. Mär. 2008 (CET)Beantworten
Richtig und das steht schon im Abschnitt Speicherkapazität. --Phoinix 23:58, 16. Mär. 2008 (CET)Beantworten

Baugröße der WD3000GLFS "VelociRaptor"

Ich bin nicht der Meinung wie TheK, dass es "einfach nur" eine 2,5-Zoll-Platte mit Einbaurahmen ist. In meinen Augen ist es schon wesentlich im Abschnitt "Baugrößen", dieses Gerät zu erwähnen, nicht weil es eine Platte mit Einbaurahmen ist, sondern weil es deutlich macht, das man zwar gerne weiterhin eine 3,5-Zoll-Platte (eine Desktop-typische Baugröße) verkauft, man aber aus Performanzgründen in zunehmendem Maß mehr oder weniger auf 2,5 Zoll angewiesen ist. Und so wie ich das sehe, ist dies das erste Modell, bei dem das von Haus aus (bei Soho-Modellen) so gemacht wird, daher ist es erwähnenswert.--Sixot 13:49, 7. Mai 2008 (CEST)Beantworten

Was bitte (außer Marketing-Gefasel [wozu ich auch die Garantiebeschänkung zähle] unterscheidet das Ding von einer 2,5" mit Einbaurahmen? --TheK? 13:53, 7. Mai 2008 (CEST)Beantworten
Eben genau, dass es kein "Marketing-Gefasel" ist (was auch erst noch nachzuweisen wäre, eine Garantiebeschränkung ist kein Gefasel), sondern wie ich bereits erwähnte die Notwendigkeit, Festplatten selbst für den Desktop-Bereich aus Performanzgründen nun kleiner bauen zu müssen. Außerdem habe ich nicht abgestritten, dass es eine 2,5-Zoll-Platte mit Einbauraumen ist, sondern ausdrückliches Augenmerk darauf legen wollen, dass dies nun notwendigerweise so ist. Und das unterscheidet sie von anderen 2,5-Zoll-Platten mit Einbaurahmen.--Sixot 23:34, 9. Mai 2008 (CEST)Beantworten
Die VelicoRaptor hat zwar 2,5"-Platten, passt aber nicht in einen 2,5"-Festplattenschacht, weil sie zu dick für einen solchen ist. Im Desktopbereich ist es nur bei den Raptoren, die mit 10.000rpm drehen notwendig, 2,5"-Platten zu verwenden und dass es diese seit Jahren gibt und es noch immer die einzige 10.000rpm Desktop-HDD ist zeigt, dass die Zeit für derartig schnelle Drehzahlen noch nicht reif ist. die "normalen 7.200rpm Festplatten sowie die "langsamen" 5.400 rpm verwenden noch immer 3,5"-Platten. --MrBurns 19:13, 6. Jun. 2008 (CEST)Beantworten

Die Baugröße dieser Festplatte, ohne Ice-Pack entspricht dem von 2,5er SAS-Festplatten. Des letzteren beabsichtigt WD für den Server-Markt die Festplatte ohne Ice-Pack mit SATA-II Anschluß zu bringen. --Nanaki77 24.07.08

Datensicherheit, Datenschutz

Bei der Darstellung in diesem Absatz fehlt der Hinweis, das ganze Festplatten oder einzelne Partitionen auch cryptographisch verschlüsselt werden können. Diese Partitionen werden dann mit einer entsprechenden Software (z.B. TrueCrypt als Open Source Lösung)und dem korrekten Passwort als ganz normales Laufwerk gemountet und "on the fly" ver- oder entschlüsselt. Dies macht besonders bei externen Speicherlösungen Sinn, die herumgetragen und damit auch verloren oder schlimmer gestohlen werden können. TrueCrypt kann z.B. als portable Version auf einem kleinen nicht verschlüsselten Bereich der Festplatte installiert sein. Dann kann man in der verschlüsselte Partition auch auf Rechnern lesen und schreiben die gar kein TrueCrypt installiert haben.

Rechenbeispiel

Ich habe untenstehendes Rechenbeispiel wieder entfernt, weil ich im Rahmen einer Enzyklopädie die Angabe der "Vorbeiflieggeschwindigkeit der Köpfe" für nicht sinnvoll erachte. Ausserdem gibt es inhaltliche Fehler, z.b. stimmen die 29,3 cm nicht, die Kopfentfernung vom Rotationspunkt und damit die berechnete Geschwindigkeit ist weiterhin nicht konstant und die Angabe des Durchmessers in cm der Formel ist für Festplatten unüblich. Das alles ist aber unwichtig, weil die Geschwindigkeit letztlich keine Aussagekraft hat - gleiches könnte man für jeden rotierenden, sich in der Wikipedia beschriebenen Gegenstand berechnen.

Der entfernte Abschnitt, falls die Mehrheit doch für das Wiedereinfügen sein sollte:

Alte IBM-Festplatte

Aus welchem Jahr ist denn die „alte IBM-Festplatte“? -- Pemu 21:01, 11 November 2005 (CET)

    hab selber so eine, Produktionsjahr ist 1979 -- yeats

Festplatte defekt?

Hierzu fehlt noch etwas zu den folgenden Themen: MTBF, Unterscheidung physikalisch defekt bwz. nur Dateisystem zerschossen, Vorgehen im Falle von Fehlern (SMART auslesen, Partitionen sichern, dd_rescue, fsck)

Der Link "Informationen zu aktuellen Festplatten und Tipps" sollte gelöscht werden, er verweist auf eine Werbeseite mit informationsarmen Alibiartikeln.

Wer hat ein flexibles Material?

In der Einleitung steht: "Die hoch suszeptible Magnetschicht ist auf starren, rotierenden Scheiben aufgebracht, im Gegensatz zur Diskette, deren Scheibe aus einem flexiblen, suszebtiblen Material besteht". Da ich annehme, die Diskette hat dieses flexible Material, würde ich diese Page umschreiben, z.B: "Die hoch suszeptible Magnetschicht ist auf starren, rotierenden Scheiben aufgebracht. Dies unterscheidet eine Festplatte maßgeblich von einer Diskette, deren Scheibe aus einem flexiblen, suszebtiblen Material besteht."

Weiche Scheibe harte Scheibe, das spielt keine Rolle

Es geht nicht um die Magnetschicht, das sind nur Partikel, der Träger ist bei der Festplatte starr, eine Glas oder Metallscheibe und bei Disketten ist es ein Kunststoff, der diese magnetisierbaren Partikel trägt (aufgedampft). Das ist beim Rotieren völlig unwichtig, das ist nicht wirklich "maßgeblich", das wäre zum Beispiel, die Vollkäpselung einer Festplatte, die maßgeblich anders ist, als die Festplatte und nicht der Träger auf dem das Material aufgetragen ist.

Massensuszeptibilität versus Suszeptibilität

Das lieg leider an der Beschreibung für Suszeptibilität, man hätte sicherlich auch den Satz "Als Massensuszeptibilität hingegen bezeichnet man die Suszeptibilität pro Dichte" hineinschreiben können, das hätte das Phänomen exakter beschrieben, "hoch suszeptibel" heißt nichts anderes, als dass dort die Metallpartikel eine besonders steile Hysterese haben, die sich im Ummagnetisieren bemerkbar macht. Sicher könnte man auch schreiben das die Metallpartikel eine steile Ummagnetisierungskurve haben, aber was würde das mehr aussagen? Wenn man das weiß, dann kann man auch die Geräusche der Festplatte beim Beschreiben zuordnen, denn die entstehen durch das Ummagnetisieren, nicht durch den Finger selber der sich bewegt.

Hier erlebt man das gleiche wie in der Uni, wenn man mal ein bischen den Horizont erweitern muss und was anderes nachzulesen hat, dann werden die Stimmen gegenüber den Dozenten laut: "Ach, bloß nicht so schwer!"

Was die Einleitung anbetrifft so ist diese wesentlich genauer und auch abstrakter, dafür beschreibt sie genau alle Eigenschaften, die vorher nicht drin standen wie das "binäre" usw. Ich habe da auch mal Ordnung reingebracht und Überschriften angefertigt, dann noch Texteile thematisch zugeordnet, die völlig verworren verteilt waren, das waren schon einige Stunden Arbeit. Sicherlich lässt sich da noch dran feilen, und das mit dem "Beschreiben der Oberfläche" könnte man auch noch in die Einleitung bringen, ist aber äußerst ausführlich in "Technischer Aufbau und Material der Scheiben" beschrieben. Mfg, JohTzs

Ausfallwahrscheinlichkeiten bei RAID 0

Alter Text: Ein Stripeset (RAID 0) aus zwei Festplatten erhöht zwar die Geschwindigkeit, jedoch addiert sich das Ausfallrisiko.

Geändert in: Ein Stripeset (RAID 0) aus zwei Festplatten erhöht zwar die Geschwindigkeit, jedoch steigt auch das Ausfallrisiko.

Die einfachere Formel für n Platten benutzt die 'Überlebenschance': Überlebenschance=Überlebenschance_1*Überlebenschance_2*..*Überlebenschance_n


Das korrekte (und komplizierete) Ausfallrisiko ergibt sich bei n Platten zu: Ausfallrisiko=1-(Überlebenschance_1*Überlebenschance_2*...*Überlebenschance_n)

Alterung und Datensicherheit

Ins Kapitel Datensicherheit sollte noch ein Absatz über Alterung durch allmähliche Abnahme der Magnetisierung.

Dummerweise habe ich nirgends verlässliche Daten dazu finden können ...

Korrektur Plattenkapazitäten

Ich besitze einige alte Festplatten und habe desshalb ein paar Korrektur-Vorschläge:

Jahr; Formfaktor; Kapazität; Firma/Modell; Quelle

1981; 5,25"; 10 MByte; Seagate ST-412

1987; 5,25"; 330 MByte; Maxtor XT-4380E; Eigener Besitz

1987; 3,5"; 20 MByte; Fuji FK309-26; Eigener Besitz

1990; 5,25"; 676 MByte; Maxtor XT-8760E; Eigener Besitz

1990; 3,5"; 106 MByte; Conner CP3104; Eigener Besitz

1992; 5,25"; 2000 MByte; Digital DSP-5200S 'RZ73'; Eigener Besitz

1992; 3,5"; 426 MByte; Seagate ST1480A; http://www.winhistory.de/downloads/dateien/werbung92.zip

1992; 2,5"; 122 MByte; Conner CP2124; Eigener Besitz

1995; 5,25"; 9100 MByte; Seagate ST410800N 'Elite 9'; Eigener Besitz

1995; 3,5"; 1600 MByte; Conner CFS1621A;

1995; 2,5"; 422 MByte; Conner CFL420A;

1997; 3,5"; 16800 MByte; IBM DeskStar 16GP;

1997; 2,5"; 4800 MByte; Fujitsu MHH2048AT; Eigener Besitz

1999; 3,5"; 50000 MByte; Seagate Barracuda 50; PC-Direkt Ausgabe Dezember 1999

Könnte dies geändert werden?

Drehzahl

Im Artikel steht, dass die Drehzahl bis zu 15.000rpm beträgt. Es gibt doch aber SCSI-Festplatten mit 20.000rpm oder nicht?

Nie gesehen. Ist glaube ich technisch schon recht schwierig.

Mal abgesehen davon, dass es schwierig wird, in einem 3,5"-Gehäuse so einen starken Motor unterzubringen, würden derartige Laufwerke wohl auch laut udn schwer zu kühlen sein. --MrBurns 00:44, 22. Jan. 2009 (CET)Beantworten

Fehler in Baugrößen 2,5 Zoll letzer Satz

Dort steht zweimal 'Hersteller sind' hintereinander.

S.M.A.R.T.

S.M.A.R.T. Wird auch von SCSI/ SAS Platten unterstuetzt, nicht nur bei ATA Platten. Ist aber vom Controller abhaengig, ob diese Daten ausgelesen werden koennen (Firmwareversion, oder allgemein die Verwaltung der Laufwerke) Zudem sei noch zu erwaehnen, das SCSI Controller noch weitere Moeglichkeiten haben, die Festplatten zu ueberwachen. Bei ICP Vortex Controllern zum Beispiel wird die Anzahl der Fehler, die im Betrieb der Platte an dem Controller auftreten, aufgezaehlt.

Material Schreib/Lese Arm

Aus welchem Material ist der Schreibfinger oder Arm, an dem die Köpfe sitzen ?

Hab im Kopf, daß es sich dabei nicht um Alu, sondern um etwas anderes handelt, wegen Wärme / Ausdehnung.

1500 GB?

Thek hat mit der Bemerkung "Seagate hat jetzt doch nochmal nachgelegt." die Kapazität bei 3,5" 2008 auf 1500GB korrigiertn, aber nachdem Thek keine Quelle angegeben hat und ich noch keine erhältliche 1500GB-Festplatte gefunden habe, habe ich wieder auf 1000GB zurückgesetzt. --MrBurns 23:12, 11. Jul. 2008 (CEST)Beantworten

http://www.computerbase.de/news/hardware/laufwerke/massenspeicher/2008/juli/seagate_festplatte_15_tbyte/ --TheK? 23:15, 11. Jul. 2008 (CEST)Beantworten
Da steht aber noch nix darüber drin, ab wann sie im Handle erhältlich sein wird. Ich denke, man sollte, so wies auch fürher gemacdht wurde die 1500GB erst eintragen, wenn entsprechend große Festplatten wirklich im Handel erhältlich sind. --MrBurns 23:59, 11. Jul. 2008 (CEST)Beantworten

Plattermaterial Glas oder Alu

IBM/Hitachi verwenden seit Jahren Glasplatter und scheinen darauf auch ein Patent zu haben. Andere Hersteller verwenden Aluminiumplatter. Welche Vorteile und Nachteile ergeben sich dadurch ? --Nanaki77 21.07.08

Festplatte richtig löschen!

Wer kennt das nicht, man kauft z.b bei Ebay eine Festplatte und stellt fest das auf dieser noch Daten drauf sind. Scheinbar wird dieses Thema zuwenig behandelt. Dabei ist es eigentlich relativ einfach, da die Hersteller genannte Tools zum "Wippen" der Festplatte mitbringen, nach so einem Vorgang konnte ich bei einer z.b Hitachi Festplatte die Daten nicht wiederherstellen. --Nanaki77 21.07.08

Das heißt nich wippen, sondern wipen (von engl. to wipe). Im Artikel steht eh schon irgendwo, dass man Daten erst überschrieben muß, damit sie wirklich gelöscht werden. Ich hab mal einen Abschnitt hinzugefügt, dass man mehrmals überschreiben muß, damit die Daten auch mit Spezialhardware nicht mehr rekonstruierbar sind. --MrBurns 00:13, 22. Jul. 2008 (CEST)Beantworten

Die Hersteller-Tools "nullen" ja quasi die Festplatte, klar könnte man danach die Platte z.b mit H2testw vollschreiben lassen, und dann nochmal "nullen" wenn man auf Nummer sicher gehen will.

--Nanaki77 22.07.08

Nee, nur nullen bringt nichts. Dann braucht man ja nur zu schauen, ob noch von null verschiedene Reste auffindbar sind. Es müssen schon Zufallsmuster aufgebracht werden. Und das mehrfach, und am liebsten so, dass der Kopf mal von niedrigen zu höheren Spuren vorrückt und mal andersrum, damit er innerhalb der Spur auch mal mehr die linke und mal die rechte Seite erwischt. Wenn man das alles oft genug macht, kann man sich irgendwann einigermaßen sicher fühlen. Dann kommen aber immer noch die Leute, die behaupten, dass man in tieferen Schichten der Magnetisierung (also mit einem speziellen Lesekopf, nicht dem normalen) vielleicht doch noch was finden kann. Ich bin da ein bisschen skeptisch, will aber nichts Falsches behaupten. - Was auch noch eine Falle darstellen soll, sind nicht vollständig neu beschriebene Sektoren am Ende von Dateien. Angeblich wird beim Schreiben so ein Sektor erst gelesen, und wenn dann nur die paar ersten Bytes in diesem Puffer mit neuen Daten überschrieben werden, dann könnten diese alten Daten gerade wieder auf der Platte landen. Ich glaube das nicht so ganz, wieso sollte man jeden Sektor nochmal unnötigerweise lesen? Egal, das hört man. Der Pufferinhalt kann ja auch noch von anderen vorangegangenen Leseaktionen übrig sein oder so. Also muss Löschsoftware, die eine Platte nicht komplett bügeln soll, sondern nur deren freie Bereiche, auch diese Dateienden als freie Bereiche ansehen und mit Zufallsdaten überschreiben, halt ohne den relevanten Anfang dabei zu stören. --PeterFrankfurt 23:12, 22. Jul. 2008 (CEST)Beantworten
Es gibt auch eine ganze Menge Experten, die sagen, dass bei heutigen Platten so ein Auslesen über Restmagnetisierung überhaupt nicht mehr möglich ist, da sich die winzigen Felder so stark beeinflussen, dass sie sowieso stark schwanken. --TheK? 00:32, 26. Jul. 2008 (CEST)Beantworten

Dafür müßte aber man wissen, wie die Hersteller Tools die Platte quasi nullen. Solange man das nicht weiß, ist man nicht in der Lage zu beurteilen, ob eine derartige Löschung nun ausreicht oder nicht. Ich selbst kann nur sagen, das ich mit Datenrettungstools (verschiedene) keine Daten mehr wiederherstellen konnte, weil nichts gefunden worden ist. Und wer von uns arbeitet schon in einem speziellen Labor, um das dahingehend nachzutesten. Sicherlich niemand, also fehlt der praktische Nachweis dazu. Für die meisten dürfte die Art Löschung ausreichend sein. Für die die auf Nummer sicher gehen wollen, können ja DBAN oder andere Tools verwenden. Und für defekte Festplatten, wo man an die Daten nicht mehr drankommt, selbst im Fall von vollen RMA-Festplatten, hole ich meinen Magneten raus. Im Fall einer defekten Samsung F1 ging ist so vor, weil da massig Daten drauf gespeichert wurden, als die Platte quasi verreckt und zerstöre die Daten incl. Platter dauerhaft ! Zwar solls Hersteller geben die versuchen die Platten zu reparieren, was in diesem Fall nicht mehr möglich ist. Aber sensible Daten gehen halt nun mal vor, und was defekt ist ist halt defekt. Platten die endgültig entsorgt werden behandel ich damit auch vor. Bei Hitachi Platten reicht es aus die (Glas)Platter zu zerstümmern, da wird wohl keiner auf die Idee kommen, einen zerstörten "Spiegel" zusammenzusetzen und versuchen die Daten auszulesen. Dürfte auch technisch fast unmöglich sein. Wärend man andere Scheiben noch mit einem Laser abstasten könnte.

--Nanaki77 23.07.08

Es hängt halt davon ab, was amn für Daten auf der Platte hat. Es ist durchaus möglich,d ass nicht nur Geheimdienste, sondern auch Datenrettungsfirmen mehrmals überschirebene Daten wiederherstellen können. Es gibt aber auch Herstellertools, die einen richtigen "wipe", also mehrfaches Überschreiben der Daten ermöglichen. Das hängt halt vom Hersteller ab (wobei manche Herstellertools auch mit Festplatten von anderen herstellern funktionieren). Ob es technishc unmöglich ist, Daten von zertrümmerten Glasplatter wiederherzustellen ist eine interessante Frage, man kann ja schließlich die Teile einzeln einscannen. Aber wie schauen diese Glasplatter aus? Wenn die Trümmer tatsächlich wie ein Spiegel ausschauen, sollte es für alle, die nicht geheimdienstlich überwacht werden ausreichen, die Trümmer einfach getrennt von dem Laufwerk in den Müll zu werfen... --MrBurns 21:54, 23. Jul. 2008 (CEST)Beantworten

Die Splitter spiegelten jedenfalls, die ich aus der bereits defekten Festplatte entnommen hatte. Was die Festplattentools angeht, können diese quasi auf "Low-Level" Ebene löschen, also Bootsektor, MFT etc. wo man evt. noch einen Asnatz der Datenstruktur hätte. --Nanaki77 24.07.08

Parken auf Rampe oder Scheibe

Hersteller wie Hitachi und WD legen Ihre Köpfe bei den 3,5 Zoll Desktop Festplatten auf einer Rampe ab. Seagate und Samsung dagegen auf einem Leerbereich des Platters. 2,5 Zoll Notebook Festplatten verfügen alle über eine Rampe. Bei 2,5 und 3,5 Serverplatten ist es gemischt, einige verwenden sie und andere wiederum nicht. IBM/Hitachi waren die ersten Hersteller die auf eine Rampe gesetzt haben. --Nanaki77 21.07.08

Kann man Festplatten mit einem Neodym-Magneten zerstören ?

Vor einigen Monaten lief,Planetopia bei Sat.1 . Die Sendung wollte Eindrucksvoll beweisen, das man mit einem Magneten keine Festplatte löschen kann. Leider mag dies nur z.t stimmen, man muß lediglich den Magneten auf der Festplatte kreisen lassen. Die Festplatte ist danach garantiert schrott, und die Daten unwiederherstellbar. USB-Sticks wie auch SSDs, oder auch DVD-RAMs speichern Ihre Daten nicht magnetisch ab, daher können sie mit einem Magneten nicht gelöscht werden. --Nanaki77 22.07.08

Festplatten der Zukunft und lange Sektoren

Man plant in Zukunft die Festplattensektoren zu verlängern, bisher ist davon nichts zu sehen. Ich denke aber das die Vorteile dadurch, sich auch in der Zugriffszeit positiv bemerkbar machen könnte. Momentan steigert sich zwar laufend die Datendichte der Festplatte, aber dadurch wird es auch für die Mechanik immer aufwendiger die einzelnen Sektoren anfahren zu können, womit sich die Zugriffszeit je nach der Präzisionsarbeit des Herstellers immer weiter verschlechtert. --Nanaki77 22.07.08

Stand August 2008 ?????

Der aktuelle Stand ist, das es noch keine Festplatte mit langen Sektoren gibt. Aus News in diesem Bereich ist aber ersichtlich das die geplant ist, und in Zukunft dann wohl auch umgesetzt wird.

--Nanaki77 24.07.08

Ich denke, der Grund dafür ist, dass mn bei herkömmlichen DOS-Partitionen mit 512-Byte-Sektoren nur max. 2TB addressieren kann (weil max. 2^32 Sektoren). Es gibt zwar eine Alternative, die diese Grenze nicht hat, aber die wird bei weitem nicht von allen Betriebssystemen unterstützt (z.B. bei Windows erst ab Vista). Wenn man z.B. 1024-Byte-Sektoren hat, dann steigt die Grenze auf 4TB. Die absolute Obergrenze für DOS-Partitionen ist soviel ich weiß 8TB, dafür braucht man Sektoren, die Min. 2048 Bytes groß sind.
Im Prinzip sind aber auch 2048 Bytes bei weitem noch klein genug, weil die Standardclustergröße bei NTFS ist 4kB, bei FAT32 höher (ab 32GB Partitionmsgröße sinds 32kB). --MrBurns 01:45, 24. Jul. 2008 (CEST)Beantworten

Es scheint aber wohl um die Sektoren zu gehen, die bei jeder Festplatte (Werkseitig) gleich sind. Ohne das da überhaupt ein BS drauf ist, und diese will man ja technisch gesehen verlängern, soweit ich das entnehmen konnte.

--Nanaki77 24.07.08

Ich meine auch die Sektoren. Prinzipiell wird die Größe der Sektoren von der Firmware der Festplate bestimmt. Aber jedes Dateisystem braucht die Sektoreneinteilung, es werden halt mehrere Sektoren zu sog. Clustern zusammengeschlossen. 1 Sektor ist die kleinste mögliche Größe eines Clusters. Die Partitionstabelle ist aber unabhängig vom Dateisystem und damit unabhängig von der Clustergröße, weil es kann ja jede Partition ein anderes Dateisystem haben. Davon, dass eine DOS-Partitionstabelle nur max. 2^32 Sektoren addressieren kann, kommt die maximale Größe der ganzen Platte von 2TB bei 512 Byte Clustern, 4TB bei 1024 Byte Clustern, 8TB bei 2048 Byte Clustern. Es srtimmt zwar, dass derzeit die Sektoren bei allen festplatten 512 Bytes lang sind,a ber es gibt nichts, was die Festplattenhersteller darin hindert, die Cluster länger als 512 Bytes zu machen, nur ist das bis jetzt nicht notwendig (die größte Festplatte bis jetzt hat 1,5TB und bei einem RAID-Controller kann man wahrscheinlich die Sektorengröße in diesem einstellen, weil bei einem RAID-Controller greift das OS ja auf den Controller zu und nicht mehr direkt auf die Festplatten). --MrBurns 00:55, 25. Jul. 2008 (CEST)Beantworten

SATA-II -> SATA-I nicht kompatibel !

Woran liegts das SATA-II Festplatten, an SATA-I nicht kompatibel sind, bzw. erst durch eine erfolgreiche Umstellung des Übertragunsmodus fehlerfrei laufen. Die Probleme scheinen bei SAS/SCSI/ATA nicht existent zu sein.

--Nanaki77 24.07.08

Eigentlich sind sie es - nur einige SATA-I-Controller sind nicht aufwärtskompatibel (warum auch immer). --TheK? 00:28, 26. Jul. 2008 (CEST)Beantworten
Nachdem der SATA-II-Standard logischerweise erst nach dem SATA-I entstanden ist gibts dafür nur 2 sinnvolle erklärungen:
1. Nicht alle SATA-I-Controller haben sich genau an den Standard gehalten.
2. Bei der SATA-II-Spezifikation wurde irgendwas verbockt bzw. die SATA-I-Kompatibilität nur unzureichend implementiert. --MrBurns 00:31, 26. Jul. 2008 (CEST)Beantworten

Ich denke 1. da es scheinbar am Intel ICH-5R keine Probleme mit SATA-II Festplatten gibt, im Gegensatz zu SATA-I Controllern von VIA und Nvidia und Promise.

--Nanaki77 3.8.2008

Antrieb

welche Art von Motor treibt die HD an ? da dass Feature nicht banal ist gehört es mit eigenem Absatz in den Artikel. HH 29.07.08 10:55

Ein Elektromotor. Soviel ich weiß ein Gleichstrommotor, mit 12V oder 5V. 5V werden glaub ich aber nur bei Platten mit 2,5" oder weniger verwendet. Bei sehr kleinen Festplatten (z.B. den [Microdrive]]s, die aber selten geworden sind, das sie vom Flash-Speicher verdrängt werden) könnten vielleicht noch kleinere Spannungen verwendet werden, allerings weiß ich nicht, was derartige Festplatten für Spannungen verwenden. Zusätzlich gibt es noch einen Schrittmotor, der den Schreib/Lesekopf bewegt. --MrBurns 00:59, 30. Jul. 2008 (CEST)Beantworten
In der englischen Wikipedia wirds anhand eines Beispiels genauer erklärt. Der Motor dürfte ähnlich aufgebaut sein wie bei einem normalen Gleichstrom-Axiallüfter. --MrBurns 01:13, 30. Jul. 2008 (CEST)Beantworten

Der DC Motor sollte technisch gesehen Bürsten/Kollektorlos sein. Die Spindel sollte sich durch ein ledigliches Magnetfeld von Spulen im inneren des Motor bewegen. Baut die das Magnetfeld nicht auf dreht der Motor nicht. Auch 3,5 Festplatten arbeiten mit 5V und 12V. Hitachi Platte hat jedenfalls 4 Adern die zum Motor führen. Möglich das mit 12V der Spindelmotor angetrieben wird, und mit 5V der Schrittmotor.

--Nanaki 31.7.08

Wie positioniert sich der Schreib-Lese-Kopf?

Woher weiß der Schreib-Lese-Kopf, dass er den richtigen Block angefahren hat? Funktioniert es vielleicht über en:Self-synchronizing codes? Was ich mir nicht vorstellen kann, ist, dass die Mechanik einer Festplatte so präzise ist, dass ein angeforderter Block stets exakt "blind" angefahren wird. --Abdull 20:30, 7. Aug. 2008 (CEST)Beantworten

TLER

Dieses betrifft i.d.r Festplatten die für ein Raid-Betrieb angeboten werden. Für Raid-0 bzw. Einzelbetrieb sind diese Platten nur bedingt geeignet wg. TLER. Bei WD Festplatten kann, man es mittels eines Tools aktivieren/deaktivieren. Bei Platten ohne TLER im Raid-Betrieb besteht die Gefahr, das im Fehlerfall die Platte aus dem Array geworfen wird, was weitere Konsequenzen haben könnte. Und hier setzt TLER an.

--Nanaki 16.08.08

Festplatten der Zukunft

Hallo, ich wollte fragen, ob jemand weiß, wie denn die Festplatten in der Zukunft von Größe und Speicherverhältnis aussehen könnten; ob es also sein kann, dass es in den nächsten Jahren z. B. iPods mit ein paar TB gibt? Danke --Intelligenz No. 3 17:13, 10. Dez. 2008 (CET)Beantworten

Bis jetzt lauft wächst die Speicherkapaiztät exponentiell (siehe Mooresches Gesetz) mit einer Verzehnfachung ca. alle 5 Jahre. Steht auch im Artikel. Allerdings weiß keiner genau, wie lange dieser Traned noch anhalten kann, derzeit ist die Entwicklung nur bsi zu einigen Terbyte bei 3,5"-HDDs halbwegs gesichert. Für mehr wird man neue technologien brauhcen, z.B. HAMR. --MrBurns 23:49, 11. Dez. 2008 (CET)Beantworten
Ah, danke. Dem Link nach wird also noch daran geforscht. Hoffentlich dauerts nicht mehr so lang ;) Unbegrenzt Speicher ... (grins)

Keine Physikalischen Infos

Mir fehlen hier ganz eindeutig Informationen, wie der Schreib- und Lesevorgang aus physikalischer Sicht abläuft. ––AndreR 00:48, 19. Dez. 2008 (CET)Beantworten

Das in dem Unterkapitel Festplatte#Die Schreib-Lesekopfeinheit (und den Links darin) reicht Dir nicht? Das einzige, was ich dort nicht erläutert sehe, ist die Anordnung hinsichtlich "normalem" und "vertikalem" Schreiben von Bits, das findet sich dann in einem Link weiter unten auf Perpendicular Recording. --PeterFrankfurt 03:45, 19. Dez. 2008 (CET)Beantworten

Angabe zur "Datenschreibrichtung" ?

Wie sieht es bei Festplatten mit der "Schreibrichtung" aus? Ich nehme an, dass die Daten von außen nach innen beschrieben werden, weil die Geschwindigkeit außen ja höher sein müsste. Also genau umgekehrt wie bei den optischen Medien wie CD und DVD. Wenn einer genauer etwas dazu weis, vor allem ob es schon immer so war, oder ab einen bestimmten Zeitpunkt es sich geändert hat, der möge bitte dies ergänzen. Danke

Ich weiß zu 100%, dass alle heute üblichen magnetischen Datenträger (inkl. 3,5"-Diskette) von außen nach innen beschrieben werden (sieht man auch gut bei einigen Benchmarks, z.B. hdtach). Seit wann dem so ist weiß ich jedoch nicht genau, aber es ist mindestens seit den 1980ern so, vielelicht auch schon länger. --MrBurns 21:18, 23. Dez. 2008 (CET)Beantworten
Ich glaub jetzt, mich erinnern zu können, mal gelesen zu haben, dass es selbst bei den ersten Diskettenlaufwerken von Shugart im Jahre 1969 so war, aber sicher bin ich mir nicht. --MrBurns 21:22, 23. Dez. 2008 (CET)Beantworten

maximale Dateigrösse erwähnen

kann man vll noch schreiben wie gross die maximale Dateigrösse ist? also 6,x gb gehn unter NTFS Standardgrösse nimmer.... ich hab nur keinen Peil was wie geht (nicht signierter Beitrag von 91.0.60.2 (Diskussion)) 00:15, 7. Jan. 2009 (CET)Beantworten

Nee, das ist hier der falsche Platz: Die max Dateigröße hat rein gar nichts mit der jeweiligen Festplatte zu tun, sondern mit dem Dateisystem (Teil des Betriebssystems, z. B. das von Dir erwähnte NTFS), unter dem diese Platte betrieben wird. --PeterFrankfurt 01:40, 7. Jan. 2009 (CET)Beantworten
NTFS unterstützt bis zu 16 TB Dateigröße, selbst bei der Standardclustergröße sollte das Maximum also noch im TB-Bereich sein. Wenn keine Dateien >6GB erstellt werden können, dann wird das eher an Windows oder dem Programm, mit dem du die Dateien erstellst liegen. --MrBurns 16:59, 7. Jan. 2009 (CET)Beantworten

Überflüssig

'Auf einer Festplatte können beliebige Daten gespeichert werden: Sowohl Dateien des Betriebssystems des Computers oder auch andere, etwa durch Anwendungsprogramme erzeugte persönliche Daten, welche dauerhaft gespeichert werden.'

Auf jedem Speichermedium kann man alles speichern. Deswegen ist dieser Absatz ohne Sinn. --Sgop 11:43, 28. Feb. 2009 (CET)Beantworten

Vielleicht könnte man ja Sinngemäß schreiben "Die Art der zu speichernden Daten ist dabei nicht von Belang" oder dergleichen. Ich sehe den Absatz zwar nicht "ohne Sinn", wohl aber denke ich auch, dass er Überflüssig ist. Zumal die "nebensächliche" Erwähnung der dauerhaften Datenspeicherung hier irgendwie fehl am Platz wirkt. AndrewPoison 12:49, 28. Feb. 2009 (CET)Beantworten

Datentransfergeschwindigkeiten

- hierüber findet sich gar nichts im Artikel... --Itu 05:19, 11. Mär. 2009 (CET)Beantworten

Die schnellsten 7.200 rpm HDDs schaffen im Moment soviel ich weiß ~120 MB/s am äußerden Rand, nach innen nimmt die Übertragumngsrate ab. Der Durchschnitt ist glaub ich ~100 MB/s, das Minimum ganz innen ~60 MB/s. 10.000 rpm-HDDs (z.B. Western Digital VelociRaptor) schaffen teilweise noch ein bissi mehr (max. ~130 MB/s, durchschnitt ~110 MB/s, min. ~80-90 MB/s, siehe google Bildersuche). alle zahlen sind auf sequentielles Schreiben und Lesen bezogen, bei random read/write sind die Datenübertragungsraten viel niedriger, weil dann die Zugriffszeit die HDD ausbremst. --MrBurns 01:41, 19. Mär. 2009 (CET)Beantworten

"Luftpolster und Bodeneffekt" Blödsinn?!

Jeder, der einmal eine Festplatte zerlegt hat kann sich sehr einfach davon überzeugen, dass der Lesekopf vom Zugriffsarm auf die Platte gedrückt wird. Anders ausgedrückt: Der Zugriffsarm ist eine Stahlfeder, die den Kopf Richtung Plattenoberfläche presst. Der Lesekopf selber besteht aus einem sehr glatten (Plastik?-)Material, welches die Platte (durch die Federwirkung zumindest im Stillstand und beim Anlaufen) berührt. Fest an diesem ist der eigentlich magnetische Kopf befestigt und zwar so, dass er knapp über der Platte schwebt (ansonsten würde das zu einer Beschädigung des Lesekopfs bei Stillstand oder Anfahren führen).

Also - entweder das mit dem Luftposlter gehört ins Reich der Mythen und Legenden, oder es wäre günstig, wenn im Artikel genauer erklärt wird, wo genau dieses Luftpolster zwischen Lesekopf und Platte auftritt.

Mir sinnvoll erscheinende Erklärungen:

  • Luftpolster ist Legende; das glatte (Plastik?-)Material am Lesekopf gleitet über die Platten und hält den fest damit verbundenen Lesekopf auf Abstand. Dies scheint mir bei *Disketten*laufwerken generell der Fall zu sein.
  • Luftpolster bildet sich zwischen dem (Plastik?-)Material und den Scheiben erst beim Drehen aus. Durch Luftreibung bei der hohen Drehgeschwindigkeit wird dabei die Federkraft des Zugriffsarmes überwunden, so dass das Plastik-Material geringfügig von der Plattenoberfläche "abhebt". Dies bedeutet aber, dass auch ohne das Luftpolster der eigentliche magnetische Kopf NICHT auf der Platte aufliegt, sondern lediglich näher dran ist.

Falls die Frage nicht beantwortet werden kann, könnte experimentell versucht werden, eine Festplatte im Vakuum zu betreiben (z.B. bei 1mbar). Die Lebensdauer müsste sich drastisch verkürzen, wenn das Luftpolster im Normalbetrieb notwendig ist. Alternativ könnte ein falscher Abstand des Lesekopfes im Vakuum zu Lesefehlern führen. (nicht signierter Beitrag von 93.133.219.40 (Diskussion | Beiträge) 01:47, 12. Apr. 2009 (CEST)) Beantworten

Also bei den Drehzahlen wäre ein permanenter Kontakt des Kopfs zur Plattenoberfläche Selbstmord. Bei einem Headcrash passiert ja genau das, mit entsetzlichen Folgen. Die Vorderkante des Kopfs ist anscheinend so geformt, dass er bei genügend Fahrtwind abhebt. Und der Bodeneffekt wirkt dann dagegen, damit er nicht zu weit abhebt, das ist dann wohl ein selbstregulierendes System. --PeterFrankfurt 23:07, 13. Apr. 2009 (CEST)Beantworten
Das ist übrigens auch der Grund, warum bei modernen Festplatten der Lesekopf immer außerhalb des Datenbereichs geparkt wird, selbst bei sofortigem Stromausfall mitten im Betrieb. Dazu gibt es einen Kondensator, der den Strom lange genug speichert, um den Parkvorgang zu Ende zu bringen. --MrBurns 13:53, 14. Apr. 2009 (CEST)Beantworten
Anmerkung von PeterFrankfurt stimmt nicht ganz aber im englischen Wikipedia steht die Sache sehr genau erklärt. Siehe Kapitel "Integrity" --01:26, 16. Apr. 2009 (CEST)Beantworten

Festplattenkapazität weltweit?

findet jemand irgendwas darüber wieviel Festplattenkapazität in der Summe weltweit existiert? -
- hier gleich mal ein Schlaglicht zu Beginn: " 2006 beträgt die Gesamt-Festplattenkapazität der RapidShare-Server 360 Terabyte" --Itu 15:02, 7. Mai 2009 (CEST)Beantworten

Das kann man wohl schwer sagen, man müsste im Prinzip genau wissen, wie viel HDDs mit x GB für jedes x produziert wurden und dann hätte man zumindestens eine Obergrenze (weil einige wurden ja auch schon wieder verschrottet). Ich denke aber, es müsste sich irgendwo im Exa- oder gar Zettabytebereich befinden. --MrBurns 02:00, 12. Mai 2009 (CEST)Beantworten
Ich ahb was gefunden: die gsamte Speicherkapazität aller Datenträger (also auch DVDs, CDs, Flash-Speicher,...) wurde hier auf Seite 4 2007 auf 264 EB geschätzt, 2009 laut Grafik auf ~500 EB. Von den 264 EB 2007 waren 56% "Disk", da "Optical" eine eigene Kategorie ist und die Speicherkapazität der Disketten, MO-Datenträger,... wohl vernachlässigbar ist, kann man das praktisch mit den HDDs gleichsetzen und kommt dann also für 2007 auf ~150 EB Festplattenspeicher. --MrBurns 02:16, 12. Mai 2009 (CEST)Beantworten

Empfindlichkeit gegen Magnetfelder

Wie empfindlich sind Festplatten gegen Magnetfelder? Kann man die Festplatte/ndaten von aussen mit einem Magneten zerstören? --Itu 18:19, 6. Apr. 2009 (CEST)Beantworten

Ja, kann man. Aber da gibt es widersprüchliche Angaben. Einerseits gibt es Berichte, wie wilde Magnetfelder den Daten rein gar nichts anhaben konnten, andererseits, wie manchmal unscheinbare Einflüsse (angeblich) schon zerstörerisch gewirkt haben sollen. Beispiel für Letzteres sind die Sicherheitsröntgenanlagen beim Flughafen-Einchecken, da sind nicht die Röntgenstrahlen die Gefahr, sondern angeblich die riesigen Netzteile für die Röntgenapparatur, deren Trafos wohl direkt unter dem Gepäcklaufband angeordnet waren und alles auf dem Laufband (unabsichtlich?) magnetisch durchwürfelten. Sprich, eine quantitativ haltbare Aussage ist hier wohl schwierig. --PeterFrankfurt 00:16, 7. Apr. 2009 (CEST)Beantworten
1 Tesla (z.B. die Stärke eines eher schwachen MRT) reichen aber sicher schon aus. Das Magnetfeld von einem CRT-Bildschirm hingegen wohl bestenfalls bei sehr langer Einwirkzeit. --MrBurns 13:49, 14. Apr. 2009 (CEST)Beantworten

hm, aus welcher Quelle schöpfst du dieses Wissen? mfg --Itu 15:11, 7. Mai 2009 (CEST)Beantworten

Tja, und das mit der Einwirkzeit ist auch ein falscher Aspekt: Bei diesem Einfluss geht es nur darum, ob man die Hysteresekurve weit genug hochfährt, dass etwas sofort passiert, andernfalls passiert überhaupt nichts, auch nicht nach vielen Jahren Einwirkzeit. --PeterFrankfurt 03:04, 8. Mai 2009 (CEST)Beantworten
Ok, im Prinzip stimmt das, dass die Einwirkzeit vwenn man sich so eine Hysteresekurve anschaut eigentllich keinen Einfluß haben sollte. Also dürften CRT-Magnetfeldern HDDs überhaupt nichts anhaben, außer die Daten auf der HDD sind schon alt, weil dadurch verringert sich die Remanenz und damit auch die Koerzitivfeldstärke. Was die Aussage angeht, dass 1T reicht: es ist allgemein bekannt, dass man z.B. mit normalen Magneten für den Hausgebrauch HDDs löschen kann (ich meine jetzt nicht ultra starke Magneten), die haben deutlich unter 1T. --MrBurns 04:24, 8. Mai 2009 (CEST)Beantworten

allgemein bekannt ist das eben nicht: Quelle? -Und es wäre auch beängstigend. --Itu 04:15, 9. Mai 2009 (CEST)Beantworten

Wieso beängstigend? Man legt Festplatten ja normalerweise nicht auf Magneten ab. --MrBurns 01:54, 12. Mai 2009 (CEST)Beantworten

externe Festplatten sind stark verbreitet. und Magnete hat es auch überall. wenn es so wäre wie du sagst, wäre das katastrophal. Quelle? --Itu 03:48, 13. Mai 2009 (CEST)Beantworten

Externe Festplatten ahben ein zusätzliches Gehäuse, in dem möglicherweise auch eine Abschirmung für EM-Felder enthalten sein könnte. Und außerdem meinte ich sowas wie Kühlschrank-Magnete und nicht Magnete, die z.B. in Elektromotoren oder Lautsprechern eingebaut sind (die sind nämlich relativ schwach). Normalerweise weiß jeder, dass man z.B. Kühlschrankmagnete nicht auf Festplattn legen sollte, genauso wie niemand sowas auf Musikkassetten oder Videokassetten legen würde. --MrBurns 08:00, 13. Mai 2009 (CEST)Beantworten

Was ist ein Festplatten-Controller?

Hallo, im Artikel wird häufiger die Bedeutung von Festplatten-Controller gewechselt. Mal ist der Controller, der auf der Festplatte sitzt und deren Elektronik steuert usw gemeint, mal ist der Controller auf dem Mainboard gemeint. Eigentlich ist ein Festplatten-Controller eindeutig der Chip auf dem Mainboard, vor allem, weil der Controller-Chip auf der Festplatte doch für eigentlich keinen Computer-Benutzer relevant ist (für Datenrettungsunternehmen vielleicht nicht). --1668mib 19:39 07. Juni 2009 (CEST)

Nein, das ist noch ein bisschen anders. Heutzutage findet man auf dem Mainboard bezüglich Festplatten nichts mehr, was man als Controller bezeichnen könnte. Es sind reine Schnittstellenchips, die das Protokoll der Schnittstelle beherrschen, aber mit der Festplatte selbst und deren interner Organisation nichts am Hut haben. Ganz am Anfang, zu Zeiten von ST506, war das noch anders, da saß der Controllerteil, der heute fest auf die Festplattenplatine montiert ist, noch auf dem Mainboard oder auf einer Steckkarte, auf der neben diesem Controller dann das eigentliche Laufwerk kam (das dann trotzdem noch ein paar eigene Chips mitbrachte), siehe Bilder bei ST506. Also wie gesagt, heute ist da nichts an Controller auf dem Mainboard. --PeterFrankfurt 01:01, 8. Jun. 2009 (CEST)Beantworten
Der Controller auf dem Mainboard ist auch nur der Controller, der die Kommunikation mit der Festplatte übernimmt. Deshalb wird er auch als Festplatten-Controller bezeichnet, oder eben auch IDE- bzw heute SATA- oder wie auch immer Controller. Nur mal ist eben im Artikel bei Festplatten-Controller der in der heutigen Zeit zu erwartende SATA-Controller gemeint, mal ist der kleine Chip auf der Festplatte gemeint. Ich finde persönnlich, dass ein Festplatten-Controller ein Controller für Festplatten ist, genauso wie ein USB-Controller ein Controller für USB, ein FireWire-Controller ein Controller für FireWire usw ist. Jedenfalls ist dies nicht immer klar rauszulesen.--1668mib 00:07 15. Juni 2009 (CEST)
Da hast Du natürlich recht. Das müsste sauberer auseinandergehalten werden. Sieht nach viel Arbeit aus. Hat jemand Zeit? --PeterFrankfurt 01:15, 15. Jun. 2009 (CEST)Beantworten

"auch weniger"

Dieser Satz stellt wohl ein Paradox dar: "Die Größe der Magnetscheiben in der Festplatte beträgt maximal den als Formfaktor angegebenen Wert; bei Serverfestplatten mit sehr hohen Rotationsgeschwindigkeiten auch weniger." --Boardersparadise 09:36, 1. Aug. 2009 (CEST)Beantworten

MTTF und MTBF

Beim Lesen des Artikels entsteht der Eindruck, dass MTTF und MTBF eine Sache der Festplatten seien, dabei sind diese beiden Werte für Hersteller übliche Angaben bei der Produktion, welche ein Ingenieur bei der Kontruktion eines Geräte (zB Fernseher) gezielt dazu nutzen kann, einen moralischen Ausfall des Gerätes herbeizuführen (zB TV mit Hilfe der MTTF und MTBF im Mittel nach 5 Jahren defekt). (nicht signierter Beitrag von 91.21.98.76 (Diskussion | Beiträge) 12:12, 6. Aug. 2009 (CEST)) Beantworten

Kapazität gesunken?

Laut der Tabelle "Überblick über die Speicherkapazitäten der verschiedenen Baugrößen" lag die höchste Kapazität für 3,5 Zoll-Platten 1994 bei 2,1 GB, 1995 bei 1,6 GB. Ist die Kapazität also gesunken??? --Tillmo 12:48, 7. Aug. 2009 (CEST)Beantworten

Stimmt. Die als Beispiel genannte Digital RZ28 mit 2,1 GB ist aber wesentlich höher, als die als Beispiel genannte Connor CFS1621A aus dem nächsten Jahr mit 1,6GB, welche schon das heute übliche flachere Format verwendet und auch schon nen IDE-Stecker hat. Insofern war die Connor-Platte trotz der niedrigeren kapazität wahrscheinlich vorzuziehen. -- Jonathan Haas 11:48, 29. Aug. 2009 (CEST)Beantworten

Zum Punkt: Geschwindigkeit

Im Artikel steht: "Die kontinuierliche Übertragungsrate ist jene Datenmenge, die die Festplatte beim Lesen aufeinander folgender Sektoren im Mittel pro Sekunde überträgt. Die Werte beim Schreiben sind meist ähnlich und werden deshalb üblicherweise nicht angegeben."

Die Sustained Transfer Rate hat nichts mit einem Mittelwert zu tun, sondern ist der Maximalwert für einen kontinuierlichen Zugriff auf aufeinander folgende Sektoren. Man spricht in diesem Zusammenhang auch vom der Maximum Streaming Efficiency der Festplatte.

Gruß WoKi (nicht signierter Beitrag von 89.48.52.65 (Diskussion | Beiträge) 02:16, 8. Okt. 2009 (CEST)) Beantworten

Schreib-/Lesegeschwindigkeit

Angaben hierzu finde im Artikel nicht oder nur wenn von oben bis unten durchlese. Das kann ja so nicht sein. (und spottet der Lesenswert-markierung). Kann jemand was substantielles beitragen? --Itu 13:34, 23. Jun. 2009 (CEST)Beantworten

Siehe Diskussion:Festplatte/Archiv2#Datentransfergeschwindigkeiten. Deshalb find ichs auch nicht gvut, dass in der deutschsprachigen Wikipedia in letzter Zeit so oft archiviert wird: das bewrikt, dass auf den Diskussionsseiten immer wieder die gleichen Fragen auftauchen. Bei manchen Diskussionen wird ja so schnell archiviert, dass manchmal garnicht genug Zeit belibt, dass die Frage vporher beantwortet wird. Aber das soll wohl irgendwie die Server entlasten, ich kenn mcih mit solchen Dingen nicht gut genug aus, um beurtielen zu können, wie vield as wirklich bringt. --MrBurns 12:55, 25. Jun. 2009 (CEST)Beantworten
kann mich MrBurns nur anschließen! --Boardersparadise 09:37, 1. Aug. 2009 (CEST)Beantworten
So, ich habe mich mal erbarmt, und dem Thema Geschwindigkeit einen eigenen Abschnitt gewidmet. Die Berechnung der Transferraten, habe ich nicht aufgenommen. Das würde den Artikel noch mehr aufblähen und den relativ unwichtigen Parameter auch übergewichten. Wenn dann sollte das in einer eigenen Seite erklärt werden. Für Otto-Normalverbraucher reicht der Wert aus dem Datenblatt des Herstellers. Hilfreich wäre, wenn jemand noch mal einen Graphen mit Datenrate versus Blocknummern beisteuert. --Marcel Müller 18:26, 4. Okt. 2009 (CEST)Beantworten

Disk-to-Buffer Transfer Rate bzw. Schreib-/Lesegeschwindigkeit

Die Disk-to-Buffer Transfer Rate ist abhängig von der Größe "Sectors per Track".


+ Instantaneous (Internal Transfer Rate) – Theoretisch mögliche Transfer Rate

Dies ist die Datenübertragung zwischen Disk und Disk-Buffer/Cache unter der Annahme, dass kein mechanischer Seek und keine Latenzzeit jedweder Art vorhanden ist, sowie alle Zugriffe mit der Track-Size erfolgen.

                Instantaneous Transfer Rate = (P * G * RPM)/60s

Alternativ kann man die Instantaneous Transfer Rate mit folgende Gleichung berechnen:

                Instantaneous Transfer Rate = BPI * RPM * Disk-Durchmesser

mit

BPI = Bits Per Inch = Linear/Recording Density: BPI = P * G /(2Pi * Cylinder-Radius)


+ Sustained (Local Average Transfer Rate) – Praktisch mögliche Transfer Rate

Datenübertragung zwischen Disk und Disk-Buffer/Cache unter Berücksichtigung der Kopf- und Zylinder-Wechselzeiten.

                Sustained Transfer Rate = (P * V * G)/[(F-1)*H + C + 2R*F]

mit den physischen Festplatten-Parametern (Nicht die logischen Parameter verwenden!)

P = Sectors per Track

V = Tracks per Cylinder = Anzahl Heads

G = SectorSize

F = Anzahl Surfaces = Anzahl Heads

H = Head Switch Time

C = Cylinder Switch Time

R = Rotation Delay (Latency)

RPM = Rotations per Minute


Man sieht also, dass die Streaming Transfer Effizienz von den folgenden drei zeitlichen Festplatten-Parametern bestimmt ist:

1. Rotational latency = Rotationslatenz

2. Head Switch Time = Kopf-Wechselzeit

3. Cylinder Switch Time = Zylinder-Wechselzeit


Wenn man mal keine Angaben zu den Kopf- und Zylinder-Wechselzeit findet, kann man folgende Näherungen verwenden:

Head Switch Time = Max Track-to-Track Seek Time

Cylinder Switch Time = (3 * Max Track-to-Track Seek Time) ODER (4 * Min Track-to-Track Seek Time)


Die Head Switch Time liegt meistens im Bereich von 0.5 bis 1.5 ms.

Die Cylinder Switch Time liegt im Bereich zwischen 1.0 bis 2.5 ms.


Die besten Beschreibungen der technischen Festplatten-Parameter findet man bei Hitachi. Bei Western Digital und Seagate sind die Beschreibungen gerade noch ertragbar. Die mit Abstand schlechtesten Beschreibungen findet man bei Samsung.


Allgemeine Anmerkungen zum Artikel

Den Boden-Effekt nennt man in der Physik eigentlich "Bernoulli-Effekt":

Oben strömt die Luft schneller am Objekt vorbei als unten. Dadurch entsteht ein Druckunterschied, der das Objekt nach oben zieht bzw. drückt.

Schreib/Leseköpfe "fliegen" auf einem "Luftkissen" über die Oberfläche, mit einer Flughöhe von 17 Mikro-Zoll/0,43 mm oder geringer.

Der schematische innere Aufbau der Festplatte wird nur teilweise behandelt.

Was ist mit Head, Cylinder, Track, Platter, Surfaces, Seek Length/Time, Rotational Latency, Head Skew/Switch, Cylinder Skew/Switch, Linear/Recording Density, Track Density, Areal Density und die Internal Transfer Rate finden keine (große) Erwähnung.

Auch das Festplatten-Layout bzw. die Organisation sowie die Disk Drive Module mit mechanischer Positionierung und Media Transfer, dem Daten-Layout und Mapping LBA-zu-PBA sowie den Queue/Scheduler Mechanismen wird nur minimal bzw. überhaupt nicht behandelt.


Frei nach dem Motto: SCHLECHT - SCHLECHTER - GROTTENSCHLECHT


Gruß WoKi (nicht signierter Beitrag von 89.60.234.195 (Diskussion | Beiträge) 17:03, 16. Sep. 2009)

Sei mutig. -- smial 17:25, 16. Sep. 2009 (CEST)Beantworten
Zum Bodeneffekt: Dieser wird bei Festplattenköpfen traditionsgemäß gerne herangezogen, wohl weil er eine direkte Verbindung dieses (heutzutage) mikroskopischen Effekts des Kopffliegens mit sowas Makroskopischem wie einer Flugzeuglandung verbindet. Im Endeffekt ist es natürlich Bernoulli, aber für den Bodeneffekt gibt es halt außerdem einen netten WP-Link. --PeterFrankfurt 01:17, 17. Sep. 2009 (CEST)Beantworten
Hier der Link zum Bernoulli-Effekt [13]
Übrigens in der Original-Beschreibung zur "IBM 1301 Advanced Disk File von 1962" und auch in der Beschreibung zur "IBM 3340 Disk von 1973 - Die Mutter der modernen Hard Disk" wird immer der Bernoulli-Effekt genannt, aber niemals der "Boden-Effekt".
Gruß Woki (nicht signierter Beitrag von 89.48.9.104 (Diskussion | Beiträge) 02:29, 17. Sep. 2009 (CEST)) Beantworten
Die Head Switch Time kann man wohl vernachlässigen, weil die Heads nur sehr selten gewechselt werden (HDDs haben bis zu 500GB/Platter, also bis zu 250GB/Head bzw. insgesamt selten mehr als 4-5 Platter bzw.. 8-10 Heads, also macht die Head Switch Time im schlechtesten Fall beim sequentiellen Lesen über die Gesamte HDD (ein Vorgang, der bei modernen HDDs mehrere Stunden dauert) 15ms aus. Das macht eine raltive Abweichung von ca. 10^(-2)/10^4 = 10^(-6) aus, was weit unter dem Messfehler jeder Datenübertragungsmessung ist. Daher beim sequentillen lesen ists irrelevant (nicht jedoch beim zufälligen Zugriff auf einzelne Sektoren, weil bei diesem werden die Heads sehr oft gewechselt, bei 8 oder 10 Heads sogar bei den meisten Zugriffen). --MrBurns 04:55, 3. Okt. 2009 (CEST)Beantworten
Die Head Switch Time ist NICHT vernachlässigbar beim sequentiellen Zugriff mit einer Head-Anzahl
größer 1, sondern ist einer der bestimmenden Faktoren neben der Cylinder Switch Time in der
Streaming Effizienz. Das sagt die Gleichung aus, nicht mehr und nicht weniger.
Darum nennen die Disk-Hersteller die Head Switch Time auch manchmal aus purer Verzweifelung
"Sequential Head Switch Time", weil diese Zeit beim Random Zugriff einen großen Einfluss hat.
Servus Ottmar (nicht signierter Beitrag von 89.48.14.44 (Diskussion | Beiträge) 17:41, 3. Okt. 2009 (CEST)) Beantworten
Stimmt, ich hatte vergesssen, dass Festplatten primär von außen nach innen beschrieben werden, daher gibts sogar bei mehr als 2 Heads mehr Headswitches als Zylinderwechsel (und zwar (F-1) mal so viele, wenn F die Zahl der Heads ist). Der Grund für dieses Vorgehen ist, dass die meisten Leute den festplattenspeicher nur teilweis benützen und außerdem die viel genutzten Daten (also insbesondere Betribssystemdateien) als erstes drauf schreiben, weil die am Anfang sind. Also sind die meisten Zugriffe nahe am Anfang der HDD, also bei der heute verwendeten Anordnung weit außen. Und der Performance-Unterschied zwischen außen und innen ist weitaus größer als das, was der Verlust durch Headwechsel ausmacht (ganz innen hat man meist beim sequentiellen lesen nur ca. 50%-75% der Transferraten von ganzz außen bei modernen HDDs, wie jeder leicht überprüfen kann, indem er mit der google-Bildersuche nach hdtach sucht). --MrBurns 20:41, 3. Okt. 2009 (CEST)Beantworten
Die Daten/Blocks werden auf Cylinder-Basis geordnet und verteilt. Zum Beispiel eine Festplatte mit 2 Platter und 4 Heads.
Wenn man Daten auf diese Festplatte schreibt, dann werden die Daten auf Cylinder 1 (Track 1-4), dann auf Cylinder 2 (Track 5-8) usw. geschrieben
Cylinder 1 | Cylinder 2
Track 1 (Head 1) | Track 8 (Head 1)
Track 2 (Head 2) | Track 7 (Head 2)
Track 3 (Head 3) | Track 6 (Head 3)
Track 4 (Head 4) | Track 5 (Head 4)
Der Cylinder geht über alle Plattern/Surfaces der Festplatte.
Die Tracks sind dabei in einer Serpentine-Ordnung über die Cylinder verteilt.
Mal ein Berechnungs-Beispiel: Maxtor Altas II 15K Disk mit 147GB (SCSI)
+ 4 Platter mit 8 Heads = 8 Surfaces
+ Head Switch Time  : 0.3 ms
+ Cylinder Switch Time: 0.5 ms
+ Sectors per Track  : 624 (innen) , 832 (aussen)
+ Sector Size  : 512 Byte
+ RPM  : 15016
+ Rotationslatenz  : 2 ms
Setzt man jetzt die Werte in die Gleichung ein, erhält man:
Sustained Transfer Rate (aussen) = (832 * 8 * 512) / (7*0.3ms + 0.5ms + 8*2*2ms) = 96,2 MB/s
Sustained Transfer Rate (innen) = (624 * 8 * 512) / (7*0.3ms + 0.5ms + 8*2*2ms) = 72,1 MB/s
Im Original-Dokument zur Festplatte steht als "Sequential Throughput (maximum)" 98 MB/s.
Also passt die Gleichung zur Berechnung der "Sustained Transfer Rate"!
Die reale Transfer Rate liegt sicherlich noch ein bisschen niedriger als die berechneten Werte, weil zum Teil die Command Overheads und die Settle Time nicht berücksichtigt werden.
Servus Ottmar (nicht signierter Beitrag von 89.48.4.65 (Diskussion | Beiträge) 03:28, 4. Okt. 2009 (CEST)) Beantworten
So genau muß man das wohl im Artikel nicht vorexerzieren, es reicht, wenn man schreibt, dass die sustained rate etwas langsamr ist als das Maximum, ca. 1,8% it ja auch nicht wirklich ein gewaltiger Unterschied. --MrBurns 01:34, 5. Okt. 2009 (CEST)Beantworten
Ich glaube mich daran erinnern zu können, dass ich nicht die Diskussion mit der Head Switch Time angefangen habe. Aber genau das ist das Manko von Wikipedia. Wenn man sich als FREIE Enzyklopädie bezeichnet, dann erwarte ich ein gewisses Mass an Extaktheit und Nachprüfbarkeit sowie eine nachvollziehbare Erklärung vom Vorgang. Jeder kann mit Hilfe der obigen Gleichungen, die Angaben zu der Festplatte mit einer gewissen Genauigkeit nachprüfen.
Gruß Ottmar (nicht signierter Beitrag von 89.48.60.117 (Diskussion | Beiträge) 02:09, 6. Okt. 2009 (CEST)) Beantworten
Ich denke, meine Erklärung (20:41, 3. Okt. 2009 (CEST)) ist ausreichend genau für diesen Artikel. Falls die RK von Wikipedia jemals so niedrig werden, dass es einen eigenen Artikel Head Switch gibt, braucht man die genaue Formel, in solchen artikeln reicht es, das Grundprinzip zu erklären, falls die Latenzen durch den Head Switch überhaupt relevant genug ist. --MrBurns 00:32, 13. Okt. 2009 (CEST)Beantworten

Missverständnis im Deutschen: "hard" = "nicht entnehmbar"

Wenn man sich den englischen Artikel genau durchliest, wird klar, dass das "hard" ind "hard disk" ausschließlich als das Gegenteil von "flexibel" gemeint ist, und nicht als Gegenteil von "entnehmbar".

Ich würde daher den Hinweis "nicht entnehmbar" streichen und evtl. sogar durch einen expliziten Hinweis auf das mögliche Missverständnis ersetzen.

Bin mir aber nicht 100% sicher. (nicht signierter Beitrag von Carlibauer (Diskussion | Beiträge) 18:52, 22. Jul 2009 (CEST))

Ich glaube auch, dass sich hard eher auf ds material bezieht, das im Gegensatz zur Floppy Disk eben Hart ist. Die Bezeichnung stammt noch aus einer Zeit, wo es keine Wechseldatenträger aus hartem Material gab, wie z.B. CD-ROMs. Damals gabs eben nur Diskettenlaufwerke, Bandlaufwerke und Festplatten. Für die Theorie, dass hard disk sich auf das im gegensatz zur Floppy Disk harte Material bezieht spricht auch diese Quelle. --MrBurns 15:50, 23. Jul. 2009 (CEST)Beantworten

Festplatte als Überbegriff

"Die Festplatte ist durch ihre Art, fest in das Gehäuse eines Computers eingebaut zu sein, benannt worden." (aus dem neuen Artikel Festplatte). Bitte zurückverschieben. Die Festplatte heißt Festplatte, weil die Scheiben im Gegensatz zur Schwabbel-, äh, Floppydisk hart sind. -- smial 15:09, 27. Aug. 2009 (CEST)Beantworten

in manchen fernen ländern auch „hard disk“ genannt. --snotty diskussnot 15:10, 27. Aug. 2009 (CEST)Beantworten

Also warum die Festplatte am Anfang "Festplatte" genannt wurde, ist mir persönlich völlig wurscht und diese Zeilen stammen ja auch nicht von mir im neuen "Festplatte-Artikel". Inzwischen denkt aber keiner mehr an eine Floppy, wenn er den Begriff "festplatte" hört, sondern an ein "bootable device" das im Rechner steckt und zwar völlig egal ob es eine SSD oder eine HDD ist, daher die Neuordnung der Artikel. Ich sehe auf jeden Fall hier kein Grund/Argument für die Zurückverschiebung. Immerhin stand im alten HDD-Artikel bereits, dass es inzwischen auch andere Speichermedien gibt, die als Festplatte genannt werden.... --Juri S. 15:24, 27. Aug. 2009 (CEST)Beantworten

Belegte Fakten interessieren Dich also nicht, dafür plädierst du für Theoriefindung und eigene Interpretationen? Das finde ich jetzt sehr spannend. In meinem Rechner steckt übrigens ein "bootable device", das weder Festplatte noch SSD noch Floppy ist. Und nu? --smial 15:32, 27. Aug. 2009 (CEST)Beantworten
Natürlich gibt es auch andere bootable devices. Man kann ja auch von einem USB-Stick booten, dennoch wird es nicht als Festplatte genannt. Das war jetzt hier eine vereinfachte Aussage. Und Fakten interessieren mich wohl, nämlich der Fakt, dass eine SSD ebenso eine Festplatte ist. Wie das Wort "Festplatte" einstanden ist, steht auf einem ganz anderen Blatt und sagt nichts über die aktuelle Lage.
Aber wenn du unbedingt meine Meinung zur Geschichte hören willst, so glaube ich der IP. Den es klang durchaus logisch, dass die Festplatte als "Festplatte" genannt wurde, weil sie fest eingebaut wurde. Du sagst ja nur, warum HARD Disk Drive so hieß, nämlich weil die Platte "hard" war im Gegensatz zu Floppy. Die deutsche Bezeichnung heißt aber nicht "Hartplatte" sondern Festplatte und ist somit nicht auf die selbe Weise entstanden wie die englische Bezeichnung. --Juri S. 15:56, 27. Aug. 2009 (CEST)Beantworten
hard: fest, hart, heftig, mühevoll, mühsam, schwer, schwierig [14]. Du wirst zugeben, daß sich Hartplatte irgendwie komisch anhört und Schwerplatte möglicherweise sinnentstellend sein könnte. Die Idee, "Festplatte" käme vom "festen Einbau" in ein Rechnergehäuse ist wirklich knuffig. Zumal die ersten Festplatten keineswegs in irgendeinem Rechnergehäuse eingebaut waren, sondern durchaus eigenständige Gebilde. Und obendrein auch noch wechselbare Datenscheiben hatten, also gerade nicht "fest" eingebaut waren. Aber die Scheiben waren immer hart. Wenn auch bei dem Gewicht mühevoll auszutauschen, also vll. doch "Mühevollplatte"? :-) -- smial 16:39, 27. Aug. 2009 (CEST) Ps: laßt uns den Quatsch zurückverschieben, rette vorher das, was brauchbar ist, aus dem aktuellen Artikel und arbeite das nachher wieder an passender Stelle ein, ok?Beantworten
Sag mal bist du immer so ignorant? Es geht nicht darum, wie das Wort entstanden ist, sondern was aktuell mit dem Wort bezeichnet wird und das steht im neuen Artikel. Ich sehe immer noch keinen Grund, warum man etwas Rückverschieben muss. Wenn du dich mal von der geschichtlichen Entstehung lösen könntest und die aktuelle Lage begutachtest, dann können wir ja gerne weiter reden. Ich habe NIERGENDWO im Artikel irgend eine Änderung vorgenommen, wie das Wort Hard disk drive entstanden ist auch wenn du keine Quelle hast, dass die deutsche Bezeichnung sich direkt aus der englischen herleitet. Ich weiß immer noch nicht, warum du immer noch darauf herumreitest und die SSD völlig ignorierst, das ist schon fast knuffig. --Juri S. 17:14, 27. Aug. 2009 (CEST)Beantworten
Die SSD ist hier überhaupt nicht das Thema. "Magnetfestplatte" ist Begriffsbildung vom feinsten und mithin in der WP nicht zulässig. -- smial 17:22, 27. Aug. 2009 (CEST)Beantworten
Dann erkläre mir mal warum die SSD nur in Anführungsstrichen eine Festplatte ist, wenn es doch jeder so nennt? In der Fachpresse wird die HDD auch als Magnetfestplatte bezeichnet, wenn es dir nicht gefällt und du alles unter Festplatte haben willst, dann wäre die Alternative, dass alles was im SSD-Artikel drin steht, ebenfalls im "Festplatten"-Artikel landet. --Juri S. 17:27, 27. Aug. 2009 (CEST)Beantworten
Google: Festplatte 2.950.000 Hits. Magnetfestplatt: 482 hits. Auch wenn ich von googlefight nicht gar so viel halte, scheint das nicht gerade für einen eingeführten Begriff zu sprechen. -- smial 17:32, 27. Aug. 2009 (CEST)Beantworten
Und jetzt google mal seit wann es die SSD zu bezahlbaren Preisen gibt, so dass man zwischen Magnetfestplatte und anderen Festplatten auch tatsächlich unterscheiden muss. Ich hab ja "Festlatte" nicht gelöscht^^ --Juri S. 17:36, 27. Aug. 2009 (CEST)Beantworten
"Magnetfestplatte" ist trotzdem Begriffsbildung. Bitte zurückschieben. -- Jonathan Haas 17:44, 27. Aug. 2009 (CEST)Beantworten
Das geht noch nicht, weil da der TF-Text wieder rumgammelt... --StG1990 Disk. 17:55, 27. Aug. 2009 (CEST)Beantworten
"Ist aber trotzdem so" ist kein Argument, bzw. ein "Argument" aus dem Kindergarten. oder soll ich jetzt schreiben "ne ist aber doch nicht so"^^ Ich hab mir das ja nicht ausgedacht, sondern einfach den Begriff aus der Fachpresse genommen. --Juri S. 18:13, 27. Aug. 2009 (CEST)Beantworten
Quelle? -- smial 18:16, 27. Aug. 2009 (CEST)Beantworten
->google! Hast doch selbst erst gegooglet, mal als Beispiel hier und hier und gar ganz alt hier....
Aber ich will hier keinen Aufstand machen, von mir aus kann das auch unter Festplatte als Überbegriff laufen, nur sollte man dann klar Stellen, dass der Begriff "Festplatte" nicht an die HDD-Technik gebunden ist, was aber hier in der Einleitung so suggeriert wird. Ich könnte mir alternativ auch vorstellen, dass man "meine" Einleitung aus dem inzwischen gelöschten "Festplatten-Artikel" nimmt und dann eben im Verlauf sagt, dass in diesem Artikel nur die HDD behandelt wird und die SSD eben wo anders. Ist zwar nicht so schön, wie mein Vorschlag mit "Festplatte" und "Magnetfestplatte"-Artikel, würde aber auch gehen. Aktuell ist das ja hier so formuliert, als ob die HDD den Begriff "Festplatte" für sich allein gepachtet hat und die SSD wäre irgendwas komisches, was man mal so nennt... Auf jeden Fall ist es für manche sehr verwirrend, wenn von der SSD als Festplatte geredet wird und hier dann auf einmal nur die HDD mit dem Begriff "Festplatte" fest verbunden wird. --Juri S. 19:04, 27. Aug. 2009 (CEST)Beantworten
Die Google-Treffer zeigen eindeutig, dass "Magnetfestplatte" nicht verbreitet ist. Einzelne Verwendungen belegen nichts. Selbst wenn man zwischen Festplatte und SSD unterscheiden müsste, was ich nicht für notwendig halte, ist "Magnetfestplatte" eindeutig das falsche Lemma. Dann noch eher "Festplatte (magnetisch)" oder so, da man aber SSD auch einfach als SSD bezeichnen kann, braucht es eine solche Spezifizierung nicht. Ein Hinweis auf SSDs im Artikel ist aber wahrscheinlich sinnvoll. -- Jonathan Haas 19:07, 27. Aug. 2009 (CEST)Beantworten
Hab ne BKL eingebaut, das sollte zulässig und ausreichend sein. -- smial 20:34, 27. Aug. 2009 (CEST)Beantworten
Juri, ich muss mich der Kritik der anderen Teilnehmer hier anschließen: So darf man sowas einfach nicht machen. Bei so großen Änderungen muss man im vorhinein einen Konsens unter den zahlreich vorhandenen Mitschreibern herbeiführen, hier arrogant aus eigener Allwissenheit einfach über die Köpfe der anderen Leute hinweg gravierende Änderungen vorzunehmen, ist daneben und hat bei diesen einen Haufen Arbeit verursacht, die Deine Untaten dann wieder aufräumen durften. Bitte nicht nochmal so eine Aktion. --PeterFrankfurt 02:07, 28. Aug. 2009 (CEST)Beantworten

@Jonathan Haas Du bist mir in dieser Diskussion echt ein Schatz mit Kindergartenargumenten. Zuerst kommt ein "ist so" Argument und nu redest du von einzelnen Verwendungen. Es sind keine einzelne Verwendungen in irgendwelchen Foren oder Homepages, sondern Verwendungen in der Fachpresse, so wie ich das auch geschrieben habe. Im Letzten Link nimmt Chairman und CEO einer Speicherfirma das Wort in den Mund. Ich bin ein Mensch, der auch gerne Kompromisse eingeht, dennoch brauchst mir hier nicht weiter mit dieser Art der Argumentation "Begriffsbildung" zu unterstellen, ganz egal, ob du du das für so eine hällst oder nicht. Was die Anzahl der Google Treffen angeht:

Magnetfestplatte: 740 Treffer (http://www.google.de/search?hl=de&client=firefox-a&channel=s&rls=org.mozilla%3Ade%3Aofficial&hs=QKc&q=Magnetfestplatte&btnG=Suche&meta=) Festplatte: 11.5000.000

Haus:84.500.000 Niedrigenergiehaus: 356.000 Treffer

Das ein Überbegriff massiv öfter verwendet wird als ein spezieller Begriff ist also nur logisch. Sagt aber nichts über die "Richtigkeit" des Wortes und ob etwas "Begriffsbildung" ist oder nicht.

@PeterFrankfurt Du bist hier genau der "Richtige" sich über mich zu beschweren. In der Diskussion unter Punkt "Lemma", wo ich das vorgeschlagen habe, hast du schließlich nicht protestiert, obwohl du weiter oben deinen Senf zu einem "holprigen" Wort abgegeben hast. Wenn der entsprechende Diskussionsbeitrag ignoriert wird, so halte ich das für stille Zustimmung oder für Duldung. Vielleicht hätte ich auch noch hier ein Diskussionseintrag machen müssen, aber DU brauchst dich hier nun wirklich nicht zu beschweren, du hast den Vorschlagdiskussionsantrag gesehen und ihn ignoriert! Vielleicht wäre das aber auch hier ähnlich ignoriert worden, ich bin ja nicht den ersten Tag hier bei wiki, da wird öfter mal die Diskussion ignoriert solange man nicht anfängt den Artikel zu bearbeiten, aber hat ja jetzt jeder gesehen, wo die Knackpunkte im aktuellen Artikel sind.

@smial Dein Vorschlag mit BKL geht schon mal in die richtige Richtung. Ob es ausreichend ist oder doch etwas mehr sein sollte, ist wieder Ansichtssache. Besser als vorher ist es auf jeden Fall. --Juri S. 10:47, 28. Aug. 2009 (CEST)Beantworten

Das ist ja wohl absurd: Wenn ich eine Formulierung wiederholt als "holprig" kritisiere und eben nicht darüber schweige, wie kannst Du das dann als "stillschweigende Zustimmung" missverstehen? Da bleibt einem ja die Spucke weg. Lies also gefälligst genauer, was andere Leute von sich geben. Das sieht ja fast so aus, als ob Du solche Beiträge durch eine Filterbrille betrachtest, wo dann auf mysteriöse Weise überall doch wieder Deine Sicht der Dinge durchscheint. Das ist voll daneben, lass das sein. --PeterFrankfurt 03:14, 30. Aug. 2009 (CEST)Beantworten
Das ist ja wohl absurd: Wenn du die eine Formulierung wiederholt als "holprig" kritisiert und eine andere eben ignorierst und auch den Vorschlag mit der anderen Formulierung ignorierst, wie kannst du dann hier mir noch irgend etwas unterstellen? Da bleibt einem ja die Spucke weg. Lies also gefälligst genauer, was andere Leute von sich geben. Das sieht ja fast so aus, als ob du solche Beiträge durch eine Filterbrille betrachtetest. Das ist voll daneben, lass das sein. --Juri S. 09:42, 30. Aug. 2009 (CEST)Beantworten
Wenn das lustig sein soll, dann braucht es aber noch ein bisschen mehr. Vandalen werden hier in der WP ziemlich konsequent bekämpft. --PeterFrankfurt 00:52, 31. Aug. 2009 (CEST)Beantworten
Was ist daran lustig, wenn die von dir vorgetragene Kritik auf dich im Wortlaut 1:1 zutrifft, du aber die Augen verdrehst und mir sie zuschiebst? Du hast nur auf die erste Frage "Was ist daran holprig?" geantwortet. Den Rest der Diskussion hast DU ignoriert. Was meinst du wozu ich es geschrieben habe? Damit du es dort ignorierst? DU bist derjenige der eine Filterbrille aufsetzt, wenn DU einen Diskussionsbeitrag schreibst. Und jetzt versuchst du es gar nicht mehr mit der Sachlichkeit und schmeißt eine weitere Unterstellung mir an den Kopf. Wenn du nix zu tun hast, als in der Diskussion User mit Unterstellungen zu beschmutzen, dann Frag ich mich gerade wie man dich nennt. --Juri S. 01:06, 31. Aug. 2009 (CEST)Beantworten
Und ich sehe nicht, wo Du Dich an den Rat gehalten hast, Deine schwerwiegende Änderung erst einmal hier gründlich zu diskutieren. Zu Deinem Vorschlag unten sehe ich noch keinerlei Diskussionsbeiträge, nur Flamewars. Korrektes Vorgehen besteht darin, zusammenzuarbeiten. Das sehe ich hier nicht gegeben. --PeterFrankfurt 02:11, 31. Aug. 2009 (CEST)Beantworten
Und ich sehe dort stehen, dass bei Ignoranz des Vorschlages, dieser im Artikel landet. Ich sehe auch, dass alle die sich aktiv an der Diskussion beteiligt haben, in der Zeit zwischen Vorschlag und Editiervorgang aktiv waren. Du hast hier offtopic betrieben, smail hat hier einen Diskussionsbeitrag verfasst und Jonathan Haas hat hier einen Diskussionsbeitrag gemacht. Ich hätte ja auch gerne Verbesserungsvorschläge gehabt, aber wenn ihr erst einmal sehen wollt, wie der Vorschlag im Artikel aussieht, so ist das eur gutes Recht. Ich weiß also, was ich tue. Wenn du noch mehr Ratschläge loswerden willst, kannst du dir eine Frau besorgen und mit ihr ein paar Kinder zeugen. Kinder brauchen Ratschläge. Viel Glück dabei. Wenn du mehr offtopic schreiben willst, empfehle ich dir in einen öffentlichen chat zu gehen oder wenn es unbedingt sein muss auf meiner Diskussionseite weiter zu flamen. Zum Artikel willst du ja hier offensichtlich nichts Beitragen. --Juri S. 14:48, 31. Aug. 2009 (CEST)Beantworten

Einleitung analog zu Arbeitsspeicher

Mein Vorschlag wäre es, die Einleitung ähnlich wie die vom Arbeitsspeicher zu gestalten, wo also erst einmal gesagt wird, was eine Festplatte überhaupt ist, bevor auf die HDD im Speziellen eingegangen wird. Die BKL sagt zwar, dass es noch andere Festplatten gibt, aber erläutert nicht so wie das bei Arbeitsspeicher der Fall ist, was den das überhaupt für ein Ding ist.

Mein Vorschlag wäre von daher etwas in dieser/ähnlicher Form:

---

Eine Festplatte ist ein nicht flüchtiges Speichermedium, das als Massenspeicher in Computern verwendet wird. In der Speicherhierarchie steht die Festplatte an letzter Stelle vom Prozessor aus gesehen und dient im Gegensatz zum Arbeitsspeicher nicht als Puffer, sondern als Endspeicherort für verschiedene Daten.

Im Gegensatz zu Wechseldatenträgern wie USB-Sticks und CDs wird die Festplatte meist im System fest verbaut und verbleibt dort auch. Auf einer der verbauten Festplatte wird auch meist das Betriebssystem und Programme gespeichert und von dieser auch gebootet. Nichts desto trotz können Festplatten auch mit eSata-Anschluss oder USB-Anschluss flexibel als portabler Speicherträger verwendet werden. Aktuell gibt es zwei weit verbreitete Arten von Festplatten: Die magnetische Festplatte, kurz HDD und die Solid State Drive, kurz SSD, die auf Halbleiterbausteinen basiert. In diesem Artikel wird nachfolgend nur die magnetische Festplatte (HDD) behandelt, während die Informationen zur SSD im Solid State Drive-Artikel zu finden sind.

---

Ihr könnt gerne am Vorschlag noch das eine oder andere ändern, aber ich glaub man sieht deutlich worauf ich hinaus will. Es sollte in der Einleitung imo erst einmal gesagt werden was eine Festplatte überhaupt ist, bevor man sich speziell an die HDD ranwagt. Das wird ja im Arbeitsspeicher-Artikel und anderen Artikeln ebenso gehandhabt, da wird auch nicht gleich geschrieben, dass Arbeitsspeicher SDRAM oder DRAM wäre, sondern seine Funktion im Computer erläutert. PS: Wenn der Vorschlag ignoriert wird, landet der in dieser Form im Artikel --Juri S. 12:03, 28. Aug. 2009 (CEST)Beantworten

Es ist völlig egal, worauf du hinaus willst. Belege erstmal, dass es legitim ist, SSDs überhaupt als Festplatten zu bezeichnen. Historisch sind Festplatten jedenfalls diese Dinger mit den harten Magnetscheiben. Und eine SSD hat gar keine "Platte" im eigentlichen Sinne. Und nein, einzelne Zitate sind kein Beleg dafür, auch nicht, wenn die von irgendwelchen Professoren oder von Bill Gates persönlich kämen. Da muss schon richtige Literatur her, und damit ist nicht Computerbild oder Chip gemeint. So, ich revertiere jetzt deine Änderung im Artikel. Nicht nur wegen diesem Punkt, sondern weil es allgemein höchst verständnisserschwerend ist, gleich mit der Nähe zum Prozessor zu beginnen, anstelle mal zu beschreiben um was es sich handelt. Dass hier keiner diskutiert hat, ist bei deinem außergewöhnlichen Diskussionsstil kein Wunder. Solltest du wiederholt größere Änderungen einbringen, die nicht dem allgemeinen Konsens entsprechen landet das auf WP:VM. -- Jonathan Haas 11:43, 31. Aug. 2009 (CEST)Beantworten
Entschuldige, ich wusste nicht, dass ich etwas belegen muss, das bereits im Artikel steht. Im Artikel stand schon vor meinem erscheinen, dass SSDs als Festplatten bezeichnet werden. Die Kritik richtet sich an die Einleitung, den im Arbeisspeicherartikel steht auch nicht im Einleitungssatz, dass Arbeitsspeicher DDR3 wäre. Nein, dort wird geschrieben was Arbeitsspeicher ist und dann gesagt, dass es DDR3, DDR2 und noch mehr gibt. Im Übrigen ist es ziemlich kontraproduktiv einem Menschen, der gerade eine komplette Einleitung ausformuliert hat und zur Diskussion gestellt hat, Vandalismus vorzuwerfen. Aber auch für dich gilt. Wenn du mir persönlich etwas sagen möchtest und nicht weiter zur Verbesserung des Artikel beitragen willst, kannst du dich auf meiner Diskussionsseite verewigen. Viel Spaß dabei. --Juri S. 14:48, 31. Aug. 2009 (CEST)Beantworten
Nein Danke, ich habe echt keinen Bock auf zusätzliche Diskussionen, in denen meine Argumente als Kindergartenargumente bezeichnet werden, oder irgendjemand mir alles nachplappert. Das SSDs als Festplatten bezeichnet werden, steht außer Frage. Deswegen auch der BKL-Hinweis ganz oben im Artikel. Die Frage ist, ob es auch wirklich korrekt ist, SSDs als Festplatten zu bezeichnen. Ich würde eher sagen, nein. Im Umgangssprachgebrauch mag das anders sein, aber z.B. der Duden sagt zu "Festplatte": „fest im Computer eingebaute u. hermetisch abgeschlossene Magnetplatte als Speichermedium.“ Auch Beispielsweise Festplattenhersteller wie Samsung bezeichnen nirgendwo SSDs als Festplatten sondern bestenfalls als Ersatz für solche[15]. Ich verstehe also nicht, warum wir Festplatten "Magnetfestplatten" nennen sollten und auch noch SSDs im Festplattenartikel behandeln sollten. Weil SSDs meiner Ansicht nach keine Festplatten sind.
Im übrigen: Selbstverständlich ist "Magnetfestplatte" Begriffsfindung. Beim Niedrigenergiehaus gibt es um Faktor 200 weniger Treffer. Dazu muss man auch noch bedenken, dass nur eher selten überhaupt Niedrigenergiehäuser gemeint sind, wenn von "Häusern" die Rede ist. Bei der Festplatte ist erstens der Faktor weit über 1.000, zweitens sind so gut wie in jedem Fall herkömmliche Festplatten gemeint. Der Vergleich hinkt also total. Und wie schon gesagt, sind einzelne Treffer und Zitate eben kein Beleg. Der Duden kennt "Magnetfestplatte" logischerweise auch nicht. -- Jonathan Haas 15:10, 31. Aug. 2009 (CEST)Beantworten
Also zunächst mal war das Beispiel mit dem Niedriegenergiehaus eben nur ein Beispiel, dass mir aufgrund der Popularität von "Niedriegenergiehäuern" in letzter Zeit als erstes eingefallen war, kein 1:1 Vergleich. Wenn du einen Vergleich haben willst, wo auch die Relation der Googletreffer von Überbegriff und speziellen Begriff ähnlich ist, so kann ich dir auch da tausende Beispiele geben, wenn ich unendlich viel Zeit habe alle Artikel bei WP hier zu durchforsten. Ein Beispiel hab ich aber schon hier genannt. Fabrikationsöl kommt auch auf keine 1000 Treffer, während Öl auf eine Zahl kommt, die man sich gar nicht vorstellen kann^^ Es gibt viele Lemmas, die wenige Google-Treffer haben. Das macht auch nichts, solange sie bei den Überbegriffen verlinkt werden. Was ja hier auch geschehen ist...
Der Duden ist so eine Sache. Mal abgesehen davon, dass du nicht angegeben hast, wie alt die Aussgabe deines Dudens ist, ist der Duden sehr konservativ. Es gibt viele Begriffe, die dort noch nicht auftauchen, obwohl sie in Wikipedia bereits als Lemma stehen.
Was den Link von Samsung betrifft, so steht auch dort "Ersatz für herkömmliche Festplatten" und nicht "als Ersatz für Festplatte". Ihr sagt in der Einleitung "Festplatte=HDD". Wenn man also HDD nicht vom Begriff Festlatte trennen kann, warum muss man dann den Zusatz "herkömlich" dazu schreiben um Missverständnise zu vermeiden? --Juri S. 12:33, 2. Sep. 2009 (CEST)Beantworten
Der Vergleich mit dem Fabrikationsöl hingt genauso. Es gibt sehr viele Ölarten. Salatöl, Schmieröl, Babyöl etc., von Fabrikationsöl ist aber wohl nur sehr selten die rede. Es gibt aber (SSDs ausgenommen) praktisch nur einen Typ Festplatten.
Ich habe die Internetversion vom Duden benutzt, da hier hier keinen aktuellen zur Hand habe. Und genauso wie der Duden sollten wir auch selbst eher konservativ sein. Bitte lesen: WP:TF.
Samsung sagt "herkömmliche Festplatten", aber das heißt doch nicht, dass SSDs auch Festplatten wären. Ich kann auch sagen, "Energiesparlampen sind ein guter Ersatz für herkömmliche Glühlampen", ohne dass da am "herkömmlich" irgendwas auszusetzen wäre, oder man reininterpretieren müsste, dass E-Lampen auch Glühlampen wären. -- Jonathan Haas 13:32, 2. Sep. 2009 (CEST)Beantworten
Ehm, SSDs ausgenommen? wtf? Wenn man auch noch die HDDs ausnimmt, gibt es praktisch gar keine Festplatten. lol?! Darum geht es doch, SSDs nicht ausgenommen gibt es mehr als nur einen Typ Festplatte, ob es zwei oder vier Varianten gibt, ist unerheblich für den Vergleich. Wie bereits geschrieben, könnte ich und du dir selbst noch mehr Beispiele hier finden. Also lass mal google google sein, nämlich nur eine Suchmaschine und kein Beweis für die "richtigkeit" eines Begriffes.
Schön, dass du die Internetversion vom Duden benutzt hast, wo der Eintrag zu Festplatten aus dem Jahr 2007 stammt, und all die benutzbaren und bezahlbaren SSDs erst im Jahr 2008 mit der Intel-SSD und im Jahr 2009 den Indilinx und Samsungcontrollern auf den Markt kamen.
Schön auch, dass im von dir zitierten Duden bei der Definition/Begrifsklärung für "SSD" die SSD als Solide State Drive fehlt. Wenn wundert es da, dass die SSD keine Erwähnung bei Festplatte im Duden hat?
Ich schrieb, dass Duden SEHR Konservativ ist, wenn du willst, kann ich es auch negativ formulieren, "etwas veraltet" kannst du statt "SEHR Konservativ" auch gerne einsetzen Ich bin hier mit der SSD auch nicht im Jahr 2008 angekommen, sondern erst im Jahr 2009, also ich finde, ich bin da konservativ genug^^
Das Beispiel von Samsung war von dir, ich wollte nur festhalten, dass dein Beispiel aufgrund es Begriffes "herkömmlich" bei der Reference zu Festplatte, keine Aussage drüber macht, dass Samsung die SSD als Festplatte nicht sieht, was du ja dummerweise mit der Angabe dieser Quelle behauptet hast. Wenn ein Flugzeug ein herkömmliches Fluggerät (Ballon) ersetzt, heißt es noch lange nicht, dass das Flugzeug kein Fluggerät ist, um mal ein weiteres Beispiel zu nennen.
Aber hey, spätestens in ein paar Jahren, wenn in vielen Laptops als Festplatte eine SSD statt HDD verbaut wird, und dann bei der Aufzählung der Komponenten wie schon jetzt Angaben wie "CPU: Intel blub blub", Festplatte: OCZ Vertex SSD xxx GB ..." steht, spätestens dann wirst auch du die SSD als Festplatte anerkennen und dann erübrigt sich auch diese müßige Diskussion mit dir. --Juri S. 13:22, 18. Okt. 2009 (CEST)Beantworten
2007 ist ja nun auch nicht solange her. Laut Artikel erschien die erste SSD für den Endkundenmakrt von Samsung 2006. "Aber hey" (um deine Ausdrucksweise zu gebrauchen), das ist völlig egal: „In Artikeln sollen weder neue Theorien, Modelle, Konzepte oder Methoden aufgestellt, noch neue Begriffe etabliert werden. Ebenso unerwünscht sind nicht nachprüfbare Aussagen. Ziel des Enzyklopädieprojektes ist die Zusammenstellung bekannten Wissens.“ (WP:WWNI). Belege also endlich vernünftig, das SSDs auch Festplatten sind und rede hier nicht um den heißen Brei. Ich habe mit dem Duden sogar Quellen gebracht, die aussagen, dass SSDs keine Festplatten sind (hätte ich nicht gemusst) und der Duden ist als Quelle auch sicherlich nicht besonders geeignet, da nur Wörterbuch. Du kommst hier aber mit einer Google-Suche wo ein paar Leute (in Interviews und ähnlich "umgangssprachlich") SSDs den Festplatten zugeordnet haben, und da ist der Duden doch wohl die bessere Quelle.
„Wenn ein Flugzeug ein herkömmliches Fluggerät (Ballon) ersetzt, heißt es noch lange nicht, dass das Flugzeug kein Fluggerät ist, um mal ein weiteres Beispiel zu nennen.“ Nö, aber es heißt ganz sicher auch nicht, dass ein Flugzeug ein Ballon wäre. -- Jonathan Haas 13:03, 19. Okt. 2009 (CEST)Beantworten

Frage zur Rotationslatenz

In einer Festplatten-Beschreibung stand, dass die Rotationslatenz von innen nach aussen für Festplatten mit "Multiple Zoned Recording" bei identischer Rotationszeit zunimmt. Der Werte-Unterschied ist relativ gering und liegt so bei ungefähr 0.3%.

Hat jemand eine Erklarung für diesen Unterschied in der Rotationslatenz?

Danke, Peter (nicht signierter Beitrag von 89.60.204.166 (Diskussion | Beiträge) 17:32, 25. Okt. 2009 (CET)) Beantworten

Das wird Dir hier wahrscheinlich niemand erklären können. Würde mich auch interessieren, weil ich das auch schon mal gelesen habe.
Servus Ottmar (nicht signierter Beitrag von 89.48.32.59 (Diskussion | Beiträge) 02:44, 27. Okt. 2009 (CET)) Beantworten
Kann sein - Mal schauen.
Ich habe beim Durchlesen vom Artikel den Eindruck gewonnen, dass dieser Artikel ziemlich elektro-technisch gehalten wurde. Das kann man zum Beispiel bei der deutschen Benennung der "Seek Time" erkennen. Die Seek Time hat nichts mit der Spurwechselzeit (Track-to-Track Seek) zu tun, sondern ist die Zylinder-Aufsuchzeit oder besser Positionierzeit.
Peter (nicht signierter Beitrag von 89.48.2.197 (Diskussion | Beiträge) 23:55, 28. Okt. 2009 (CET)) Beantworten
Gibt's wirklich KEINEN, der eine Erklärung hat???
Peter (nicht signierter Beitrag von 89.60.205.17 (Diskussion | Beiträge) 18:44, 8. Nov. 2009 (CET)) Beantworten
Ich hab's Dir doch gesagt, hier gibt's KEINEN. Ich habe mal gelesen, dass das mit der Anzahl der Sektoren zusammenhängt. Aber wie genau der Zusammenhang ist, kann ich Dir auch nicht sagen.
Servus Ottmar (nicht signierter Beitrag von 89.48.27.112 (Diskussion | Beiträge) 01:28, 9. Nov. 2009 (CET)) Beantworten


Die Rotationslatenz im Artikel ist die "Mittlere Integrale Rotationslatenz". Wie die Bezeichnung schon andeutet, wird hier die Rotationslatenz mit Hilfe eines Integrals berechnet. Diese "Mittlere Integrale Rotationslatenz" trifft die Annahme, dass die Zeit-Intervalle gegen NULL gehen (dt -> 0). Das ist natürlich nicht der Fall, weil die Gesamtheit der Sektoren pro Track die Rotationzeit abbildet und die einheitlichen Zeit-Intervalle durch die Sektoren bestimmt werden. Deshalb ist diese Rotationslatenz auch ein bisschen größer als die "wirkliche" mittlere Rotationslatenz.
Mittlere Integrale Rotationslatenz = T/2
T - Rotationszeit (Zeit für eine Umdrehung)


Aber zur Frage:
Die genauere Betrachtungsweise der Latenz bezieht sich auf die Zugriffswahrscheinlichkeit jedes Sektors im Track. Die damit verbundene Latenz nennt sich "Mittlere Effektive Rotationslatenz". Der Read/Write-Kopf der Festplatte kann sich innerhalb eines Tracks und P Sektoren pro Track mit einer Wahrscheinlichkeit von 1/P über jeden beliebigen Sektor in der Rotationszeit T positionieren. Die "Mittlere Effektive Rotationslatenz" ist demzufolge gleich der Wahrscheinlichkeitverteilung für den Zugriff auf den ersten Sektor der Sektoren des kompletten Tracks in der Rotationszeit.
Mittlere Effektive Rotationslatenz = (P-1)/2P x T
T - Rotationszeit (Zeit für eine Umdrehung)
P - Anzahl Sektoren pro Track


Nichtsdestoweniger kann man mit der Mittleren Integralen Rotationslatenz rechnen. Die 0,3 bis 0,5% Unterschied haben keinen wesentlichen Einfluss auf die Zugriffszeit, ausser man will es ganz genau berechnen.


Gruß WoKi (nicht signierter Beitrag von 62.225.37.69 (Diskussion | Beiträge) 19:08, 27. Nov. 2009 (CET)) Beantworten
WOW - SUPER - ECHT KLASSE. Und das Beste, ich habe es auch verstanden.
Ich hatte die HOFFUNG bereits aufgegeben, dass dies jemand beantworten kann.
Herzlichen Dank, Peter
PS.: Ich habe einige Maxtor-Festplatten (Atlas-Serie) und dort wird immer die "Read-on-arrival firmware" genannt. Was dies bedeutet bzw. wie das funktioniert wird in der Festplatten-Beschreibung nicht erläutert. Weis Du darüber auch etwas? (nicht signierter Beitrag von 89.60.209.120 (Diskussion | Beiträge) 12:44, 29. Nov. 2009 (CET)) Beantworten

Cable-Select

Neben den Jumpern existiert ein automatischer Modus für die Bestimmung der Adressen („Cable-Select“), der aber in der Praxis kaum Verwendung findet.

Das ist Unsinn. CS ist seit fast zehn Jahren im PATA-Standard für UltraDMA-Laufwerke/Controller mit 80adrigen Leitungen vorgeschrieben und wird dort regelmäßig benutzt. -- 92.224.141.147 22:08, 5. Okt. 2009 (CEST)Beantworten

Vorgeschrieben ja, regelmäßig benutzt bezweifle ich eher. Ich kenn niemanden, der CS benutzt. Allso glaub ichd asm mi8td em regelmäßig benutzt nur, wenns dazu eine Qeulle gibt. --MrBurns 00:09, 6. Okt. 2009 (CEST)Beantworten
Ich benutze CS regelmäßig. Ebenso liefert z.B. HP alle IDE - Systeme mit "CS" aus, also dürfte es doch ein paar Mal verwendet werden. --Wolfgang 00:08, 13. Okt. 2009 (CEST)Beantworten
Wenn HP die IDE-Systeme mit CS ausliefert, dürfte das auf auf Medion-Rechner wohl auch zutreffen, die HP-Kisten werden ja afaik von Medion zusammengeschraubt (zumindest teilweise) --suit 13:57, 1. Feb. 2010 (CET)Beantworten

Ich muss mich dem anschließen. Alle meine in den letzten Jahren gekauften IDE-Platten (insgesamt 6 Platten von mindestens 3 verschiedenen Herstellern) waren werksseitig auf Cable-Select eingestellt. Das gleiche gilt für meine drei zuletzt gekauften DVD-RW-Laufwerke (jedoch alle vom gleichen Hersteller). Festplatten mit einer anderen Voreinstellung habe ich persönlich zuletzt irgendann zur Jahrtausendwende gesehen. (nicht signierter Beitrag von 62.245.129.158 (Diskussion | Beiträge) 10:52, 11. Dez. 2009 (CET)) Beantworten

Cable Select existierte schon zu Zeiten der 40-poligen Kabel. Den Mainboards und insbesondere optischen Laufwerken lagen aber in aller Regel Standardstrippen bei, womit CS halt nicht funktioniert. Als Bastler kann man idR davon ausgehen, daß Laufwerke in Rechnern, in denen noch 40-adrige Kabel verbaut sind, in aller Regel fest gejumperte Einstellungen haben. Wenn alle Kabel 80-adrig sind, ist meist alles auf CS. Letztlich hilft aber immer nur: Nachsehen. -- smial 16:05, 1. Feb. 2010 (CET)Beantworten