Diskussion:Fragmentierung (Dateisystem)
aus Wikipedia, der freien Enzyklopädie
Inhaltsverzeichnis |
[Bearbeiten] Artikel unterbrochen?
Wie bei meinem Vorredner, der sich über einen nicht mehr fortgeführten Satz beklagt, geht es auch bei meiner "Beschwerde" um unvollständigkeit... Im Artikel steht:
Die durch unterschiedliche Verfahren bestimmte Fragmentierungsgrade sind nicht vergleichbar; nichteinmal durch gleiche Verfahren bestimmte Fragmentierungen sind vergleichbar, weil die realen Auswirkungen bei vielen Verfahren weiterhin von Blockgröße, durchschnittlicher Dateigröße und Geschwindigkeit des Mediums abhängen.
in denen Köpfe positioniert (Festplatten) oder Blocks umgeschaltet (Flash-Speicher) werden und in denen real gelesen und geschrieben wird. Stark fragmentierte Dateisysteme können die Geschwindigkeit eines Dateisystems auf einen winzigen Bruchteil der theoretisch möglichen Geschwindigkeit reduzieren, indem dieses Verhältnis sehr groß wird.
Irgendwie kann ich mit dieser Aussage nichts anfangen. Da es der zweite Abschnitt den ich hier zitiere auch kleingedruckt weitergeht, nehme ich an, dass jemand wild irgendetwas gelöscht hat... Kann des sein?!? --Jd-fun 21:05, 1. Mai 2006 (CEST)
[Bearbeiten] Stilistische Fehler
Dieser letzte Teil des Artikels enthalt mehrere faktische und stilistische Fehler:
"Grades der Fragmentierung" soll wohl "Grad der Fragmentierung heißen.
"Den Grad der Fragmentierung bestimmt man Messung der Geschwindigkeit des fragmentierten (realen) Dateisystemes gegenüber einem nichtfragmentierten (optimalen) Dateisystems."
Dieser Satz ist irreführend und falsch.
"Aus dieser unterschiedlichen Sichtweise der Messung der Fragmentierung beruht der Mythos, daß Linux-Dateisysteme nicht oder nur gering fragmentieren. Zumindest die klassischen Linux-Dateisysteme Ext2 und Ext3 haben gegenüber Windows-Dateisystemen wie NTFS und FAT keinerlei zusätzliche Mechanismen, um eine Fragmentierung zu verringern oder gar zu verhindern. Die oft gepriesenen Vorteile sind genauso im Windows-Dateisystem implementiert."
Allerdings sind unter Linux aufgrund der Optimierungen in den IO-Schedulern Fragmentierungen weitgehend unbedeutend. Das muss wesentlich genauer erläutert werden und insbesondere mit Quellen belegt werden.
- Dafür würde ich auch gern Quellen sehen. Ich kann nämlich ne Menge Quellen angeben, die genau das besagen, was in dem Satz geleugnet wird. 84.161.102.31 23:40, 12. Mai 2006 (CEST)
[Bearbeiten] Letzer Abschitt
Im Artikel steht „Gute Ergebnisse liefern nach einem Test der Zeitschrift c't ...“. Welcher Scherzkeks war hier am Werk? Soll sich jetzt jeder seinen Teil denken? Sind die Programme so trivial, dass sie hier keiner Erwähnung bedarfen? Oder heißen die Programme „...“? --84.177.123.137 16:29, 23. Apr 2006 (CEST)
[Bearbeiten] Bezüglich der Bilder
Bei den Bildern ist scheinbar noch das Copyright ungeklärt?! Die Bilder sind wohl als ScreenShot unserer Software O&O Defrag entstanden. Da zahlreiche Sites solche Bilder in Eigenregie anfertigen und veröffentlichen, haben wir (O&O Software) natürlich auch nichts gegen die Benutzung hier in Wiki. Bei Fragen hierzu bitte einfach melden bei mailto://carsten.fischer@oo-software.de (C. Fischer 20060427)
Ich weiß auch nicht, warum das Copyright da nicht geklärt sein soll. Der Autor hat doch eindeutig unter das Bild geschrieben, dass er es selber mit der ScreenShot Funktion gemacht hat... Bei anderen Bildern wird dies doch auch akzeptiert? Ist doch eigentlich nichts drann auszusetzen, oder doch? --Jd-fun 21:08, 1. Mai 2006 (CEST)
- Die deutsche Wikipedia ist recht streng, was die Anforderungen für hochgeladene Bilder angeht. Und Screenshots von kommerziellen Programmen sind im Allgemeinen nicht "frei", auch wenn sie für die Presse oder ähnliches kostenlos verwendet werden dürfen. Siehe Wikipedia:Bildrechte. So muss z.B. auch die kommerzielle Nutzung und das beliebige Verändern der Bilder gestattet sein. Die meisten kommerziellen Softwareanbieter gestatten dies nicht. --RokerHRO 21:57, 11. Nov. 2006 (CET)
[Bearbeiten] Fragmentierung von ext2 verständlicher erläutern?
Könnte jemand den Absatz über die Fragmentierung von ext2 etwas besser verständlich machen? Da kommen plötzlich Blocks (Blöcke?) und Blockgrößen ins Spiel und schließlich Prozentangaben, deren Herleitung sich mir so nicht erschließt. Vielleicht könnte auch jemand einen Absatz einschieben, der die Organisation von Dateisystemen grob erläutert?
[Bearbeiten] Fragmentierung bei ext2
Aus dieser unterschiedlichen Sichtweise der Messung der Fragmentierung beruht der Mythos, dass Unix-Dateisysteme nicht oder nur gering fragmentieren. Zumindest die klassischen Linux-Dateisysteme Ext2 und Ext3 haben gegenüber Windows-Dateisystemen wie NTFS und FAT keinerlei zusätzliche Mechanismen, um eine Fragmentierung zu verringern oder gar zu verhindern. Die oft gepriesenen Vorteile sind genauso im Windows-Dateisystem implementiert.
Bitte diese Aussage belegen. Diese beiden Filesysteme benötigen auch keine extra Mechanismen um Fragmentierung zu reduzieren. Es ist der Unterschied zwischen "first fit" (NTFS) und "best fit" (ext2 & 3) das den kleinen aber feinen Unterschied macht!
Ein Fragmentierungsgrad von 1% in einem ext2-Dateisystem bedeutet, dass Fragmente aus durchschnittlich 100 Blocks bestehen. Bei einer Blockgröße von 1 KByte stellt das schon eine starke Fragmentierung dar (bei aktuellen Platten sind das noch 20% der maximal möglichen Geschwindigkeit), bei einer Blockgröße von 4 KByte ist es eine mittlere Fragmentierung (ca. 50% der maximal möglichen Geschwindigkeit ist noch erreichbar).
Gibt es hierfür eine Formel? Die Zahlen erscheinen mit vollkommen willkürlich. 20% wovon?
[Bearbeiten] Gleichbehandlung
mst Defrag wieder aufgenommen. Im Zuge der Gleichbehandlung sollten alle kommerziellen Anbieter genannten werden dürfen, die durch die Fachpresse bereits bewertet wurden oder aber es sollten alle Einträge entfernt werden. Es scheint, als ob entweder Diskeeper, Raxco oder O&O etwas gegen die Nennung von mst Defrag haben. Vielleicht kann mir mal einer erklären, wieso. Ansonsten würde ich doch bitten, von solchen Kindereien zukünftig Abstand zu nehmen.
[Bearbeiten] Beschädigung durch Defragmentierung
Ist es möglich, dass die Festplatte durch die Defragmentierung beschädigt werden kann?
- Eigentlich nicht. Keine Frage, bei der Defragmentierung hat die Festplatte viel zu tun, viele Spurwechsel usw. Besonders bei einem bereits recht vollen Dateisystem kann es vorkommen, dass manche Daten mehrfach umkopiert werden müssen. Dies beansprucht eine Platte stärker als der normale Betrieb. Bei einer altersschwachen Festplatte oder einer mit bereits vielen defekten Sektoren kann diese Prozedur dazu führen, dass die letzten Reserven ausgereizt werden und die Festplatte kaputtgeht. Dann wäre sie im normalen Betrieb aber sicher auch in Kürze kaputtgegangen.
- Anders sieht es etwa bei Flash-Speichern aus, da diese nur eine begrenzte Anzahl von Schreibzyklen pro Sektor erlauben. Durch das Defragmentieren und die damit verbundenen Umkopieraktionen kann diese Anzahl schneller erreicht werden und somit schneller Sektoren ausfallen. Aber auf Flash-Speichern bringt Defragmentieren eh nichts, da die Zugriffszeiten bei fragmentierten Daten nur unwesentlich größer sind als bei unfragmentierten Daten. --RokerHRO 21:50, 11. Nov. 2006 (CET)
- Ein Lehrer von mir hat mal gesagt dass die Festplatte kaputt ist wenn beim Defragmentieren plötzlich der Strom ausfällt, aber das dürfte wohl nicht viel wahrscheinlicher sein als von einem Blitz getroffen zu werden.
- MfG - Paragleiber 23:52, 30. Nov. 2006 (CET)
- Naja, aber die Daten auf der Platte dürften dann zumindest teilweise weg sein. Soll heißen: Das Dateisystem ist inkonsistent und muss repariert werden, wobei ggf. nicht alle Daten wieder gerettet werden können. Je nach dem, wie der Defragmentierer arbeitet. --RokerHRO 08:44, 1. Dez. 2006 (CET)
[Bearbeiten] Werkzeuge zur Defragmentierung
....also der zweite Satz hat doch logische, rhetorische und grammatikalische Lücken für mich als lesenden Laien.