G
Gast598
Gast
Hallo Community,
wie ich schon des Öfteren erläutert habe, die zu behandelnden Themen darüber sind darunter verlinkt, so suche ich nach einer Antwort darauf, weshalb die I/O-Performance von einer SSD merklich sinkt und ich denke, ich finde in dem markierten Passus die Erklärung dafür.
https://www.drwindows.de/hardware-a...-ssd-defragmentierung-and-konsolidierung.html
https://www.hardwareluxx.de/communi...n-ueber-die-ssd-defragmentierung-1180293.html
Die Antwort?
https://www.com-magazin.de/praxis/ssd/so-restaurieren-sie-ihre-ssd-66226.html
"Was lerne ich daraus - *Was lernen wir daraus*?"
Dass der SSD ein ausreichend großer Puffer gegeben ist? - Das wissen wir bereits seit der HDD. Nein - Dass gefüllte Datenblöcke die I/O-Performance verschlechtern, weil sie vorab dem Beschreiben zuerst gelöscht werden müssen.
Ja - Gelöscht werden müssen! Was bei einer HDD undenkbar und sinnlos erscheint ist bei einer SSD der Alltag, weil ihre Speicherbausteine sogenannte EEPROMs sind, diese kennen wir bereits von dem Arbeitsspeicher und auch diese erfordern eine solche Prozedur, jedoch nicht in der Form von Auffrischungszyklen (Refresh Cycles), weil DRAMs, SDRAMs, SRAMs und EDRAMs volatile Speicher sind, deren Speicherzellen ohne die Auffrischungen ihren Ladungszustand verändern. So ähnlich ist es bei einer SSD, diese ein konstanter Speicher ist, jedoch müssen die Ladungszustände vorab dem Beschreiben definiert worden sein, ansonsten sind die Bits nicht konsistent.
Diese Prozedur vorab einer jeden Befüllung der SSDs bedeutet mehr Zeit.
Eine meiner Fragen bleibt noch ungeklärt: Wieso benötigt die Überprüfung von O&O Defrag Professional 21 seit einigen Monaten eine so ewig lange Zeit für die SSD "Samsung SSD 850 EVO MZ-75E500B"? Sogar die betagten HDDs "Samsung SpinPoint F3 HD502HJ" sind dagegen die wahren SSDs.
Ist das da oben die wahre Erklärung? Ist es nicht vielmehr wahrscheinlich, dass der Speichercontroller "Samsung MGX S4LN062X01-Y030" die Ursache ist, Heap Overflow oder Läsion?
Ich defragmentiere in stetigen Zyklen, sobald die Fragmente zu viele geworden sind, doch die I/O-Performance verbessert sich dadurch nur geringfügig.
Welche Auswirkung haben die Datenfragmente von einer SSD auf die Performance?
Die zusätzlichen Metainformationen, eine Metainformation pro einem Datenfragment, benötigen einen größeren Puffer in den Caches, sie erfordern eine zusätzliche Bandbreite und einen zusätzlichen Interrupt in den Schnittstellen "Device Input and Output Control" (IOCTL) und "Input/Output Control System" (IOCS) und resultieren in den zusätzlichen Speicheranforderungen an dem "Advanced Programmable Interrupt Controller" (I/O APIC & Local APIC).
Dieser erhöhte Interrupt fordert dem Hauptprozessor eine längere Rechenzeit ab, weil er einerseits länger warten muss auf die Daten und weil er andererseits eine jede Operation einzeln berechnen muss anstatt sie als ein Ganzes (kaskadiert zu einem Operanden).
LG Naru!
wie ich schon des Öfteren erläutert habe, die zu behandelnden Themen darüber sind darunter verlinkt, so suche ich nach einer Antwort darauf, weshalb die I/O-Performance von einer SSD merklich sinkt und ich denke, ich finde in dem markierten Passus die Erklärung dafür.
https://www.drwindows.de/hardware-a...-ssd-defragmentierung-and-konsolidierung.html
https://www.hardwareluxx.de/communi...n-ueber-die-ssd-defragmentierung-1180293.html
Die Antwort?
https://www.com-magazin.de/praxis/ssd/so-restaurieren-sie-ihre-ssd-66226.html
SSDs werden langsamer
SSDs unterscheiden sich prinzipiell von Festplatten. Wenn Sie eine Datei löschen, dann löscht das Betriebssystem die Daten nicht, sondern gibt lediglich den Bereich auf dem Speichermedium frei und streicht die Datei aus dem Inhaltsverzeichnis. Bei einer Festplatte lässt sich der Sektor sofort überschreiben.
Bei einer SSD hingegen nicht. Dort müssen die betroffenen Speicherzellen zunächst gelöscht werden. Wenn die SSD immer voller wird, dann trifft das Betriebssystem bei Schreibvorgängen immer häufiger auf solche noch gefüllten Speicherzellen, die es vor dem Schreiben erst leeren muss. Eine fabrikneue SSD ist daher deutlich schneller, als eine, auf der tagtäglich Windows läuft.
"Was lerne ich daraus - *Was lernen wir daraus*?"
Dass der SSD ein ausreichend großer Puffer gegeben ist? - Das wissen wir bereits seit der HDD. Nein - Dass gefüllte Datenblöcke die I/O-Performance verschlechtern, weil sie vorab dem Beschreiben zuerst gelöscht werden müssen.
Ja - Gelöscht werden müssen! Was bei einer HDD undenkbar und sinnlos erscheint ist bei einer SSD der Alltag, weil ihre Speicherbausteine sogenannte EEPROMs sind, diese kennen wir bereits von dem Arbeitsspeicher und auch diese erfordern eine solche Prozedur, jedoch nicht in der Form von Auffrischungszyklen (Refresh Cycles), weil DRAMs, SDRAMs, SRAMs und EDRAMs volatile Speicher sind, deren Speicherzellen ohne die Auffrischungen ihren Ladungszustand verändern. So ähnlich ist es bei einer SSD, diese ein konstanter Speicher ist, jedoch müssen die Ladungszustände vorab dem Beschreiben definiert worden sein, ansonsten sind die Bits nicht konsistent.
Diese Prozedur vorab einer jeden Befüllung der SSDs bedeutet mehr Zeit.
Eine meiner Fragen bleibt noch ungeklärt: Wieso benötigt die Überprüfung von O&O Defrag Professional 21 seit einigen Monaten eine so ewig lange Zeit für die SSD "Samsung SSD 850 EVO MZ-75E500B"? Sogar die betagten HDDs "Samsung SpinPoint F3 HD502HJ" sind dagegen die wahren SSDs.
Ist das da oben die wahre Erklärung? Ist es nicht vielmehr wahrscheinlich, dass der Speichercontroller "Samsung MGX S4LN062X01-Y030" die Ursache ist, Heap Overflow oder Läsion?
Ich defragmentiere in stetigen Zyklen, sobald die Fragmente zu viele geworden sind, doch die I/O-Performance verbessert sich dadurch nur geringfügig.
Welche Auswirkung haben die Datenfragmente von einer SSD auf die Performance?
Die zusätzlichen Metainformationen, eine Metainformation pro einem Datenfragment, benötigen einen größeren Puffer in den Caches, sie erfordern eine zusätzliche Bandbreite und einen zusätzlichen Interrupt in den Schnittstellen "Device Input and Output Control" (IOCTL) und "Input/Output Control System" (IOCS) und resultieren in den zusätzlichen Speicheranforderungen an dem "Advanced Programmable Interrupt Controller" (I/O APIC & Local APIC).
Dieser erhöhte Interrupt fordert dem Hauptprozessor eine längere Rechenzeit ab, weil er einerseits länger warten muss auf die Daten und weil er andererseits eine jede Operation einzeln berechnen muss anstatt sie als ein Ganzes (kaskadiert zu einem Operanden).
LG Naru!