Aber nimm mal ein etwas betagteres Stück Hardware. Und mit Chrome läuft es wie Butter.
Redest Du über die Hardware in Deinem Profil? Diese ist mehr wie ausreichend leistungsfähig und unterstützt die neuesten Technologien zur Hardwarebeschleunigung.
Gucke Dir die Systemprofile der meisten anderen User hier an, auf deren antiquierte Systemkonfigurationen ist dies zutreffend, mitunter erheblich, aber nicht in Deinem spezifischen Fall.
Der Google Chrome und der Opera sind in der Videowiedergabe weitaus rechenintensiver wie der Microsoft Edge, der Microsoft Internet Explorer und der Mozilla Firefox, weil sie das General Purpose Computation on Graphics Processing Unit per Microsoft Video Decode Acceleration Framework in lediglich MPEG-H Part 2 10-Bit unterstützen und dazu befähigt sind einzig das Video Decode and Presentation API for Unix in dem Feature Set G, H sowie neuer von NVIDIAs PureVideo HD 8.0 sowie neuer der Pascal-Mikroarchitektur sowie neuer und von Intels Graphics Gen9.5 sowie neuer der Mikroarchitekturen Kaby Lake-DT, Skylake-SP sowie neuer und das Advanced Media Framework von AMDs Unified Video Decoder 6.0, 7.0 (einschließlich Video Core Next 1.0) sowie neuer der Mikroarchitekturen Polaris, Vega, Stoney Ridge, Raven Ridge sowie neuer.
https://en.wikipedia.org/wiki/Nvidia_PureVideo
https://en.wikichip.org/wiki/intel/microarchitectures/gen9.5
https://de.wikipedia.org/wiki/Unified_Video_Decoder
Es bedeutet, dass der Videoprozessor, auch Videodecoder genannt, dazu befähigt ist die sämtlichen aufgeführten Formate nativ zu berechnen:
MPEG-4 Part 10 - High Profile (H.264 / x264: YUV 4:2:0 / 8 Bit) = HiP
MPEG-H Part 2 - High Profile (H.265 / x265: YUV 4:2:0 / 8 Bit) = HiP
MPEG-H Part 2 - High Profile 10 (H.265 / x265: YUV 4:2:0 / 8 - 10 - Bit) = Hi10P
MPEG-H Part 2 - High Profile 10 (H.265 / x265: YUV 4:2:0 - 4:2:2 / 8 - 10 Bit) = Hi422P
MPEG-H Part 2 - High Profile 12 (H.265 / x265: YUV 4:2:0 - 4:2:2 - 4:4:2 - 4:4:4 / 8 - 10 - 12 - 14 Bit) = Hi444PP
Jeweils keine Unterstützung, von bisher keinem einzigen Videoprozessor, finden die Formate:
MPEG-4 Part 10 - High Profile 10 (H.264 / x264: YUV 4:2:0 / 8 - 10 Bit) = Hi10P
MPEG-4 Part 10 - High Profile 10 (H.264 / x264: YUV 4:2:0 - 4:2:2 / 8 - 10 Bit) = Hi422P
MPEG-4 Part 12 - High Profile 12 (H.264 / x264: YUV 4:2:0 - 4:2:2 - 4:4:2 - 4:4:4 / 8 - 10 - 12 - 14 Bit) = Hi444PP
Im Umkehrschluss bedeutet es zu meinem spezifischen Fall, dass der Hauptprozessor Intel Core i7-6700K die sämtlichen Berechnungen für Videos in 10-Bit, ungleich ob MPEG-H Part 2 oder MPEG-4 Part 10, zu letzteres kein einziger Videoprozessor in 10-Bit befähigt ist, alleinig zu bewältigen hat, weil weder NVIDIAs PureVideo HD 6.0 noch Intels Graphics Gen9 dazu nativ befähigt sind.
Welche enorme Aufgabe dies für ihn ist, insbesondere in dem YouTube-Format 2160p60, kann man sich ausmalen, wenn man nur einmal erlebt hat, wie beispielsweise ein AMD FX-8350 ins Heizen kommt, denn ausgenommen von dem Grafikprozessor, der verhältnismäßig zum Videoprozessor ultralahm ist, steht dem Hauptprozessor keine weitere Unterstützung zur Seite.
Doch DUUU~ besitzt den passenden Videodecoder, um den Prozessor von dieser enormen Belastung zu entlasten und dennoch ... Missfällt die Hardwarbeschleunigung. Und genau diese ist der Punkt - der Grund für Dein Problem. Doch es geht nicht bloß um Videos, denn sogar die Benutzeroberflächen sind davon betroffen, sodass die Problemquelle lautet
C++ Accelerated Massive Parallelism.
Was ist zu tun? Chipsatz- und Grafiktreiber erneuern und die sämtlichen Laufzeitumgebungen der Microsoft Visual C++ Redistributable auf Vordermann zu bringen! Hierin und nirgendwo anders ist Dein Problem begründet!
LG Naru!
Update
Nun bringe ich Dich auf den Geschmack in der praktischen Natur.
Jeweils ein Screenshot zu Google Chrome auf YouTube @1080p60 @MPEG-H Part 2 10-Bit und @2160p60 @MPEG-H Part 2 10-Bit und dem gegenüber steht ein Screenshot zu Mozilla Firefox auf YouTube @1080p60 @MPEG-4 Part 10 8-Bit und nun betrachte die Gadgets zu Deiner rechten Seite. Zu erkennen ist nicht nur, dass lediglich das Rendering in 8-Bit von dem Videoprozessor erfolgt sondern auch, dass es den Hauptprozessor enorm entlastet und nun stelle Dir diese Entlastung bei dem Screenshot in 10-Bit auf satten 2160p60 vor, ein Luxus, über den das NVIDIAs PureVideo HD 6.0 von der Maxwell-Mikroarchitekur nicht befähigt ist, andernfalls hätte ich auch dazu einen Vergleich herangezogen, beziehungsweise NUR davon. Wenn schon der Intel Core i7-6700K einen solch derartigen Peak erzielt was glaubst Du, wo bspw. die AMD-FX-CPUs landen? Genau - Sie heizen fürchterlich und das Video ruckelt, stockt und verpixelt. Gut - Zu berücksichtigen ist, dass der Intel Core i7-6700K auf lediglich 2,5 GHz gedrosselt ist und dass ebenso die EVGA GeForce GTX 970 SSC GAMING ACX 2.0 auf ihre niedrigste Performance geregelt ist, dennoch veranschaulicht es so in etwa die Performance von Deinem Rechner ohne der Hardwarebeschleunigung, wenngleich der Skylake-Prozessor mit nur 2,5 GHz noch immer leistungsfähiger ist wie der Intel Core i5-4460, aber dafür werkelt die Grafikkarte gedrosselt, sodass die Last ein klein wenig mehr zum Ungunsten des Hauptprozessors übergeht.
Update
Die EVGA GeForce GTX 970 SSC GAMING ACX 2.0 [04G-P4-2975-KR] ist ausgebaut und anstelle ihrer tritt eine von insgesamt zwei EVGA GeForce GTX 1070 FTW GAMING ACX 3.0 [08G-P4-6276-KR] meines kleinen Bruders iWebi.
Vergleicht nun das neue 2160p60-Resultat im Hardware gerenderten HEVC 10-Bit per CPU+VPU+GPU (rechts) mit dem alten 2160p60-Resultat im Software gerenderten HEVC 10-Bit per CPU+GPU (links).
Wie ihr seht, so ist der Videoprozessor am Rendern und die CPU-Last um ein enormes Vielfaches gesunken.