8K ist am Markt immer noch eine Nische – und das wohl zurecht, wenn man nach einer neuen Studie geht.
So haben Forscher der Universität Cambridge und des Meta Reality Labs sich verschiedene Aspekte betrachtet, die sich auf die menschliche Wahrnehmung von Auflösung und Bildqualität auswirken. Darunter sind z. B. der Sitzabstand, die Pixeldichte, die Umgebungsbeleuchtung und mehr gewesen. Auch 8K haben sie dabei in den Fokus gerückt. Das Ergebnis lautet, dass so gut wie kein Haushalt wirklich von der Auflösung profitiert.
8K-Test: Kein Unterschied zu 1440p feststellbar
Beispielsweise können die Menschen bei einer verwendeten Bilddiagonale von 50 Zoll bei 3 Metern Sitzabstand, ein verbreitetes Szenario in deutschen Wohnzimmern, keinen Unterschied mehr zwischen 8K und 1440p als Auflösung erkennen. Ausnahme: 1 % mit extrem guter Sehkraft. Erhöht man dann allerdings die Vergleichsauflösung auf 4K, fallen selbst jene 1 % heraus. Im Klartext müsste man so nah an den Screen heranrücken, dass von einem angenehmen Filmgenuss wohl keine Rede mehr sein könnte.

Realistisch gesehen, sitzen die meisten Menschen schon von ihren 4K-TVs so weit entfernt, dass sie die Auflösung nicht ansatzweise ausnutzen, sodass 1080p keinen Unterschied für sie machen würde. Allerdings spielen neuere Fernsehgeräte, insbesondere mit OLED oder Mini LED, natürlich andere Vorteile aus, die nicht vom Sitzabstand abhängen – etwa bei der Farbwiedergabe und dem Kontrast dank HDR.
Das ist der Zweck der Studie
Warum interessieren sich die Forscher für 8K? Sie wollen herausfinden, ob sich die hohe Auflösung für Hersteller und Kunden lohnt bzw. in welchen Szenarien sie Vorteile hat. Schließlich kosten entsprechende Bildschirme auch die Anbieter in der Produktion mehr. Für Anwender sind wiederum nicht nur die Anschaffungskosten erhöht, sondern auch die Kosten für den Betrieb. Denn 8K-TVs verbrauchen mehr Strom als vergleichbare 4K-Fernseher.
Am Ende lohnt sich 8K nach aktuellem Stand der Dinge im Heimkino bei verbreiteten Bilddiagonalen und gängigen Sitzabstand nicht. Anders sieht es im Bereich Mixed Reality aus, denn die entsprechenden Brillen, wie z. B. die Apple Vision Pro, sitzen ja sehr nahe an den Augen.
| # | Vorschau | Produkt | Preis | |
|---|---|---|---|---|
| 1 |
|
Samsung TV 55" (2025) Neo QLED 8K UHD - TQ55QN80FAUXXC | 979,90 EUR 799,90 EUR | Bei Amazon kaufen |
| 2 |
|
Samsung Neo QLED 8K QN900D Fernseher 65 Zoll, Samsung TV mit Neo Quantum HDR 8K Pro, Neural Quantum... | 2.679,00 EUR | Bei Amazon kaufen |
| 3 |
|
SAMSUNG 65QN800C NeoQLED 65 Fernseher (165 cm) 8K 7680 x 4320 100 Hz HDR Smart TV Gaming HUB 4 x... | 1.799,00 EUR 1.599,00 EUR | Bei Amazon kaufen |
Transparenz: Dieser Artikel enthält Affiliate-Links. Wenn ihr auf diese klickt, werdet ihr direkt zum jeweiligen Anbieter weitergeleitet. Falls ihr einen Kauf tätigt, bekommen wir eine geringe Provision. Für euch bleibt der Preis unverändert. Vielen Dank für eure Unterstützung!

Aktuell 458 UHD Disks in der Sammlung.
1028 Blu-rays, 122 HD DVDs, 1236 DVDs.
Es wird immer die Disk geben, nur wird es teurer werden und der Katalog kleiner, leider.
„etwa bei der Farbwiedergabe und dem Kontrast dank HDR“ – Kontrast gibt es nicht dank HDR. HDR ist nur ein Hilfsmittel. Selbstverständlich kann ich auch mit die Mühe machen das Material vernünftig abzustimmen. Dann muss der TV gar nix mehr machen. Die Lichter , die Farben , Tiefen , schwarzwerte , clipping usw kann man alles am Film anpassen. Ergo gibt es Kontrast nicht dank HDR. Das ist ein Irrglaube. So könnte man ja gleich denken , ohne HDR gibt es keinen Kontrast. Was ist dann mit einem Blatt Papier z.B? Oder was ist überhaupt Kontrast? Kann HDR auch aus einem Quadrat einen Kreis machen? -> HDR ist nur eine Funktion.
HDR ermöglicht einen verbesserten Kontrastumfang / erhöhte Dynamik im Bild, genau dafür ist es da. Dass HDR aber nicht „Kontrast erschafft“, versteht sich von selbst.
Was ist Kontrast? Kontrast kann vieles sein. Salopp gesagt vllt ein „Unterschied“. Nehmen wir hier mal den Helligkeitskontrast an. Dann wäre das auf einem Papier das Maximum ein bedruckte schwarze Fläche , neben einer nicht bedruckt schwarzen Fläche. Was unbedruckt ist und bedruckt , entscheide ich selbst. Und was schwarz ist und was nicht auch. Brauche ich dazu HDR? – zum Bildschirm. Hier wäre es doch ähnlich. Nur wäre es eben eine Fläche mit allen Lichtinformationen – also weiß – neben einer Fläche mit gar keinen Lichtinformationen. Was also weiß sein soll , kann ich selbst vorgeben – (RGB 255,255,255) -> mehr geht ja nicht. Umgekehrt das gleiche für den dunkelsten darstellbaren Wert (RGB 0,0,0). Das gilt auch für erweiterte Farbräume. Ich kann immer einen Infowert mehr dazu geben. Das bestimmt ich. Und nicht das Wiedergabegerät. Falls also das Wiedergabegerät über eine Funktion eine Verbesserung von z.B schwarz/weiß ermöglichen soll – habe ich nicht (RGB 255,255,255) / (RGB 0,0,0) vorgegeben. Denn mehr als weiß geht ja nicht. Das geht nur , wenn etwas fehlt. Im Prinzip kann ich also selbst dafür sorgen , was das Wiedergabegerät anzeigen soll. Habe ich ein korrektes Bild gemastert , bewirkt HDR genau das Gegenteil. Das wäre ungefähr ähnlich einem Vergleich zwischen einem Sterne-Menü und einer Tiefkühlkost. Wer immer nur Tiefkühlprodukte isst – dem….
Irgendwie machst du es dir unnötig kompliziert. Kontrast umfasst etwa den Unterschied zwischen hellen und dunklen Bildbereichen. Natürlich ist der in HDR potenziell viel höher als in SDR, weil HDR im Bild sowohl dunklere als auch hellere Bildbereiche zulässt, während in SDR alles einheitlich auf 100 Nits getrimmt wird.
Hell vs Dunkel ist doch nicht kompliziert. Zwei Zustände für das Maximum. Und weil jmd an seinem Gerät einen „Helligkeitsschalter“ mit der Beschriftung SDR + HDR anbringt – ist das nicht meine Verkomplizierung. Stell dir mal vor , das baut jmd in deine Fenster zu Hause ein. Bei der Stellung SDR lässt dein Fenster über einen Filter nur das ein zehntel Licht rein , und für HDR(gg ein Aufpreis) -> Filter aus – volles Sonnenlicht….Draußen ist aber immer das gleiche Bild – also am TV die Quelle -> nur TV macht was er will…..Dem Kanalwert also (RGB 255,255,255) ist gleich ob SDR oder HDR – der Wert 255 sagt volle Helligkeit für den Kanal an. Dein SDR und HDR ist künstlich gemacht.
Natürlich ist SDR und HDR künstlich gemacht, wie alles in der digitalen Welt.
SDR hat einen geringeres Farb- und Helligkeitsspektrum, maximal 8Bit, wodurch es gar nicht in der Lage ist, korrekte Werte darzustellen.
HDR hat ein erweitertes Farbspektrum von aktuell bis zu 12 Bit.
Somit können Farben und Helligkeit viel genauer wiedergegeben werden.
HDR rechnet nicht einfach etwas besser. Es ist ein Standard für einen höheren Datenstrom der erreicht werden muss, um das aufgenommene Bild korrekt darzustellen.
Nichtsdestotrotz gibt es genügend Fernseher, die trotz des Aufklebers „HDR“ gar nicht in der Lage sind, auf Grund der schlechten Panels, HDR korrekt wiederzugeben.
Hier mal ein paar praktische Zahlen, was 8K angeht:
Der japanischen Standard „Super Hi-Vision“ der NHK sieht folgende Rechnung für den Bildschirm vor: Distanz x (0,75 bis 1,0) = Bildhöhe. Das ergibt bei einem Sitzabstand von 2,5m eine Bilddiagonale von 150 bis 200 Zoll. Die 200 Zoll sieht die europäische EBU übrigens auch vor (ca. 100 Grad Betrachtungswinkel). Wer will sich das ins Wohnzimmer stellen?
Außerdem müssten die Inhalte natürlich auch dementsprechend produziert werden. Im TV-Sektor scheinen aber eh viele Nulpen für das Bild zuständig zu sein, andernfalls würde hier bei Interviews nicht oft die Schädeldecke abgeschnitten werden.
„Ach was!“
– Loriot
Die Digital Cinema Projektoren im (kleinen) Kino meines Vertrauens haben DCI 2K, also 2048×1080.
Ich kann mich nicht erinnern, dass ich jemals, trotz 5- bzw. 7-Meter-Leinwand, gedacht habe: „die Auflösung ist aber zu niedrig“.
Bei Beamern ist das aufgrund der Technologie auch einfacher zu verschleiern. Geht da schon beim Thema Pixel Pitch los.
Sag bloß, das sind ja wirklich bahnbrechende Erkenntnisse! Nicht.
1) Wer bitte nutzt denn einen 8K TV in 50′? Gibt es 8K TVs in der Größe überhaupt? Falls nicht: Wie wurde denn der Test ausgeführt?
2) Die am stärksten wachsenden TV Größen sind derzeit Geräte >80″. >100″ Geräte drängen auch immer öfter auf den Markt. Das sind alles Diagonalen bei denen 4K bei einem „wohnzimmertypischen“ Sitzabstand viel zu niedrig auflöst. Wen interessieren denn dort Kinderzimmergrößen unterhalb von 75″?
Genau dort kommen dann noch höhere Auflösungen wieder ans Spiel.
Finde es immer amüsant wie auf dieser Seite gegen 8K geschossen wird. Ist ja nicht so, als würde es da in der Vergangenheit keine Gründe für gegegeben haben. Aber man muss halt einfach mal realistisch bleiben. Kommt mir so vor als hätte sich da jemand die Domains 8kfilme.de nicht rechzeitig hat sichern lassen 😀 Aber keine sorge. 16kfilme.de scheint noch frei zu sein.
Ab 100 Zoll ist 4k zu niedrig aufgelöst?! Aha…. selten so gelacht!
Tja, dann lach mal fröhlich weiter. Wir sprechen uns dann wieder wenn du das auch irgendwann merkst 🙂
Gute Bewertung und Ich sehe das genauso ^^
Farbraum und natürlich das halten von Hohen Helligkeiten in bestimmten Bereichen und gleichzeitig eine Genaue Farbdarstellung ist definitiv der bessere weg. Wenn man noch gutes Motion Handling beim Gerät und Quelle hat, dann ist man vollkommen zufrieden.
Wenn ich von US Streamen UHD SDR schaue auf meinem 77 Zoll Sony OLED, dann fällt das schon nicht wirklich auf bei 2.3 Metern im vergleich zu 1080p SDR. Nach einer Weile gewöhnt man sich an die Größe und in meinem fall wird der Nachfolger ein LaserTV von Hisense mit 100 Zoll Leinwand nach dem ich im Schlafzimmer schon von einem Dangbei Beamer UVP 230€ überzeugt bin.
Abgesehen davon beliefern uns bis auf Sony Core alle mit Lächerlichen Bitraten für Serien und Filme und auch da geht natürlich Details wie Schärfe und Farbe verloren. Zuletzt ja Netflix die von 500mbits Kino Kamera Aufnahme sich daran gestört haben das die Körnung zu viel Pixel Matsch verursacht wenn man den Film auf 18Mbits Runter schlägt, daher entfernt und Künstlich wieder eingeführt. Die sollen nicht mit Auflösung ankommen bei TV Geräten