Die redenatie snap ik even niet.
Het hele punt is dat als de camera in de studio de bitstream "10101010" genereert, die bitstream ongewijzigd zo aan moet komen op je TV. En dat is voor alle digitale ontvangers, zelfs die van 15 jaar terug, hetzelfde. En je TV, vooropgesteld dat je daar niet aan gaat zitten prutsen tussen het wisselen van ontvanger, moet die bitstream in alle gevallen op dezelfde manier omzetten in beeld. Hieruit volgt dat in alle gevallen het beeld EXACT hetzelfde moet zijn.
Het punt is ook dat als het beeld NIET EXACT hetzelfde is, dit twee oorzaken kan hebben: "perceptie van de gebruiker", en "aanpassingen aan de bitstream tussen camera en TV". En in dat laatste geval vallen bijvoorbeeld up- en downscalers (in de box, in de TV, in een amp) die ingeschakelt worden als er een verschil in beeldformaat zit (uitzending is 704x576, box HDMI staat vast op 1080i, of uitzending is 1080i, en de box staat vast op 1080p), of andere "beeld verbeteraars".
Deze technische hulpmiddelen voor aanpassing van het beeld, en de algoritmes die gebruikt worden, kunnen natuurlijk per SoC en per box verschillen, wat je aan het eindresultaat kunt zien.
Maar je moet de twee dus niet mixen, en zeggen dat de bitstream ongewijzigd is, en er toch verschil is in beeld. Want dat is gewoon technisch onmogelijk.
Currently in use: VU+ Duo 4K (2xFBC S2), VU+ Solo 4K (1xFBC S2), uClan Usytm 4K Ultimate (S2+T2), Octagon SF8008 (S2+T2), Zgemma H9.2H (S2+T2)
Due to my bad health, I will not be very active at times and may be slow to respond. I will not read the forum or PM on a regular basis.
Many answers to your question can be found in our new and improved wiki.