Overdreven effecten door Smart HDR
In theorie is Smart HDR op de iPhone een prima oplossing: foto’s worden automatisch net iets mooier gemaakt door informatie van meerdere lenzen en meerdere opnames te combineren. Bij de camera in de iPhone 14 Pro wordt zelfs de informatie van een 48-megapixelcamera gebruikt om er een zo mooi mogelijke 12-megapixelfoto van te maken. Maar al die nabewerking heeft ook een nadeel: de foto kan er nogal fake uit gaan zien. Dat beweert youtuber Marques Brownlee, beter bekend als MKBHD. En hij is niet de enige.
MKBHD voerde eind vorig jaar een blinde test om te kijken welke smartphone de beste foto’s maakt. De Google Pixel 6A won daarbij de eerste prijs en de Pixel 7 Pro kwam als tweede uit de bus. Apple scoorde lager. Het viel al eerder op dat de nabewerking van de iPhone-camera overdreven resultaten kan geven en nu heeft MKBHD in een nieuwe video uitgelegd waarom de foto’s die je met de iPhone 14 Pro maakt er soms zo onnatuurlijk uit zien.
Voorheen stond Samsung erom bekend dat ze onnatuurlijke foto’s maken, passend bij de Aziatische voorkeur voor flatteuze foto’s en extreme verzadiging. Apple ruïneert de foto’s ook, maar doet dat op een heel andere manier. Donkere gedeeltes worden extra opgelicht in een poging om meer detail te laten zien. Bij iemand met een donkere huidskleur kan dat een overdreven effect geven, waardoor iemand er juist lelijker uit ziet op een foto. Apple probeert de schaduwen op te lichten, vooral op het gezicht, met als gevolg dat het er kunstmatig uit ziet. De huidtint klopt ook niet meer met wat hij zelf als natuurlijk ervaart.
Bij gunstige omstandigheden zoals een heldere lucht of een persoon die bij daglicht wordt belicht en een duidelijke achtergrond heeft, ziet het er normaal uit. Maar als er verschillende kleuren en texturen te zien zijn, gaat de slimme HDR-functie er niet zo slim mee om. Apple voegt elk jaar nieuwe software-functies toe om de foto’s die je maakt met nog meer stappen na te bewerken. Maar dat maakt de foto’s niet beter. Sebastiaan de With, de man achter de populaire camera-app Halide, heeft eerder ook al gewezen op de tekortkomingen van Smart HDR. Bij tegenlicht probeert de iPhone de mensen op de foto op te lichten, waardoor ze er onnatuurlijk en gebleekt uit zien.
Dit kun je er nu al aan doen
Smart HDR snijdt de menselijke figuren uit de foto en licht ze vervolgens op. Apple zou dit kunnen oplossen door een schakelaar toe te voegen, zodat je Smart HDR kunt uitschakelen. Een andere optie is om een RAW-foto te maken met een app zoals Halide, maar dan krijg je een veel te groot fotobestand en moet je zelf nog aan de slag gaan met nabewerking. Dat komt er vaak niet van. Gebruik je Apple’s eigen ProRaw-foto’s, dan is het goed om te weten dat die achteraf ook nog worden nabewerkt. De meest simpele oplossing is om een Live Photo te maken, maar ook dat heeft weer nadelen. Die bewegende foto’s nemen meer ruimte in op je iPhone. Nee, een schakelaar voor Smart HDR, dát zou pas handig zijn. Misschien in iOS 17?
Taalfout gezien of andere suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!
Het laatste nieuws over Apple van iCulture
- 'Apple denkt opnieuw na over uitbrengen eigen televisie' (18-11)
- Overzicht: deze Apple-producten zijn in 2024 uitgebracht (en komt er nog meer aan?) (14-11)
- watchOS 11.2 beta 2 beschikbaar: wat brengt deze aankomende update? (11-11)
- Tweede beta tvOS 18.2 is uit voor ontwikkelaars (11-11)
- Apple verkoopt nu originele iPhone 16-onderdelen voor mensen die zelf willen repararen (10-11)
Reacties: 16 reacties