Hoe werkt AI-upscaling?

Hoe werkt AI-upscaling?

Kort antwoord: AI-upscaling werkt door een model te trainen met gepaarde afbeeldingen van lage en hoge resolutie, en dit vervolgens te gebruiken om geloofwaardige extra pixels te voorspellen tijdens het opschalen. Als het model tijdens de training vergelijkbare texturen of gezichten heeft gezien, kan het overtuigende details toevoegen; zo niet, dan kan het artefacten zoals halo's, een wasachtige huid of flikkering in video's "hallucineren".

Belangrijkste conclusies:

Voorspelling : Het model genereert plausibele details, maar geen gegarandeerde reconstructie van de werkelijkheid.

Modelkeuze : CNN's zijn over het algemeen stabieler; GAN's kunnen een scherper beeld geven, maar lopen het risico kenmerken te verzinnen.

Artefactcontrole : Let op halo's, herhaalde texturen, "bijna-letters" en plasticachtige gezichten.

Videostabiliteit : Gebruik temporele methoden, anders zie je beeldwisselingen en -verschuivingen.

Gebruik in situaties met hoge inzet : Als nauwkeurigheid van belang is, geef dan de verwerking weer en beschouw de resultaten als illustratief.

Hoe werkt AI-upscaling? Infographic.

Je hebt het vast wel eens gezien: een klein, korrelig beeldje verandert in iets dat scherp genoeg is om af te drukken, te streamen of in een presentatie te gebruiken zonder te krimpen. Het voelt bijna als valsspelen. En – op de beste manier – dat is het eigenlijk ook wel een beetje 😅

Hoe AI-upscaling werkt, dus neer op iets concreters dan "de computer verbetert details" (een nogal vage omschrijving) en eerder op "een model voorspelt plausibele structuren met hoge resolutie op basis van patronen die het heeft geleerd uit talloze voorbeelden" ( Deep Learning for Image Super-resolution: A Survey ). Die voorspellingsstap is cruciaal - en daarom kan AI-upscaling er verbluffend uitzien... of een beetje kunstmatig... of alsof je kat extra snorharen heeft gekregen.

Artikelen die u wellicht interessant vindt om na dit artikel te lezen:

🔗 Hoe AI werkt
Leer de basisprincipes van modellen, data en inferentie in AI.

🔗 Hoe AI leert
Zie hoe trainingsdata en feedback de modelprestaties in de loop van de tijd verbeteren.

🔗 Hoe AI afwijkingen detecteert
Begrijp de basispatronen en hoe AI ongebruikelijk gedrag snel signaleert.

🔗 Hoe AI trends voorspelt
Ontdek voorspellingsmethoden die signalen signaleren en de toekomstige vraag voorspellen.


Hoe AI-upscaling werkt: het kernidee, in begrijpelijke taal 🧩

Opschalen betekent de resolutie verhogen: meer pixels, een grotere afbeelding. Traditioneel opschalen (zoals bicubische interpolatie) rekt in principe pixels uit en maakt overgangen vloeiender ( bicubische interpolatie ). Dat is prima, maar het kan geen nieuwe details creëren - het interpoleert alleen.

AI-upscaling probeert iets gedurfders (ook wel "superresolutie" genoemd in de onderzoekswereld) ( Deep Learning voor beeldsuperresolutie: een overzicht ):

  • Het analyseert de invoer met lage resolutie

  • Herkent patronen (randen, texturen, gelaatstrekken, tekstlijnen, weefstructuur van stoffen, enz.)

  • Voorspelt hoe een versie met hogere resolutie zou moeten zien.

  • Genereert extra pixelgegevens die bij die patronen passen

Niet "de realiteit perfect herstellen", maar eerder "een zeer geloofwaardige schatting maken" ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ). Als dat een beetje verdacht klinkt, heb je gelijk - maar dat is ook de reden waarom het zo goed werkt 😄

En ja, dit betekent dat AI-upscaling in feite gecontroleerde hallucinatie is... maar dan wel op een productieve manier die de pixels respecteert.


Wat kenmerkt een goede versie van AI-upscaling? ✅🛠️

Als je een AI-upscaler (of een vooraf ingestelde instelling) beoordeelt, zijn dit doorgaans de belangrijkste factoren:

  • Detailherstel zonder oververhitting.
    Goede opschaling zorgt voor scherpte en structuur, geen korrelige ruis of onnatuurlijke poriën.

  • Randdiscipline.
    Strakke lijnen blijven strak. Slechte modellen zorgen ervoor dat randen gaan wiebelen of halo's vertonen.

  • Textuurrealisme:
    Haar mag geen penseelstreek lijken. Baksteen mag geen herhalend patroon zijn.

  • Ruis- en compressiebeheer:
    Veel alledaagse afbeeldingen worden extreem gecomprimeerd tot JPEG. Een goede upscaler versterkt die schade niet ( Real-ESRGAN ).

  • Gezichts- en tekstherkenning:
    Gezichten en tekst zijn de gemakkelijkste plekken om fouten te ontdekken. Goede modellen gaan er voorzichtig mee om (of hebben speciale modi).

  • Consistentie tussen frames (voor video):
    Als details van frame tot frame flikkeren, zullen je ogen het zwaar te verduren krijgen. Video-upscaling staat of valt met temporele stabiliteit ( BasicVSR (CVPR 2021) ).

  • Bedieningselementen die logisch zijn.
    Je wilt schuifregelaars die overeenkomen met echte resultaten: ruisonderdrukking, onscherpteverwijdering, artefactverwijdering, korrelbehoud, verscherping... de praktische zaken.

Een stille maar effectieve regel: de "beste" upscaling is vaak degene die je nauwelijks opmerkt. Het lijkt gewoon alsof je vanaf het begin een betere camera had 📷✨


Vergelijkingstabel: populaire AI-upscaling-opties (en waarvoor ze goed zijn) 📊🙂

Hieronder volgt een praktische vergelijking. De prijzen zijn opzettelijk vaag weergegeven, omdat de tools variëren afhankelijk van de licentie, pakketten, rekenkosten en al dat soort zaken.

Hulpmiddel / Aanpak Het beste voor Prijsgevoel Waarom het (ongeveer) werkt
Desktop-upscalers in Topaz-stijl ( Topaz Photo , Topaz Video ) Foto's, video's, eenvoudige workflow Betaald (min of meer) Sterke algemene modellen + veel afstemming, werkt meestal gewoon... meestal
Functies van het type "Super Resolution" van Adobe ( Adobe Enhance > Super Resolution ) Fotografen die zich al in dat ecosysteem bevinden Abonnement Een nauwkeurige reconstructie, meestal conservatief (minder dramatisch)
Real-ESRGAN / ESRGAN-varianten ( Real-ESRGAN , ESRGAN ) Doe-het-zelf, ontwikkelaars, batchverwerking Gratis (maar tijdrovend) Uitstekend in het weergeven van textuurdetails, maar kan een branderig gevoel op het gezicht geven als je niet voorzichtig bent
Diffusiegebaseerde opschalingsmodi ( SR3 ) Creatief werk, gestileerde resultaten Gemengd Kan prachtige details creëren, maar kan ook complete onzin verzinnen, dus... tja
Game-upscalers (DLSS/FSR-stijl) ( NVIDIA DLSS , AMD FSR 2 ) Realtime gaming en rendering Gebundeld Maakt gebruik van bewegingsgegevens en geleerde voorkennis - soepele prestaties, winst 🕹️
Cloud-upscalingdiensten Gemak, snelle winst Betalen per gebruik Snel en schaalbaar, maar je levert controle en soms subtiliteit in
AI-upscalers gericht op video ( BasicVSR , Topaz Video ) Oude beelden, anime, archieven Betaald (min of meer) Tijdelijke trucs om flikkering te verminderen + gespecialiseerde videomodellen
Opschaling van smartphones/galerijen Informeel gebruik Inbegrepen Lichtgewicht modellen, afgestemd op een prettige geluidskwaliteit, niet op perfectie (maar nog steeds handig)

Een kleine bekentenis over de opmaak: "Betaald-achtig" doet nogal wat werk in die tabel. Maar je snapt het idee wel 😅


Het grote geheim: modellen leren een mapping van lage resolutie naar hoge resolutie 🧠➡️🖼️

De kern van de meeste AI-opschaling is een opzet met begeleid leren ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ):

  1. Begin met afbeeldingen met een hoge resolutie (de "waarheid")

  2. Verlaag de resolutie naar een lagere resolutie (de "input")

  3. Train een model om de originele afbeelding met hoge resolutie te reconstrueren vanuit de afbeelding met lage resolutie

Na verloop van tijd leert het model correlaties zoals:

  • "Dit soort wazigheid rond een oog wordt meestal veroorzaakt door de wimpers."

  • "Deze pixelcluster duidt vaak op schreeflettertype."

  • "Deze randgradiënt lijkt op een daklijn, niet op willekeurige ruis."

Het gaat niet om het onthouden van specifieke afbeeldingen (in de meest eenvoudige zin van het woord), maar om het leren van statistische structuren ( Deep Learning voor beeldsuperresolutie: een overzicht ). Zie het als het leren van de grammatica van texturen en randen. Niet de grammatica van poëzie, maar eerder... de grammatica van een IKEA-handleiding 🪑📦 (een wat onhandige metafoor, maar toch treffend).


De details: wat gebeurt er tijdens inferentie (bij opschaling)? ⚙️✨

Wanneer je een afbeelding invoert in een AI-upscaler, is er doorgaans een pipeline zoals deze:

  • Voorbewerking

  • Kenmerkextractie

    • De eerste lagen detecteren randen, hoeken en kleurovergangen

    • Diepere lagen detecteren patronen: texturen, vormen, gezichtscomponenten

  • Wederopbouw

    • Het model genereert een feature map met een hogere resolutie

    • Vervolgens wordt dat omgezet in daadwerkelijke pixeluitvoer

  • Nabewerking

    • Optionele slijping

    • Optionele ruisonderdrukking

    • Optionele onderdrukking van artefacten (ringing, halo's, blokvorming)

Een subtiel detail: veel gereedschappen schalen op in tegels en vervagen vervolgens de naden. Goede gereedschappen verbergen de tegelgrenzen. Matige gereedschappen laten vage rasterlijnen achter als je je ogen dichtknijpt. En ja, je zult je ogen dichtknijpen, want mensen zijn dol op het inspecteren van minuscule imperfecties bij 300% zoom, net als kleine gremlins 🧌


De belangrijkste modelfamilies die worden gebruikt voor AI-upscaling (en waarom ze anders aanvoelen) 🤖📚

1) CNN-gebaseerde superresolutie (de klassieke werkpaard)

Convolutionele neurale netwerken zijn uitstekend in het herkennen van lokale patronen: randen, texturen, kleine structuren ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ).

  • Pluspunten: redelijk snel, stabiel, minder verrassingen

  • Nadelen: kan er een beetje "bewerkt" uitzien als je het te veel bewerkt

2) GAN-gebaseerde opschaling (ESRGAN-stijl) 🎭

GAN's (Generative Adversarial Networks) trainen een generator om afbeeldingen met een hoge resolutie te produceren die een discriminator niet kan onderscheiden van echte afbeeldingen ( Generative Adversarial Networks ).

  • Pluspunten: levendige details, indrukwekkende textuur

  • Nadelen: kunnen details verzinnen die er niet waren - soms onjuist, soms griezelig ( SRGAN , ESRGAN )

Een GAN kan je die adembenemende scherpte geven. Maar het kan je portretmodel ook een extra wenkbrauw bezorgen. Dus… kies je gevechten zorgvuldig 😬

3) Opschaling op basis van diffusie (de creatieve joker) 🌫️➡️🖼️

Diffusiemodellen verwijderen ruis stap voor stap en kunnen worden aangestuurd om details met een hoge resolutie te produceren ( SR3 ).

  • Pluspunten: kunnen ongelooflijk goed zijn in het weergeven van geloofwaardige details, vooral bij creatief werk

  • Nadelen: kan afwijken van de oorspronkelijke identiteit/structuur als de instellingen te agressief zijn ( SR3 )

Dit is waar "opschaling" begint over te gaan in "heruitvinding". Soms is dat precies wat je wilt. Soms ook niet.

4) Video-upscaling met temporele consistentie 🎞️

Bij het opschalen van video's wordt vaak bewegingsdetectie toegevoegd:

  • Maakt gebruik van aangrenzende frames om details te stabiliseren ( BasicVSR (CVPR 2021) ).

  • Probeert flikkering en bewegende beelden te vermijden

  • Combineert vaak superresolutie met ruisonderdrukking en de-interlacing ( Topaz Video ).

Als het opschalen van een afbeelding te vergelijken is met het restaureren van één schilderij, dan is het opschalen van een video te vergelijken met het restaureren van een flipboek zonder dat de neus van het personage op elke pagina van vorm verandert. Wat... moeilijker is dan het klinkt.


Waarom AI-upscaling er soms nep uitziet (en hoe je dat kunt herkennen) 👀🚩

Het opschalen van AI-modellen loopt op herkenbare manieren mis. Als je de patronen eenmaal doorhebt, zie je ze overal, net zoals wanneer je een nieuwe auto koopt en dat model ineens op elke straat tegenkomt 😵💫

Veelvoorkomende signalen:

  • Huidwax op gezichten (te veel ruisonderdrukking + gladmaken)

  • Overmatig verscherpte halo's rond randen (klassiek "overshoot"-gebied) ( Bicubische interpolatie )

  • Herhalende texturen (bakstenen muren worden kopieer-plakpatronen)

  • Scherpe microcontrasten die overduidelijk "algoritme" zijn.

  • Tekstverminking waarbij letters bijna-letters worden (de ergste soort).

  • Detailverschuiving waarbij kleine details subtiel veranderen, vooral in diffusieworkflows ( SR3 )

Het lastige is: soms lijken deze artefacten op het eerste gezicht "beter". Je hersenen houden van scherpte. Maar na een moment voelt het toch... niet goed.

Een goede tactiek is om uit te zoomen en te controleren of het er natuurlijk uitziet op een normale kijkafstand. Als het er alleen goed uitziet bij 400% zoom, dan heb je niets bereikt, dan is het gewoon een hobby 😅


Hoe AI-upscaling werkt: de trainingskant, zonder de wiskundige problemen 📉🙂

Het trainen van superresolutiemodellen omvat doorgaans het volgende:

Typische soorten schade:

  • Pixelverlies (L1/L2)
    bevordert nauwkeurigheid. Kan enigszins onscherpe resultaten opleveren.

  • Perceptueel verlies
    vergelijkt diepere kenmerken (zoals " lijkt op elkaar?") in plaats van exacte pixels ( Perceptual Losses (Johnson et al., 2016) ).

  • Adversarial loss (GAN)
    stimuleert realisme, soms ten koste van letterlijke nauwkeurigheid ( SRGAN , Generative Adversarial Networks ).

Er is een voortdurende strijd gaande:

  • Maak het trouw aan het
    origineel

  • Zorg dat het er visueel aantrekkelijk uitziet

Verschillende tools bevinden zich op verschillende plekken op dat spectrum. En je zou de ene tool wellicht verkiezen boven de andere, afhankelijk van of je familiefoto's restaureert of een poster voorbereidt waarbij een "mooi uiterlijk" belangrijker is dan forensische nauwkeurigheid.


Praktische workflows: foto's, oude scans, anime en video 📸🧾🎥

Foto's (portretten, landschappen, productfoto's)

De beste werkwijze is doorgaans:

  • Voer eerst een lichte ruisonderdrukking uit (indien nodig)

  • Luxe met een conservatieve uitstraling

  • Voeg wat houtnerf toe als het te glad aanvoelt (ja, echt waar)

Graan is als zout. Te veel ervan verpest het eten, maar helemaal geen graan kan een beetje flauw smaken 🍟

Oude scans en sterk gecomprimeerde afbeeldingen

Deze zijn lastiger omdat het model compressieblokken mogelijk als "textuur" behandelt.
Probeer het volgende:

  • Artefactverwijdering of deblokkering

  • Vervolgens opwaarderen

  • Daarna licht slijpen (niet te veel... ik weet het, iedereen zegt dat, maar toch)

Anime en lijntekeningen

Lijntekeningen profiteren van:

  • Modellen die strakke randen behouden

  • Verminderde textuurillusie.
    Anime-upscaling ziet er vaak geweldig uit omdat de vormen eenvoudiger en consistenter zijn. (Gelukkig.)

Video

De video voegt extra stappen toe:

  • Ruisonderdrukking

  • Deinterlacing (voor bepaalde bronnen)

  • Luxe

  • Temporele gladmaking of stabilisatie ( BasicVSR (CVPR 2021) )

  • Optionele herintroductie van graan voor cohesie

Als je de temporele consistentie negeert, krijg je dat flikkerende detail. Als je het eenmaal opmerkt, kun je het niet meer negeren. Net als een piepende stoel in een stille kamer 😖


Instellingen kiezen zonder lukraak te gokken (een klein spiekbriefje) 🎛️😵💫

Hier is een goede basis voor een goede mindset:

  • Als gezichten er onnatuurlijk uitzien
    , verminder dan de ruisonderdrukking, verminder de verscherping en probeer een model of modus die de gezichten behoudt.

  • Als de texturen te intens lijken,
    verlaag dan de schuifregelaars voor 'detailverbetering' of 'detail herstellen' en voeg daarna een subtiele korrel toe.

  • Als de randen oplichten
    , verlaag dan de verscherping en controleer de opties voor halo-onderdrukking.

  • Als de afbeelding er te veel "AI-achtig" uitziet,
    kies dan voor een meer ingetogen aanpak. Soms is minder de beste oplossing.

En vergeet niet: ga niet 8x vergroten alleen omdat het kan. Een nette 2x of 4x is vaak de ideale vergroting. Daarboven vraag je het model om fanfictie te schrijven over jouw pixels 📖😂


Ethiek, authenticiteit en de lastige vraag naar 'waarheid' 🧭😬

AI-upscaling vervaagt de grens:

  • Restauratie houdt in dat men herstelt wat er was

  • Verbetering houdt in dat er iets wordt toegevoegd wat er niet was

Bij persoonlijke foto's is het meestal prima (en mooi). Maar bij journalistiek, juridisch bewijsmateriaal, medische beelden of alles waar betrouwbaarheid van belang is... moet je voorzichtig zijn ( OSAC/NIST: Standard Guide for Forensic Digital Image Management , SWGDE Guidelines for Forensic Image Analysis ).

Een simpele regel:

  • Als er veel op het spel staat, beschouw AI-opschaling dan als een voorbeeld , niet als een definitieve conclusie.

Ook in professionele contexten is transparantie belangrijk. Niet omdat AI slecht is, maar omdat het publiek het recht heeft te weten of details zijn gereconstrueerd of vastgelegd. Dat is gewoon... respectvol.


Afsluitende opmerkingen en een korte samenvatting 🧡✅

Zo werkt AI-upscaling : modellen leren hoe details met hoge resolutie zich verhouden tot patronen met lage resolutie, en voorspellen vervolgens geloofwaardige extra pixels tijdens het opschalen ( Deep Learning for Image Super-resolution: A Survey ). Afhankelijk van de modelfamilie (CNN, GAN, diffusie, video-temporeel) kan die voorspelling conservatief en betrouwbaar zijn... of juist gewaagd en soms compleet onlogisch 😅

Korte samenvatting

Als je wilt, laat me dan weten wat je precies wilt opschalen (gezichten, oude foto's, video, anime, tekstscans), dan stel ik een instellingsstrategie voor die de veelvoorkomende valkuilen van een "AI-look" vermijdt 🎯🙂


Veelgestelde vragen

AI-opschaling en hoe het werkt

AI-upscaling (vaak "superresolutie" genoemd) verhoogt de resolutie van een afbeelding door ontbrekende details met hoge resolutie te voorspellen op basis van patronen die tijdens de training zijn geleerd. In plaats van simpelweg pixels uit te rekken zoals bij bicubische interpolatie, bestudeert een model randen, texturen, gezichten en tekstachtige lijnen, en genereert vervolgens nieuwe pixelgegevens die overeenkomen met die geleerde patronen. Het is minder "de realiteit herstellen" en meer "een geloofwaardige gok doen" die natuurlijk overkomt.

AI-upscaling versus bicubische of traditionele formaatwijziging

Traditionele opschalingsmethoden (zoals bicubische interpolatie) interpoleren voornamelijk tussen bestaande pixels, waardoor overgangen worden verzacht zonder dat er daadwerkelijk nieuwe details worden gecreëerd. AI-opschaling is erop gericht een plausibele structuur te reconstrueren door visuele kenmerken te herkennen en te voorspellen hoe versies van die kenmerken er in hoge resolutie uit zouden zien. Daarom kunnen AI-resultaten aanzienlijk scherper lijken, maar ook artefacten introduceren of details 'verzinnen' die niet in het origineel aanwezig waren.

Waarom gezichten er wasachtig of juist te glad uit kunnen zien

Een wasachtige uitstraling ontstaat meestal door agressieve ruisonderdrukking en gladmaking in combinatie met verscherping, waardoor de natuurlijke huidtextuur verdwijnt. Veel tools behandelen ruis en fijne texturen op een vergelijkbare manier, waardoor het 'opschonen' van een afbeelding poriën en subtiele details kan verwijderen. Een veelgebruikte aanpak is om de ruisonderdrukking en verscherping te verminderen, een gezichtsbehoudende modus te gebruiken (indien beschikbaar) en vervolgens een beetje korrel toe te voegen, zodat het resultaat minder kunstmatig en meer fotografisch aanvoelt.

Veelvoorkomende artefacten bij het opschalen van AI-systemen waar je op moet letten

Typische aanwijzingen zijn halo's rond randen, herhaalde textuurpatronen (zoals gekopieerde bakstenen), korrelig microcontrast en tekst die verandert in "bijna letters". Bij workflows gebaseerd op diffusie kun je ook detailverschuiving zien, waarbij kleine details subtiel veranderen. Bij video zijn flikkering en geleidelijk verdwijnende details over de frames grote rode vlaggen. Als het er alleen goed uitziet bij extreem inzoomen, zijn de instellingen waarschijnlijk te agressief.

Hoe GAN, CNN en diffusie-upscalers doorgaans van elkaar verschillen in resultaten

CNN-gebaseerde superresolutie is doorgaans stabieler en voorspelbaarder, maar kan er "bewerkt" uitzien als de instellingen te sterk worden. GAN-gebaseerde opties (zoals ESRGAN) produceren vaak een levendigere textuur en waargenomen scherpte, maar kunnen onjuiste details weergeven, met name bij gezichten. Diffusie-gebaseerde upscaling kan prachtige, plausibele details genereren, maar kan afwijken van de oorspronkelijke structuur als de sturing of sterkte-instellingen te sterk zijn.

Een praktische instellingsstrategie om een ​​"te AI-achtige" look te vermijden

Begin conservatief: schaal eerst 2x of 4x op voordat je extreme factoren toepast. Als gezichten er plasticachtig uitzien, verlaag dan de ruisonderdrukking en verscherping en probeer een gezichtsherkenningsmodus. Als texturen te intens worden, verlaag dan de detailverbetering en overweeg om later subtiele korrel toe te voegen. Als randen gloeien, verlaag dan de verscherping en controleer halo- of artefactonderdrukking. In veel workflows geldt: "minder" wint, omdat het een geloofwaardig realisme behoudt.

Het verwerken van oude scans of sterk JPEG-gecomprimeerde afbeeldingen vóór het opschalen

Gecomprimeerde afbeeldingen zijn lastig omdat modellen blokartefacten als echte textuur kunnen interpreteren en versterken. Een veelgebruikte workflow is eerst artefacten verwijderen of deblokkeren, vervolgens opschalen en pas indien nodig licht verscherpen. Bij scans kan een voorzichtige opruiming het model helpen zich te concentreren op de daadwerkelijke structuur in plaats van op beschadigingen. Het doel is om "valse textuurkenmerken" te verminderen, zodat de opschaler geen zelfverzekerde schattingen hoeft te maken op basis van ruis in de invoer.

Waarom het opschalen van video's moeilijker is dan het opschalen van foto's

Het opschalen van video moet consistent zijn over alle frames heen, niet alleen goed op één stilstaand beeld. Als details van frame tot frame flikkeren, wordt het resultaat al snel storend. Videogerichte methoden gebruiken temporele informatie van aangrenzende frames om de reconstructie te stabiliseren en flikkerende artefacten te voorkomen. Veel workflows omvatten ook ruisonderdrukking, de-interlacing voor bepaalde bronnen en optioneel het opnieuw toevoegen van korrel, zodat de hele sequentie samenhangend aanvoelt in plaats van kunstmatig scherp.

Wanneer opschaling met AI niet geschikt is of te riskant is om op te vertrouwen

Het opschalen met behulp van AI kan het beste worden beschouwd als een verbetering, niet als bewijs. In situaties met hoge inzet, zoals journalistiek, juridisch bewijs, medische beeldvorming of forensisch onderzoek, kan het genereren van 'geloofwaardige' pixels misleidend zijn, omdat er details kunnen worden toegevoegd die niet zijn vastgelegd. Een veiligere benadering is om het te gebruiken ter illustratie en te vermelden dat een AI-proces details heeft gereconstrueerd. Als nauwkeurigheid cruciaal is, bewaar dan de originelen en documenteer elke verwerkingsstap en instelling.

Referenties

  1. arXiv - Deep Learning voor beeldsuperresolutie: een overzicht - arxiv.org

  2. arXiv - Beeldsuperresolutie met behulp van diepe convolutionele netwerken (SRCNN) - arxiv.org

  3. arXiv - Real-ESRGAN - arxiv.org

  4. arXiv - ESRGAN - arxiv.org

  5. arXiv - SR3 - arxiv.org

  6. NVIDIA Developer - NVIDIA DLSS - developer.nvidia.com

  7. AMD GPUOpen - FidelityFX Super Resolution 2 - gpuopen.com

  8. De Computer Vision Foundation (CVF) Open Access - BasicVSR: De zoektocht naar essentiële componenten in videosuperresolutie (CVPR 2021) - openaccess.thecvf.com

  9. arXiv - Generatieve Adversariële Netwerken - arxiv.org

  10. arXiv - SRGAN - arxiv.org

  11. arXiv - Perceptuele verliezen (Johnson et al., 2016) - arxiv.org

  12. GitHub - Real-ESRGAN repository (tegelopties) - github.com

  13. Wikipedia - Bicubische interpolatie - wikipedia.org

  14. Topaz Labs - Topaz Photo - topazlabs.com

  15. Topaz Labs - Topaz Video - topazlabs.com

  16. Adobe Helpcentrum - Adobe Enhance > Superresolutie - helpx.adobe.com

  17. NIST / OSAC - Standaardrichtlijn voor forensisch digitaal beeldbeheer (versie 1.0) - nist.gov

  18. SWGDE - Richtlijnen voor forensische beeldanalyse - swgde.org

Vind de nieuwste AI in de officiële AI Assistant Store

Over ons

Terug naar de blog