{"id":15309,"date":"2025-10-15T16:00:31","date_gmt":"2025-10-15T16:00:31","guid":{"rendered":"https:\/\/undetectable.ai/blog\/?p=15309"},"modified":"2025-12-12T09:44:25","modified_gmt":"2025-12-12T09:44:25","slug":"wat-is-deepfake-technologie","status":"publish","type":"post","link":"https:\/\/undetectable.ai/blog\/nl\/wat-is-deepfake-technologie\/","title":{"rendered":"Wat is Deepfake-technologie? Gevaren en detectie"},"content":{"rendered":"<p><strong>98 seconden.&nbsp;<\/strong><\/p>\n\n\n\n<p>Meer is er in 2025 niet nodig om iemands stem te klonen, een overtuigende deepfake-video te maken en de bankrekening van een bedrijf leeg te halen.&nbsp;<\/p>\n\n\n\n<p>Deepfake-technologie was vroeger een studio van Hollywood-niveau en maanden werk gaat nu sneller dan onze koffiepauze 's ochtends.<\/p>\n\n\n\n<p>In 2025 heeft de deepfake technologie een angstaanjagende mijlpaal bereikt.<\/p>\n\n\n\n<p>Meer dan <a href=\"https:\/\/deepstrike.io\/blog\/deepfake-statistics-2025\" target=\"_blank\" rel=\"noreferrer noopener\">8 miljoen synthetische mediabestanden<\/a> circuleren nu online, tegenover slechts 500.000 twee jaar geleden.&nbsp;<\/p>\n\n\n\n<p>En dan hebben we het nog niet eens over de financi\u00eble tol.<\/p>\n\n\n\n<p>Bedrijven verliezen gemiddeld <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noreferrer noopener\">$500.000 per deepfake-incident<\/a>waarbij AI-gestuurde fraude naar verwachting zal leiden tot <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noreferrer noopener\">bedrijven in de VS tegen 2027 $40 miljard kosten<\/a>.&nbsp;<\/p>\n\n\n\n<p>Nog verontrustender... menselijke beoordelaars kunnen alleen video's met deepfake technologie van hoge kwaliteit detecteren <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noreferrer noopener\">24.5% van de tijd<\/a>.&nbsp;<\/p>\n\n\n\n<p>Dit betekent dat 3\/4 vervalsingen er ongemerkt doorheen glippen.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--1024x576.jpg\" alt=\"\" class=\"wp-image-15316\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--1024x576.jpg 1024w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--300x169.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--768x432.jpg 768w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--1536x864.jpg 1536w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--18x10.jpg 18w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby-.jpg 1600w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><\/div>\n\n\n<p>Welkom in 2025. Vandaag de dag is deepfake technologie het meest geavanceerde wapen in cybercriminaliteit geworden.&nbsp;<\/p>\n\n\n\n<p>In deze blog leggen we uit hoe deepfake technologie werkt, welke nieuwe formaten er in 2025 opkomen en waarom traditionele detectiemethoden niet langer toereikend zijn.&nbsp;<\/p>\n\n\n\n<p>Je zult ook zien hoe AI-ondersteunde verdedigingssystemen organisaties helpen terug te vechten en nog veel meer.<\/p>\n\n\n\n<p>Laten we beginnen.&nbsp;<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p class=\"has-text-align-center\"><strong>Belangrijkste opmerkingen<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Deepfakes begonnen als onschuldig vermaak op Reddit, maar hebben zich ontwikkeld tot hulpmiddelen voor grootschalige zwendel, politieke manipulatie en bedrijfsfraude.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>De huidige vormen van deepfake technologie omvatten face-swapping, het klonen van stemmen, lipsynchronisatie en het naspelen van het hele lichaam.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Opkomende formats zijn onder andere AI-gegenereerde documentvervalsing en biometrische spoofing om ID- en stemverificatiesystemen te omzeilen.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Deepfake-technologie kan worden gebruikt voor financi\u00eble fraude, imitatie van leidinggevenden, politieke desinformatie en persoonlijke afpersing.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Traditionele methoden om deepfakes op te sporen, zoals handmatig spotten of forensische tools, zijn niet langer effectief tegen moderne, realtime deepfakes.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Alleen adaptieve, AI-gebaseerde systemen zoals TruthScan kunnen zero-day deepfakes detecteren en bieden realtime bescherming voor video, audio en tekst.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Wat is Deepfake-technologie?<\/h2>\n\n\n\n<p>Deepfake technologie betekent iets maken dat niet echt is, maar er wel helemaal echt uitziet en klinkt. <\/p>\n\n\n\n<p>Dit zijn door AI gegenereerde afbeeldingen, video's of audioclips die mensen of gebeurtenissen laten zien die nooit hebben plaatsgevonden.<\/p>\n\n\n\n<p>Betekent dit dat ze net als traditionele bewerkingen zijn?<br>Niet echt.&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Traditionele bewerking<\/strong> is wat videobewerkers al tientallen jaren doen. Het omvat knippen, splitsen, kleurcorrectie en het handmatig toevoegen van visuele effecten. Hierbij wordt gebruikgemaakt van softwaretools zoals Photoshop of Premiere Pro.&nbsp;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Deepfakes <\/strong>dat proces automatiseren. Ze gebruiken AI-modellen die duizenden afbeeldingen van iemands gezicht kunnen bestuderen en vervolgens nieuwe, realistische bewegingen of uitdrukkingen kunnen genereren die nooit zijn opgenomen.<\/li>\n<\/ul>\n\n\n\n<p><strong>Bijvoorbeeld:<\/strong><\/p>\n\n\n\n<p>Bij een deepfake kan de AI het gezicht van een acteur verwisselen met dat van een andere acteur, elke knipoog en uitdrukking matchen en zelfs woorden laten zeggen die ze nooit hebben uitgesproken.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"624\" height=\"463\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/deepfake-technology-ai-swap-.jpg\" alt=\"\" class=\"wp-image-15318\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/deepfake-technology-ai-swap-.jpg 624w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/deepfake-technology-ai-swap--300x223.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/deepfake-technology-ai-swap--16x12.jpg 16w\" sizes=\"auto, (max-width: 624px) 100vw, 624px\" \/><\/figure><\/div>\n\n\n<p>Laten we, voordat we ingaan op hoe deze deepfake technologie werkt, eerst eens kijken waar het allemaal mee begon.<\/p>\n\n\n\n<p>Het woord<strong> \"deepfake\" <\/strong>komt van het combineren van <strong><em>\"diep leren\" <\/em><\/strong>en<strong><em> \"Nep.\"<\/em><\/strong><\/p>\n\n\n\n<p>Het verscheen voor het eerst in 2017, toen een <a href=\"https:\/\/www.britannica.com\/technology\/deepfake\" target=\"_blank\" rel=\"noreferrer noopener\">Reddit gebruiker cre\u00eberde een gemeenschap<\/a> om AI-gegenereerde video's te delen.<\/p>\n\n\n\n<p>Kort daarna maakten open-source tools als DeepFaceLab, FakeApp en ZAO het voor bijna iedereen mogelijk om binnen enkele minuten realistische deepfakes te maken.<\/p>\n\n\n\n<p>Vandaag de dag is DeepFaceLab alleen al verantwoordelijk voor meer dan 95% van alle deepfake video's online. En er is niet langer een high-end computer of coderingsexpertise voor nodig.<\/p>\n\n\n\n<p>Met slechts een kort stemfragment en een paar dollar kan iedereen zich online voordoen als iemand anders.<\/p>\n\n\n\n<p>Laten we nu eens kijken naar de vraag \"hoe werkt DeepFake technologie?\".<\/p>\n\n\n\n<p>Deepfake-technologie vertrouwt op twee belangrijke AI-modellen: Generative Adversarial Networks (GAN's) en Variational Autoencoders (VAE's).<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>GAN's <\/strong>werken als een digitale confrontatie. Een AI (de generator) probeert valse inhoud te cre\u00ebren, terwijl een andere AI (de discriminator) deze probeert te vangen. Met elke ronde worden beide beter, totdat het bijna onmogelijk wordt om de vervalsing te detecteren.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>VAE's, <\/strong>zijn daarentegen meer voorzichtige studenten van de werkelijkheid. Ze leren de patronen, belichting en gezichtsdetails van echte mensen door beelden steeds opnieuw te comprimeren en te reconstrueren. Hoe meer ze oefenen, hoe natuurlijker hun nagemaakte gezichten eruit zien.&nbsp;<\/li>\n<\/ul>\n\n\n\n<p>VAE's dienen als basis. Ze leren het systeem hoe echte gezichten eruit zien, bewegen en reageren op licht.<\/p>\n\n\n\n<p>Zodra dat begrip is opgebouwd, verfijnen GAN's de uitvoer. Ze verscherpen details, maken bewegingen vloeiender en perfectioneren uitdrukkingen totdat elk beeld overtuigend echt lijkt.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Gangbare formaten: Video, audio, afbeeldingen en tekst<\/h3>\n\n\n\n<p>Deepfake-technologie is niet beperkt tot video's. Ze bestaan in bijna elk formaat dat we online gebruiken.&nbsp;<\/p>\n\n\n\n<p>AI kan geluid, beelden en zelfs geschreven woorden manipuleren om synthetische versies van de werkelijkheid te cre\u00ebren.<\/p>\n\n\n\n<p>Laten we eens kijken hoe elk formaat wordt gebruikt.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td class=\"has-text-align-center\" data-align=\"center\"><strong>Formaat<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Beschrijving<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Voorbeeld<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Bronnen<\/strong><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Video<\/td><td class=\"has-text-align-center\" data-align=\"center\">AI-gegenereerde video's die nepbeelden en -audio mixen door middel van face-swapping of overdracht van prestaties.<\/td><td class=\"has-text-align-center\" data-align=\"center\">In 2024 deden oplichters zich voor als een Arup-directeur in een live videogesprek, waarbij ze deepfakes gebruikten om $25,6M te stelen.<\/td><td class=\"has-text-align-center\" data-align=\"center\"><a href=\"https:\/\/pmc.ncbi.nlm.nih.gov\/articles\/PMC11943306\/\" target=\"_blank\" rel=\"noreferrer noopener\">Bron<\/a><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Audio (stem klonen)<\/td><td class=\"has-text-align-center\" data-align=\"center\">AI kloont de stem van een persoon met behulp van korte samples om hem dingen te laten zeggen die hij nooit heeft gezegd.<\/td><td class=\"has-text-align-center\" data-align=\"center\">In 2024 werd een gekloonde stem van de CEO van LastPass gebruikt op WhatsApp om een werknemer op te lichten, wat deel uitmaakte van een 680% stijging in voice deepfake-aanvallen.<\/td><td class=\"has-text-align-center\" data-align=\"center\"><a href=\"https:\/\/www.eftsure.com\/blog\/cyber-crime\/these-7-deepfake-ceo-scams-prove-that-no-business-is-safe\/\" target=\"_blank\" rel=\"noreferrer noopener\">Bron<\/a><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Afbeeldingen<\/td><td class=\"has-text-align-center\" data-align=\"center\">Nepafbeeldingen in \u00e9\u00e9n frame die worden gebruikt om verkeerde informatie te verspreiden of markten te manipuleren.<\/td><td class=\"has-text-align-center\" data-align=\"center\">In 2023 ging een nepfoto van een explosie in het Pentagon viraal, waardoor de S&amp;P 500 kortstondig daalde.<\/td><td class=\"has-text-align-center\" data-align=\"center\"><a href=\"https:\/\/www.ibm.com\/new\/announcements\/deepfake-detection\" target=\"_blank\" rel=\"noreferrer noopener\">Sou<\/a><a href=\"https:\/\/www.ibm.com\/new\/announcements\/deepfake-detection\" target=\"_blank\" rel=\"noopener\">rce<\/a><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Tekst<\/td><td class=\"has-text-align-center\" data-align=\"center\">Door AI geschreven nepnieuws, propaganda of berichten die zijn bedoeld om te misleiden of manipuleren.<\/td><td class=\"has-text-align-center\" data-align=\"center\">Valse politieke berichten en vervalste financi\u00eble analyses die zijn gemaakt met AI-tools hebben zich online verspreid.<\/td><td class=\"has-text-align-center\" data-align=\"center\"><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>Het klonen van stemmen is het gevaarlijkste van alle indelingen, omdat het toegankelijk en makkelijk te maken is.&nbsp;<\/p>\n\n\n\n<p>Video deepfake technologie is ook bedreigend, maar ze hebben nog steeds krachtige computers en lange verwerkingstijden nodig.&nbsp;<\/p>\n\n\n\n<p>Een valse stem kan in slechts een paar minuten worden gemaakt, soms met niet meer dan een audioclip van 60 seconden.&nbsp;<\/p>\n\n\n\n<p>Deze gekloonde stemmen worden al gebruikt bij telefoonoplichting, valse telefoontjes naar leidinggevenden en fraude met callcenters.&nbsp;<\/p>\n\n\n\n<p>Maar daar blijft het niet bij. Deepfake technologie evolueert snel en twee nieuwe formaten zorgen al voor problemen.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Digitale documentvervalsing<\/strong><\/li>\n<\/ol>\n\n\n\n<p>AI kan nu offici\u00eble documenten maken of wijzigen, zoals paspoorten, ID-kaarten en zelfs financi\u00eble overzichten.<\/p>\n\n\n\n<p>Alleen al in 2024 zullen gevallen van <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noreferrer noopener\">digitale documentvervalsing omhoog geschoten met 244%<\/a>Het gaat om meer dan de helft van alle documentfraude wereldwijd.<\/p>\n\n\n\n<p>Veel van deze aanvallen zijn gericht op nationale ID-systemen zoals de Indiase Tax ID en de Pakistaanse National Identity Card.<\/p>\n\n\n\n<p>Om deze risico's tegen te gaan, zijn oplossingen zoals TruthScan's <a href=\"https:\/\/truthscan.com\/ai-image-detector\" data-type=\"link\" data-id=\"https:\/\/truthscan.com\/ai-image-detector\" target=\"_blank\" rel=\"noreferrer noopener\">AI beelddetector<\/a> helpen controleren of een document of ID-afbeelding digitaal gemanipuleerd is.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"666\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-1024x666.jpg\" alt=\"Schermafbeelding van de AI-beelddetector van TruthScan\" class=\"wp-image-15738\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-1024x666.jpg 1024w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-300x195.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-768x500.jpg 768w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-1536x999.jpg 1536w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-18x12.jpg 18w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan.jpg 1574w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><\/div>\n\n\n<p>Het detecteert door AI gegenereerde of gemanipuleerde beelden in realtime en markeert gekloonde foto's, gewijzigde tekst of samengestelde elementen voordat ze door verificatiesystemen glippen.<\/p>\n\n\n\n<p>Dit maakt het makkelijker voor organisaties om de authenticiteit te bevestigen en deepfake vervalsingen te stoppen voordat ze zich verspreiden.<\/p>\n\n\n\n<ol start=\"2\" class=\"wp-block-list\">\n<li><strong>Biometrische vervalsing (KYC-omleiding)<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Dan is er nog biometrische vervalsing. Diepe vervalsingen om systemen voor gezichts- of stemverificatie te misleiden.<\/p>\n\n\n\n<p>Denk aan de identiteitscontroles die worden gebruikt bij het aanmelden bij een bank of bij het onboarding van bedrijven.<\/p>\n\n\n\n<p>Aanvallers gebruiken nu synthetische gezichten of stemmen om deze systemen te omzeilen, en zulke <a href=\"https:\/\/www.eftsure.com\/statistics\/deepfake-statistics\/\" target=\"_blank\" rel=\"noreferrer noopener\">aanvallen sprong 704% in 2023<\/a>. Daarom zijn eenvoudige <strong>\"controles op echtheid\".<\/strong> is niet langer genoeg.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">De opkomst van Deepfake Technologie<\/h2>\n\n\n\n<p>Laten we inzoomen op de gegevens.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td class=\"has-text-align-center\" data-align=\"center\"><strong>Metrisch<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>2023<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Verwacht voor 2025-27<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Inzicht<\/strong><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Deepfake bestanden in omloop<\/td><td class=\"has-text-align-center\" data-align=\"center\">500,000<\/td><td class=\"has-text-align-center\" data-align=\"center\">8 miljoen<\/td><td class=\"has-text-align-center\" data-align=\"center\">Explosieve 900% groei<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Deepfake-gerelateerde fraudepogingen<\/td><td class=\"has-text-align-center\" data-align=\"center\">Basislijn<\/td><td class=\"has-text-align-center\" data-align=\"center\">+3,000% YoY (2023)<\/td><td class=\"has-text-align-center\" data-align=\"center\">Georganiseerde, grootschalige uitbuiting<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Gemiddeld bedrijfsverlies per incident<\/td><td class=\"has-text-align-center\" data-align=\"center\">-<\/td><td class=\"has-text-align-center\" data-align=\"center\">~$500,000<\/td><td class=\"has-text-align-center\" data-align=\"center\">Ernstig financieel risico<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">AI-gestuurde fraudeverliezen (VS)<\/td><td class=\"has-text-align-center\" data-align=\"center\">$12.3B<\/td><td class=\"has-text-align-center\" data-align=\"center\">$40B (tegen 2027)<\/td><td class=\"has-text-align-center\" data-align=\"center\">32% jaarlijkse toename<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Nauwkeurigheid menselijke detectie<\/td><td class=\"has-text-align-center\" data-align=\"center\">-<\/td><td class=\"has-text-align-center\" data-align=\"center\">24.5%<\/td><td class=\"has-text-align-center\" data-align=\"center\">Handmatige controle niet langer betrouwbaar<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>Om deepfakes te bestrijden, hebben we technologie nodig die net zo snel leert als de vervalsers. En een van de meest betrouwbare tools voor Deepfake-detectie is tegenwoordig <a href=\"https:\/\/truthscan.ai\" target=\"_blank\" rel=\"noreferrer noopener\">TruthScan<\/a>.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"747\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-1024x747.jpg\" alt=\"TruthScan dashboard screenshot met AI en deepfake detectie tools\" class=\"wp-image-13005\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-1024x747.jpg 1024w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-300x219.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-768x560.jpg 768w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan.jpg 1404w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-16x12.jpg 16w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><\/div>\n\n\n<p>Als je dit niet kent, het is een real-time deepfake detectieplatform gebouwd voor schaalbaarheid.<\/p>\n\n\n\n<p>Het gebruikt <strong>Generatieve adversari\u00eble netwerken (GAN's)<\/strong> en <strong>Visie-taalmodellen (VLM's) <\/strong>om de kleinste inconsistenties in video, audio en tekst te ontdekken.<\/p>\n\n\n\n<p>Verschillende tests hebben aangetoond dat <a href=\"https:\/\/truthscan.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">TruthScan bereikt nauwkeurigheid tot 98%<\/a>vergeleken met ruwweg 70% met oudere forensische tools.&nbsp;<\/p>\n\n\n\n<p>Het voert voortdurend controles uit op digitale kanalen. Dit betekent dat organisaties deepfakes kunnen detecteren voordat ze schade veroorzaken, niet erna.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Van amusement en memes tot serieuze bedreigingen<\/h3>\n\n\n\n<p>Deepfake technologie begon als entertainment.<\/p>\n\n\n\n<p>Zoals we hierboven al hebben vermeld, verwisselden Reddit-gebruikers gezichten om te lachen, cre\u00eberden ze memes en verbeterden ze filmsc\u00e8nes.&nbsp;<\/p>\n\n\n\n<p>Hollywood gebruikte het zelfs voor digitale de-aging en post-productie magie. Maar die luchtige fase duurde niet lang.&nbsp;<\/p>\n\n\n\n<p>In 2017 verscheen het eerste grote misbruik. Het was een <a href=\"https:\/\/www.britannica.com\/technology\/deepfake\" target=\"_blank\" rel=\"noreferrer noopener\">niet-consensuele deepfake pornografie<\/a>.&nbsp;<\/p>\n\n\n\n<p>Van 2018 tot 2022 is Deepfake-technologie veranderd van onschuldig pleziertje in een serieus hulpmiddel voor manipulatie en misdaad.&nbsp;<\/p>\n\n\n\n<p>Vroege voorbeelden zijn de <a href=\"https:\/\/timreview.ca\/article\/1282\" target=\"_blank\" rel=\"noreferrer noopener\">deepfake video van president van Gabon<\/a> in 2018, wat politieke onrust veroorzaakte. <\/p>\n\n\n\n<p>Tegen 2023, met krachtige tools als Midjourney 5.1 en DALL-E 2, werd het maken van deepfakes moeiteloos en gevaarlijk.<\/p>\n\n\n\n<p>Toen kwam de tijd dat niet alleen publieke figuren het doelwit waren. Gewone mensen worden nu geconfronteerd met deepfakes die worden gebruikt voor pesterijen, chantage en wraak.&nbsp;<\/p>\n\n\n\n<p>Er zijn zelfs nepvideo's opgedoken bij echtscheidingen, sollicitaties en interne bedrijfsgeschillen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Gevallen van politiek en bedrijfsmisbruik<\/h3>\n\n\n\n<p>Deepfake-technologie heeft officieel zijn intrede gedaan in het bedrijfsleven en de politiek.&nbsp;<\/p>\n\n\n\n<p><strong>Voorbeelden van misbruik door bedrijven:<\/strong><\/p>\n\n\n\n<p>In 2024 misleidden oplichters werknemers bij <a href=\"https:\/\/hyperverge.co\/blog\/examples-of-deepfakes\/\" target=\"_blank\" rel=\"noreferrer noopener\">Arup<\/a> met behulp van deepfake video en stem klonen.<\/p>\n\n\n\n<p>Ze deden zich voor als topmanagers in een live videogesprek en overtuigden medewerkers om $25,6 miljoen over te maken. De zwendel werkte omdat mensen het bekende gezicht en de stem op het scherm vertrouwden.<\/p>\n\n\n\n<p>Datzelfde jaar richtten hackers zich op <a href=\"https:\/\/www.eftsure.com\/blog\/cyber-crime\/these-7-deepfake-ceo-scams-prove-that-no-business-is-safe\/\" target=\"_blank\" rel=\"noreferrer noopener\">LastPass<\/a> door de stem van de CEO te klonen op WhatsApp.<\/p>\n\n\n\n<p>Ze gebruikten het om een werknemer onder druk te zetten om na werktijd dringende actie te ondernemen.<\/p>\n\n\n\n<p>Dit soort oplichting komt steeds vaker voor omdat criminelen gemakkelijk openbare opnames kunnen vinden, zoals interviews of toespraken om iemands stem of gezicht te kopi\u00ebren.<\/p>\n\n\n\n<p>Dit betekent dat elke leidinggevende die online verschijnt een doelwit kan worden.<\/p>\n\n\n\n<p><strong>Voorbeelden van politiek misbruik:<\/strong><\/p>\n\n\n\n<p>De <a href=\"https:\/\/www.mdpi.com\/2813-5288\/2\/4\/20\" target=\"_blank\" rel=\"noreferrer noopener\">Wereld Economisch Forum<\/a> noemde AI-gestuurde desinformatie een van de grootste wereldwijde risico's van 2024, met deepfakes in het middelpunt.<\/p>\n\n\n\n<p>In augustus 2024 ontdekten onderzoekers de <a href=\"https:\/\/cetas.turing.ac.uk\/publications\/ai-enabled-influence-operations-safeguarding-future-elections\" target=\"_blank\" rel=\"noreferrer noopener\">Spamouflage-netwerk<\/a>Een social media-operatie die vermoedelijk banden heeft met China en die deepfakes gebruikte om de president van de Filipijnen in diskrediet te brengen.<\/p>\n\n\n\n<p>Soortgelijke tactieken zijn gezien in oorlogsvoering, zoals nepvideo's van <a href=\"https:\/\/arya.ai\/blog\/top-deepfake-incidents\" target=\"_blank\" rel=\"noopener\">Oekra\u00efense president Volodymyr Zelenskyy<\/a> die zich leek over te geven.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Risico's en gevaren van deepfakes<\/h2>\n\n\n\n<p>Laten we eens kijken hoe deepfake technologie het idee verandert van wat we kunnen vertrouwen.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Risico's voor bestuur en vertrouwen<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Als alles vervalst kan worden, wat kunnen we dan nog vertrouwen? Deepfake technologie heeft ons vertrouwen in digitale informatie aan het wankelen gebracht.<\/p>\n\n\n\n<p>Of het nu gaat om een toespraak van een politicus, een nieuwsbericht of een virale video, de meeste mensen vragen het zich nu af, <em>\"Is dit echt of door AI gegenereerd?\"&nbsp;<\/em><\/p>\n\n\n\n<p>Deze groeiende twijfel maakt het moeilijker voor regeringen, journalisten en instellingen om geloofwaardig te blijven. <\/p>\n\n\n\n<p>Zoals we eerder zagen, zijn deepfakes al gebruikt om politieke desinformatie te verspreiden en zelfs overheidsfunctionarissen na te bootsen.<\/p>\n\n\n\n<ol start=\"2\" class=\"wp-block-list\">\n<li><strong>Financi\u00eble en bedrijfscatastrofe<\/strong><\/li>\n<\/ol>\n\n\n\n<p>In de financi\u00eble wereld is deepfake technologie hard op weg een miljardenprobleem te worden.<\/p>\n\n\n\n<p>Oplichters gebruiken nu gekloonde stemmen, nepvideo's en synthetische identiteiten om werknemers, investeerders en hele bedrijven op te lichten.&nbsp;<\/p>\n\n\n\n<p>We hebben gezien hoe imitaties van directieleden en incidenten met marktmanipulatie grote bedrijven op hun grondvesten kunnen doen schudden. Het enige wat nodig is, is een overtuigend videogesprek of een bekende stem die de verkeerde dingen zegt.<\/p>\n\n\n\n<ol start=\"3\" class=\"wp-block-list\">\n<li><strong>Technische en sociale kwetsbaarheden<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Deepfake-technologie breekt systemen waarvan we ooit dachten dat ze waterdicht waren.<\/p>\n\n\n\n<p>Gezichtsherkenning en stemverificatie, die ooit werden vertrouwd voor beveiliging, kunnen nu worden omzeild met AI-gegenereerde gezichten en stemmen.<\/p>\n\n\n\n<p>Dit betekent dat zelfs <strong>\"bewijs\" <\/strong>zoals een foto of video kan niet automatisch worden vertrouwd.&nbsp;<\/p>\n\n\n\n<p>Bovendien draagt menselijk gedrag bij aan het risico. Oudere mensen en intensieve gebruikers van sociale media zijn eerder geneigd om deepfakes te geloven en te delen, waardoor ze zich nog sneller verspreiden.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Hoe TruthScan organisaties beschermt<\/h3>\n\n\n\n<p>TruthScan is een tool voor deepfake-detectie die een verificatielaag toevoegt aan de werkelijkheid zelf.&nbsp;<\/p>\n\n\n\n<p>Waarin verschilt dit van traditionele systemen?&nbsp;<\/p>\n\n\n\n<p>Traditionele deepfake detectiesystemen analyseren alleen visuals of audio, maar TruthScan maakt gebruik van multimodale verificatie.&nbsp;<\/p>\n\n\n\n<p>Wat is multimodale verificatie?&nbsp;<\/p>\n\n\n\n<p>Dit betekent dat video, audio, tekst en metadata in realtime worden gecontroleerd om inconsistenties te ontdekken die menselijke ogen en oudere systemen over het hoofd zien.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Het <strong>valideert de authenticiteit van de bron<\/strong> voordat inhoud wordt gepubliceerd of gedeeld. Het zorgt ervoor dat merken, leidinggevenden en instellingen niet onbewust gemanipuleerde media versterken.<br><\/li>\n\n\n\n<li>Het <strong>Versterkt identiteitsverificatie<\/strong> tegen het klonen van stemmen en pogingen om gezichten te verwisselen door synthetische vingerafdrukken te detecteren die onzichtbaar zijn voor het blote oog.<br><\/li>\n\n\n\n<li>Het <strong>beschermt het vertrouwen in de organisatie <\/strong>door de herkomst van inhoud te bewaren, zodat elke geverifieerde video of document een ononderbroken keten van authenticiteit heeft.<\/li>\n<\/ul>\n\n\n\n<p>In een wereld waarin de waarheid zelf wordt aangevallen, detecteert TruthScan deepfake en herstelt het vertrouwen in wat echt is.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Deepfakes detecteren: De beste methoden om valse media te herkennen<\/h2>\n\n\n\n<p>Voor het detecteren van deepfake technologie is een verdediging met drie lagen nodig, zoals menselijke beoordeling, forensische analyse en adaptieve AI-detectie.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Handmatige manieren om Deepfakes te detecteren<\/li>\n<\/ul>\n\n\n\n<p>Een getrainde beoordelaar kan correct <a href=\"https:\/\/deepstrike.io\/blog\/deepfake-statistics-2025\" target=\"_blank\" rel=\"noreferrer noopener\">Identificeer hoogwaardige deepfakes slechts 24,5%<\/a> van de tijd.<\/p>\n\n\n\n<p>Er zijn traditionele verklikkerlichten zoals verkeerde belichting, onnatuurlijke schaduwen of lipsynchrone lipbewegingen die onbetrouwbaar zijn geworden.&nbsp;<\/p>\n\n\n\n<p>Moderne GAN's strijken deze fouten glad en zodra de video wordt gecomprimeerd (zoals op sociale media), verdwijnen deze kleine signalen volledig.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Technische en analytische benaderingen<\/li>\n<\/ul>\n\n\n\n<p>Deze methode is betrouwbaarder dan handmatige controle, maar gaat gepaard met hoge rekenkosten.&nbsp;<\/p>\n\n\n\n<p>Laten we eens begrijpen hoe deze benaderingen werken:<\/p>\n\n\n\n<p>Het begint met <strong>forensische analysetechnieken<\/strong> wat de basis is van technische deepfake detectie. <\/p>\n\n\n\n<p>Deze tools splitsen media op in microscopische details om inconsistenties te zien die voor mensen onzichtbaar zijn.&nbsp;<\/p>\n\n\n\n<p><strong>Bijvoorbeeld:<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Frame-voor-frame analyse ontleedt video's in individuele beelden, wat helpt bij het identificeren van onnatuurlijke patronen zoals onregelmatige belichting of verkeerd afgestemde gezichtsbewegingen.&nbsp;<\/li>\n<\/ul>\n\n\n\n<p>Dan komt <strong>Foutniveau-analyse (ELA)<\/strong>die het bewerkingsproces omkeert door verschillen in pixelcompressie te benadrukken. Dit is een duidelijk teken van manipulatie.&nbsp;<\/p>\n\n\n\n<p>Naarmate we dieper gaan, <strong>spatio-temporele samenhang<\/strong> Methoden analyseren hoe stem, gebaren en gezichtsuitdrukkingen in de loop van de tijd op elkaar aansluiten. Zelfs een kleine vertraging tussen lipbeweging en geluid kan een synthetische oorsprong verraden.<\/p>\n\n\n\n<p>Maar hoewel deze methoden krachtig zijn, vragen ze ook veel middelen.<\/p>\n\n\n\n<p>Duizenden video's frame voor frame verwerken is niet praktisch op schaal, vooral niet wanneer er dagelijks miljoenen nieuwe mediabestanden worden ge\u00fcpload.&nbsp;<\/p>\n\n\n\n<p>Deepfake-technologie evolueert door de manier waarop deze wordt gemaakt. Elke keer dat een deepfake detector verbetert, wordt de generator van de vervalsing <strong><em>(de \"tegenstander\")<\/em><\/strong> leert ervan en produceert nog overtuigendere resultaten.&nbsp;<\/p>\n\n\n\n<p>Dit constante heen-en-weergeloop staat bekend als adversarial loop. Het betekent dat statische deepfake detectiesystemen binnen enkele maanden verouderd zijn.&nbsp;<\/p>\n\n\n\n<p>De enige duurzame verdediging is AI die in realtime leert en neurale netwerken gebruikt om zichzelf voortdurend bij te werken als er nieuwe deepfake-technieken opduiken.&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>TruthScan AI-detectietools gebruiken<\/li>\n<\/ul>\n\n\n\n<p>Alle methoden die we hierboven hebben gezien zijn nog niet zo geavanceerd om deepfake technologie nauwkeurig te detecteren. De snelheid, schaal en geavanceerdheid van deze aanvallen vereisen gespecialiseerde, adaptieve AI-systemen die speciaal zijn gebouwd voor dit veranderende slagveld.&nbsp;<\/p>\n\n\n\n<p>Dat is waar <a href=\"https:\/\/truthscan.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">TruthScan<\/a> komt binnen. TruthScan is speciaal ontworpen voor verdediging in de echte wereld.&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Zijn <strong>AI-gestuurd leersysteem<\/strong> stopt nooit met trainen, bestudeert dagelijks nieuwe soorten deepfake technologie en werkt zichzelf automatisch bij. Dit betekent dat het zelfs de meest geavanceerde<strong> \"zero-day\"<\/strong> deepfakes, degene die niemand eerder heeft gezien, zonder dat er mensen voor nodig zijn om het te hertrainen.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Het is ook <strong>werkt in realtime via alle belangrijke communicatiekanalen <\/strong>van videogesprekken en callcenters tot digitale mediaplatforms. TruthScan analyseert niet slechts \u00e9\u00e9n ding. Het controleert video, audio en tekst samen en zorgt ervoor dat alles klopt.&nbsp;<\/li>\n<\/ul>\n\n\n\n<p>Dit is hoe het verschillende soorten organisaties beschermt:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Financi\u00eble instellingen:<\/strong> TruthScan vangt nepstemmen op in klantenservicegesprekken, blokkeert deepfake technologie-identiteiten tijdens KYC-controles (die snel toenemen) en voorkomt dat nepmanagers frauduleuze overboekingen goedkeuren.<br><\/li>\n\n\n\n<li><strong>Ondernemingen:<\/strong> Het houdt interne communicatie echt. Het markeert gemanipuleerde media die kunnen worden gebruikt voor chantage, verkeerde informatie of merkschade. Het kan ook oudere communicatierecords analyseren om patronen van synthetische inhoud te detecteren en zo beveiliging op lange termijn opbouwen.<br><\/li>\n\n\n\n<li><strong>Overheid en publieke sector:<\/strong> TruthScan verifieert media die worden gebruikt in onderzoeken en openbare aankondigingen en beschermt tegen neppolitieke video's of gemanipuleerde verklaringen die het vertrouwen van het publiek of de nationale veiligheid kunnen verstoren.<\/li>\n<\/ul>\n\n\n\n<p>TruthScan is een tool voor deepfake detectie die organisaties de snelheid, nauwkeurigheid en het aanpassingsvermogen geeft die nodig zijn om voorop te blijven lopen.<\/p>\n\n\n\n<p>Lezers die zich zorgen maken over de toenemende gevaren van synthetische media hebben behoefte aan een betrouwbare, praktische oplossing voor het verifi\u00ebren van content.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"424\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-1024x424.jpg\" alt=\"\" class=\"wp-image-17776\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-1024x424.jpg 1024w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-300x124.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-768x318.jpg 768w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-18x7.jpg 18w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector.jpg 1384w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><\/div>\n\n\n<p>Onze niet-detecteerbare AI's <a href=\"https:\/\/undetectable.ai\/nl\/ai-video-detector\" target=\"_blank\" rel=\"noreferrer noopener\">AI-videodetector<\/a> biedt een praktische oplossing voor lezers die zich zorgen maken over de gevaren van deepfakes, door snelle verificatie van online video's.<\/p>\n\n\n\n<p>Probeer zowel onze AI Detector als Humanizer direct in de widget hieronder!<\/p>\n\n\n\n<div id=\"uai-widget\" data-affiliate-link=\"https:\/\/undetectable.ai\/?_by=hi4km\"><script>var js = document.createElement(\"script\");js.async = true;js.src = \"https:\/\/widget.undetectable.ai\/js\/widget-loader.js?t=\"+Date.now();document.getElementsByTagName(\"head\")[0].appendChild(js);<\/script><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusie<\/h2>\n\n\n\n<p>Deepfake technologie begon als een slim experiment. Het was een manier om overal het gezicht van Nicolas Cage op te zetten.&nbsp;<\/p>\n\n\n\n<p>Maar nu crasht het bestuursvergaderingen, verkiezingscampagnes en bankrekeningen. En de grap is voorbij.<\/p>\n\n\n\n<p>Wat ooit <strong>\"onschuldig plezier\"<\/strong> op Reddit is veranderd in een miljardenfraudemachine.&nbsp;<\/p>\n\n\n\n<p>Het enge deel?<\/p>\n\n\n\n<p>De meeste mensen weten nog steeds niet wat echt is. Zelfs experts herkennen vervalsingen van hoge kwaliteit slechts in een kwart van de gevallen. De grens tussen zien en geloven is officieel vervaagd.<\/p>\n\n\n\n<p>En de programma's voor deepfake-detectie waarop we ooit vertrouwden om manipulatie op te sporen, lopen al een stap achter.&nbsp;<\/p>\n\n\n\n<p>De vervalsers blijven leren, zich aanpassen en verbeteren.<\/p>\n\n\n\n<p>Daarom hangt de toekomst van digitale verdediging af van AI die AI bestrijdt.&nbsp;<\/p>\n\n\n\n<p>Deepfake detectietool zoals <a href=\"https:\/\/truthscan.com\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>TruthScan<\/strong><\/a> heeft adaptieve systemen die in realtime evolueren en detecteren wat mensen niet kunnen.<\/p>\n\n\n\n<p>In een wereld waarin iedereen alles kan \"zeggen\" of \"lijken\" te doen, is de waarheid niet dood, maar heeft ze alleen betere beveiliging nodig.&nbsp;<\/p>\n\n\n\n<p>Omdat de volgende virale video misschien niet alleen nepnieuws is... maar ook een neppe jij.<\/p>\n<!--\nDebug List of Changed Links:\nBefore: https:\/\/undetectable.ai\/ai-video-detector\nAfter: https:\/\/undetectable.ai\/nl\/ai-video-detector\n-->","protected":false},"excerpt":{"rendered":"","protected":false},"author":15,"featured_media":15315,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_themeisle_gutenberg_block_has_review":false,"footnotes":""},"categories":[31],"tags":[],"class_list":["post-15309","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-helpful-ai-content-tips"],"_links":{"self":[{"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/posts\/15309","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/users\/15"}],"replies":[{"embeddable":true,"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/comments?post=15309"}],"version-history":[{"count":8,"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/posts\/15309\/revisions"}],"predecessor-version":[{"id":17788,"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/posts\/15309\/revisions\/17788"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/media\/15315"}],"wp:attachment":[{"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/media?parent=15309"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/categories?post=15309"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/undetectable.ai/blog\/nl\/wp-json\/wp\/v2\/tags?post=15309"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}