{"id":5269,"date":"2025-07-01T05:42:23","date_gmt":"2025-07-01T05:42:23","guid":{"rendered":"https:\/\/research.undetectable.ai\/?p=5269"},"modified":"2025-07-09T17:33:19","modified_gmt":"2025-07-09T17:33:19","slug":"85-of-americans-say-deepfakes-have-eroded-their-trust-in-online-information","status":"publish","type":"post","link":"https:\/\/research.undetectable.ai\/da\/85-af-amerikanerne-siger-at-deepfakes-har-svaekket-deres-tillid-til-onlineinformation\/","title":{"rendered":"85 % af amerikanerne siger, at deepfakes har undermineret deres tillid til onlineinformation"},"content":{"rendered":"<p><br>Generative AI-v\u00e6rkt\u00f8jer har udviklet deepfakes fra videnskabelig forskning til en stor offentlig bekymring. Folk viser frygt for syntetiske medier, samtidig med at de viser manglende evne til at opdage dem if\u00f8lge resultaterne af unders\u00f8gelsen fra juni 2025. <\/p>\n\n\n\n<p>FBI siger, at AI-deepfake-teknologi muligg\u00f8r kriminelle aktiviteter gennem tre hovedmetoder, som omfatter AI-genererede spam-beskeder og AI-skabte personaer p\u00e5 sociale medier og AI-kodede phishing-hjemmesider. <\/p>\n\n\n\n<p>M\u00e5let med disse svindelnumre er at udnytte b\u00e5de virksomheder og individuelle forbrugere \u00f8konomisk. Kombinationen af deepfake-teknologi med AI resulterede i mere end <a href=\"https:\/\/www.securitymagazine.com\/articles\/101559-deepfake-enabled-fraud-caused-more-than-200-million-in-losses\" target=\"_blank\" rel=\"noopener\">$200 millioner i tab <\/a>i l\u00f8bet af 2025. <\/p>\n\n\n\n<p>St\u00f8rstedelen af amerikanerne (85%) har mistet deres tillid til onlineinformation i l\u00f8bet af det seneste \u00e5r p\u00e5 grund af deepfakes, og 81% frygter personlig skade fra falsk lyd- og videoindhold. Mere end 90% af brugerne undlader at bruge detektionsv\u00e6rkt\u00f8jer. Dataene indikerer en stigende \"tillidskl\u00f8ft\", som kr\u00e6ver \u00f8jeblikkelig indgriben fra lovgivere, platformsoperat\u00f8rer og teknologer.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Vigtige resultater<\/strong><\/h2>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:100%\">\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th><strong>Indsigt<\/strong><\/th><th><strong>Underst\u00f8ttende data<\/strong><\/th><\/tr><\/thead><tbody><tr><td><strong>Deepfake-videoen topper frygtindekset.<\/strong><\/td><td>73,5 % af respondenterne valgte deepfake-video som et format, de er \"mest bekymrede for\", efterfulgt af billeder (63,6 %), lyd (52,5 %) og tekst (47,2 %).&nbsp;<\/td><\/tr><tr><td><strong>En regul\u00e6r tillidskrise er under opsejling.<\/strong><\/td><td>85,4 % rapporterer, at de er blevet mindre tilb\u00f8jelige til at stole p\u00e5 nyheder, fotos eller videoer online inden for de seneste 12 m\u00e5neder p\u00e5 grund af realistiske deepfakes.&nbsp;<\/td><\/tr><tr><td><strong>Personlige trusler er blevet mainstream.<\/strong><\/td><td>80,8 % er bekymrede for, at svindlere eller d\u00e5rlige akt\u00f8rer kan bruge deepfake-indhold som v\u00e5ben mod dem eller deres familie.&nbsp;<\/td><\/tr><tr><td><strong>St\u00e6rk moralsk konsensus om samtykke.<\/strong><\/td><td>62.2 % siger, at det at bruge en virkelig persons billede uden tilladelse er <em>aldrig<\/em> acceptabelt; kun 2,7 % siger, at det altid er acceptabelt.&nbsp;<\/td><\/tr><\/tbody><\/table><\/figure>\n<\/div>\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Metodologi<\/strong><\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Pr\u00f8ve og feltarbejde.<\/strong> Vi rekrutterede <strong>1.000 voksne i USA<\/strong> ved hj\u00e6lp af alders-, k\u00f8ns- og regionskvoter i overensstemmelse med U.S. Census-benchmarks. Feltarbejdet blev afsluttet den <strong>18. juni 2025<\/strong>.<\/li>\n\n\n\n<li><strong>Sp\u00f8rgsm\u00e5lsdesign.<\/strong> Fem lukkede sp\u00f8rgsm\u00e5l m\u00e5lte bekymring for forskellige deepfake-formater, nylige \u00e6ndringer i tillid, opfattet personlig risiko, etiske synspunkter p\u00e5 samtykke og tidligere brug af detektionssoftware.<\/li>\n\n\n\n<li><strong>Fejlmargen.<\/strong> \u00b13,1 procentpoint ved 95 % konfidensniveau.<\/li>\n\n\n\n<li><strong>V\u00e6gtning.<\/strong> V\u00e6gtning efter stratificering korrigerede mindre afvigelser fra den nationale demografi.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Sp\u00f8rgsm\u00e5l<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Q1: Hvilken form for AI-deepfakes er du mest bekymret for? <\/strong>(V\u00e6lg alt, hvad der g\u00e6lder)<\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"192\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-1024x192.png\" alt=\"\" class=\"wp-image-5270\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-1024x192.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-300x56.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-768x144.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-18x3.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25.png 1311w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Q2: Har stigningen i realistiske AI deepfake-billeder og -videoer gjort dig mindre tilb\u00f8jelig til at stole p\u00e5 de nyheder og videoer\/fotos\/artikler, du har set online i de seneste 12 m\u00e5neder?<\/strong><\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"204\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-1024x204.png\" alt=\"\" class=\"wp-image-5271\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-1024x204.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-300x60.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-768x153.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-18x4.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41.png 1316w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Q3: Er du bekymret for, at nogen kunne bruge AI deepfake-teknologi til at lave en falsk video eller lyd af dig eller din familie (f.eks. for at udgive sig for at v\u00e6re dig i et svindelnummer eller \u00e6rekr\u00e6nke dig)?<\/strong><\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"205\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-1024x205.png\" alt=\"\" class=\"wp-image-5272\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-1024x205.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-300x60.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-768x154.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-18x4.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19.png 1311w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Q4: Synes du, det er acceptabelt, at film eller medier bruger AI-deepfake-teknologi til at afbilde rigtige mennesker (f.eks. skuespillere eller offentlige personer) uden den p\u00e5g\u00e6ldende persons samtykke?<\/strong><\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"261\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-1024x261.png\" alt=\"\" class=\"wp-image-5273\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-1024x261.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-300x77.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-768x196.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-18x5.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58.png 1312w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Analyse af tendenser<\/strong><\/h2>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Videoangst overg\u00e5r andre formater<\/strong><\/li>\n<\/ol>\n\n\n\n<p>F\u00f8r i tiden var video et p\u00e5lideligt medie, som folk troede p\u00e5, n\u00e5r de s\u00e5 det. Syntetiske videobekymringer dominerer nu amerikanernes bevidsthed, da video har mistet sin trov\u00e6rdige status. Folk frygter video mere end billeder med en 10-punkts margin (73,5% vs. 63,6%), fordi videos bev\u00e6gelse kombineret med synkroniseret stemme og realistisk udseende intensiverer deres bekymringer. Medieorganisationer b\u00f8r implementere strenge godkendelsesprocedurer for videoindhold, f\u00f8r de frigiver det til offentligheden.<\/p>\n\n\n\n<ol start=\"2\" class=\"wp-block-list\">\n<li><strong>Erosion af informationstillid<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Det massive 85% fald i tillidsniveauet blandt befolkningen viser, at der er udbredt tvivl om alle typer digitalt indhold, uanset dets \u00e5benlyse mangel p\u00e5 trov\u00e6rdighed. Teorien om \"billig tale\" viser, hvor let fabrikation har gjort, at verificering af sandheden er blevet forbrugerens ansvar. Offentlige personer og journalister skal sammen med beslutningstagere forberede sig p\u00e5 \u00f8get overv\u00e5gning ved at investere i klare verifikationsmetoder (s\u00e5som kryptografiske vandm\u00e6rker og signerede metadata).<\/p>\n\n\n\n<ol start=\"3\" class=\"wp-block-list\">\n<li><strong>Deepfakes bliver personlige<\/strong><\/li>\n<\/ol>\n\n\n\n<p>St\u00f8rstedelen af de adspurgte (85%) forestiller sig, at de selv eller deres familiemedlemmer bliver ofre for deepfake-angreb. Opfattelsen af deepfakes som valg- og kendisfokuserede politiske desinformationsv\u00e6rkt\u00f8jer har \u00e6ndret sig til at omfatte personlige trusler i de seneste cyklusser. Spredningen af AI-stemmekloning og face-swap-apps har gjort identitetstyveri og \u00f8konomisk svindel til plausible trusler for almindelige husholdninger, hvilket har udl\u00f8st krav om forbedrede regresmekanismer for ofre og love om identitetsbeskyttelse.<\/p>\n\n\n\n<ol start=\"4\" class=\"wp-block-list\">\n<li><strong>N\u00e6sten universelt krav om samtykke<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Unders\u00f8gelsens etiske sp\u00f8rgsm\u00e5l afsl\u00f8rer, hvordan Hollywood-samfundet stadig er splittet i forhold til syntetiske skuespillere og posthume optr\u00e6dener. Den st\u00e6rke offentlige holdning mod kr\u00e6nkelse af individuelle rettigheder viste sig at v\u00e6re det \"aldrig acceptable\" valg, som fik st\u00f8tte fra 62,2 procent af deltagerne. Offentlige embedsm\u00e6nd b\u00f8r bruge dette bevis til at skabe love, der kr\u00e6ver udtrykkeligt samtykke fra enkeltpersoner, f\u00f8r de skaber AI-genererede repr\u00e6sentationer og sikrer korrekt m\u00e6rkning.<\/p>\n\n\n\n<ol start=\"5\" class=\"wp-block-list\">\n<li><strong>Parathedskl\u00f8ft og uddannelsesmuligheder<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Selv om der er stor bekymring over problemet, har 89,5 procent af respondenterne ikke brugt detektionsv\u00e6rkt\u00f8jer. Markedet har et latent potentiale, da interessen overstiger den nuv\u00e6rende brugskapacitet, hvilket indikerer problemer med brugervenlighed og bevidsthed samt tvivl om effektiviteten. Undetectable AI skal sammen med andre brancheakt\u00f8rer skabe enkle onboarding-processer, mens de tilf\u00f8jer detektionsv\u00e6rkt\u00f8jer til forbrugerplatforme og udvikler uddannelsesprogrammer, der forklarer AI-teknologi for offentligheden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Konsekvenser for interessenter<\/strong><\/h2>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th><strong>Interessent<\/strong><\/th><th><strong>Brugbar takeaway<\/strong><\/th><\/tr><\/thead><tbody><tr><td><strong>Nyheder og sociale platforme<\/strong><\/td><td>Implementer standarder for autentificerede medier (C2PA, W3C-proveniens) og fremh\u00e6v \"origin verified\"-badges for at genopbygge publikums tillid.<\/td><\/tr><tr><td><strong>Underholdningsstudier<\/strong><\/td><td>Indf\u00f8r eksplicitte opt-in-kontrakter for syntetiske billeder, og indf\u00f8r oplysninger p\u00e5 sk\u00e6rmen, n\u00e5r der bruges AI-rekreation.<\/td><\/tr><tr><td><strong>Regulatorer<\/strong><\/td><td>Fremskynde lovforslag om ret til offentlighed og deepfake-m\u00e6rkning, s\u00e5 de stemmer overens med forventningerne til offentlighedens samtykke.<\/td><\/tr><tr><td><strong>Virksomheder og brands<\/strong><\/td><td>Overv\u00e5g proaktivt brandbilleder for manipulationer, og uddan medarbejderne i at spotte mist\u00e6nkeligt indhold.<\/td><\/tr><tr><td><strong>Forbrugere<\/strong><\/td><td>Find velrenommerede detektionsv\u00e6rkt\u00f8jer og praktiser \"pause, verificer, del\" digital hygiejne, f\u00f8r du forst\u00e6rker medier.<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><\/h2>\n\n\n\n<h2 class=\"wp-block-heading\">Kommentarer<\/h2>\n\n\n\n<p>Vi indsamlede yderligere svar fra deltagerne i unders\u00f8gelsen om deres brug af AI-v\u00e6rkt\u00f8jer til detektering af dyb falskhed, hvilket afsl\u00f8rede, at nogle allerede bruger dem, og en stor del af personerne siger, at de ikke kendte til dem, men er interesserede i at l\u00e6re mere. De fulde unders\u00f8gelsesdata er tilg\u00e6ngelige efter anmodning.<\/p>\n\n\n\n<p>Denne rapport er et AI-sammendrag af vores fulde resultater, som er tilg\u00e6ngelige efter anmodning. Denne forskning blev udf\u00f8rt i samarbejde med <a href=\"http:\/\/Truthscan.com\" data-type=\"link\" data-id=\"Truthscan.com\" target=\"_blank\" rel=\"noopener\">TruthScan<\/a>en l\u00f8sning til deepfake-detektion og anti-ai-svindel.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Konklusion<\/strong><\/h2>\n\n\n\n<p>Deepfake-problemer i 2025 er defineret af et st\u00e6rkt paradoks: <strong>Skyh\u00f8j offentlig alarm krydser med minimal beskyttelsesindsats<\/strong>. Da tilliden er i bund, st\u00e5r organisationer over for et presserende mandat til at verificere, m\u00e6rke og autentificere digitalt indhold. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fair brug<\/h2>\n\n\n\n<p>Du er velkommen til at bruge disse oplysninger i en artikel eller et blogindl\u00e6g, s\u00e5 l\u00e6nge du giver os et link og en henvisning. Hvis du vil have adgang til hele unders\u00f8gelsens datas\u00e6t, er du velkommen til at kontakte os direkte.<br><\/p>\n\n\n\n<p><em>For pressehenvendelser eller adgang til fulde krydstabeller, kontakt devan@undetectable.ai<\/em> eller news@undetectable.ai<br><\/p>","protected":false},"excerpt":{"rendered":"<p>Generative AI-v\u00e6rkt\u00f8jer har udviklet deepfakes fra videnskabelig forskning til et stort offentligt problem. Folk [...]<\/p>","protected":false},"author":2,"featured_media":5274,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"rank_math_lock_modified_date":false,"_themeisle_gutenberg_block_has_review":false,"footnotes":""},"categories":[34],"tags":[],"class_list":["post-5269","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/posts\/5269","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/comments?post=5269"}],"version-history":[{"count":4,"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/posts\/5269\/revisions"}],"predecessor-version":[{"id":5280,"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/posts\/5269\/revisions\/5280"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/media\/5274"}],"wp:attachment":[{"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/media?parent=5269"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/categories?post=5269"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/research.undetectable.ai\/da\/wp-json\/wp\/v2\/tags?post=5269"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}