{"id":5269,"date":"2025-07-01T05:42:23","date_gmt":"2025-07-01T05:42:23","guid":{"rendered":"https:\/\/research.undetectable.ai\/?p=5269"},"modified":"2025-07-09T17:33:19","modified_gmt":"2025-07-09T17:33:19","slug":"85-of-americans-say-deepfakes-have-eroded-their-trust-in-online-information","status":"publish","type":"post","link":"https:\/\/research.undetectable.ai\/nb\/85-av-amerikanerne-sier-at-deepfakes-har-svekket-deres-tillit-til-informasjon-pa-nettet\/","title":{"rendered":"85 % av amerikanerne sier at deepfakes har svekket deres tillit til informasjon p\u00e5 nettet"},"content":{"rendered":"<p><br>Generative AI-verkt\u00f8y har utviklet deepfakes fra \u00e5 v\u00e6re vitenskapelig forskning til \u00e5 bli en stor offentlig bekymring. Folk viser frykt for syntetiske medier, samtidig som de viser manglende evne til \u00e5 oppdage dem, if\u00f8lge resultatene av unders\u00f8kelsen fra juni 2025. <\/p>\n\n\n\n<p>FBI opplyser at AI deepfake-teknologi muliggj\u00f8r kriminelle aktiviteter gjennom tre hovedmetoder, blant annet AI-genererte spam-meldinger, AI-skapte personas i sosiale medier og AI-kodede phishing-nettsteder. <\/p>\n\n\n\n<p>M\u00e5let med disse svindelfors\u00f8kene er \u00e5 utnytte b\u00e5de bedrifter og privatpersoner \u00f8konomisk. Kombinasjonen av deepfake-teknologi og kunstig intelligens resulterte i mer enn <a href=\"https:\/\/www.securitymagazine.com\/articles\/101559-deepfake-enabled-fraud-caused-more-than-200-million-in-losses\" target=\"_blank\" rel=\"noopener\">$200 millioner i tap <\/a>i l\u00f8pet av 2025. <\/p>\n\n\n\n<p>Flertallet av amerikanerne (85%) har mistet tilliten til informasjon p\u00e5 nettet i l\u00f8pet av det siste \u00e5ret p\u00e5 grunn av deepfakes, og 81% frykter personlig skade fra falskt lyd- og videoinnhold. Mer enn 90% av brukerne unnlater \u00e5 bruke deteksjonsverkt\u00f8y. Dataene indikerer et \u00f8kende \"tillitsgap\" som krever umiddelbar inngripen fra myndigheter, plattformoperat\u00f8rer og teknologer.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Viktige funn<\/strong><\/h2>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:100%\">\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th><strong>Innsikt<\/strong><\/th><th><strong>Underst\u00f8ttende data<\/strong><\/th><\/tr><\/thead><tbody><tr><td><strong>Deepfake-videoen topper fryktindeksen.<\/strong><\/td><td>73,5 % av respondentene valgte deepfake-video som et format de er \"mest bekymret for\", etterfulgt av bilder (63,6 %), lyd (52,5 %) og tekst (47,2 %).&nbsp;<\/td><\/tr><tr><td><strong>En fullverdig tillitskrise er under oppseiling.<\/strong><\/td><td>85,4 % oppgir at de har blitt mindre tilb\u00f8yelige til \u00e5 stole p\u00e5 nyheter, bilder eller videoer p\u00e5 nettet i l\u00f8pet av de siste 12 m\u00e5nedene p\u00e5 grunn av realistiske deepfakes.&nbsp;<\/td><\/tr><tr><td><strong>Personlige trusler har blitt mainstream.<\/strong><\/td><td>80,8 % er bekymret for at svindlere eller ondsinnede akt\u00f8rer kan bruke deepfake-innhold som v\u00e5pen mot dem eller familien deres.&nbsp;<\/td><\/tr><tr><td><strong>Sterk moralsk konsensus om samtykke.<\/strong><\/td><td>62.2 % sier at det \u00e5 bruke en ekte persons bilde uten tillatelse er <em>aldri<\/em> akseptabelt; bare 2,7 % sier at det alltid er akseptabelt.&nbsp;<\/td><\/tr><\/tbody><\/table><\/figure>\n<\/div>\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Metodikk<\/strong><\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Utvalg og feltarbeid.<\/strong> Vi rekrutterte <strong>1 000 voksne amerikanere<\/strong> ved hjelp av alders-, kj\u00f8nns- og regionkvoter i tr\u00e5d med amerikanske folketellingsreferanser. Feltarbeidet ble fullf\u00f8rt p\u00e5 <strong>18. juni 2025<\/strong>.<\/li>\n\n\n\n<li><strong>Sp\u00f8rsm\u00e5lsutforming.<\/strong> Fem lukkede sp\u00f8rsm\u00e5l m\u00e5lte bekymring for ulike deepfake-formater, nylige endringer i tillit, opplevd personlig risiko, etisk syn p\u00e5 samtykke og tidligere bruk av deteksjonsprogramvare.<\/li>\n\n\n\n<li><strong>Feilmargin.<\/strong> \u00b13,1 prosentpoeng ved 95 % konfidensniv\u00e5.<\/li>\n\n\n\n<li><strong>Vekting.<\/strong> Vekting etter stratifisering korrigerte mindre avvik fra nasjonal demografi.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Sp\u00f8rsm\u00e5l<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Spm. 1: Hvilken form for AI Deepfakes er du mest bekymret for? <\/strong>(Velg alle som gjelder)<\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"192\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-1024x192.png\" alt=\"\" class=\"wp-image-5270\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-1024x192.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-300x56.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-768x144.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-18x3.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25.png 1311w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Spm. 2: Har fremveksten av realistiske AI deepfake-bilder og -videoer gjort deg mindre tilb\u00f8yelig til \u00e5 stole p\u00e5 nyheter og videoer\/bilder\/artikler du har sett p\u00e5 nettet i l\u00f8pet av de siste 12 m\u00e5nedene?<\/strong><\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"204\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-1024x204.png\" alt=\"\" class=\"wp-image-5271\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-1024x204.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-300x60.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-768x153.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-18x4.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41.png 1316w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Spm. 3: Er du bekymret for at noen kan bruke AI deepfake-teknologi til \u00e5 lage en falsk video eller lyd av deg eller familien din (for eksempel for \u00e5 utgi seg for \u00e5 v\u00e6re deg i et svindelfors\u00f8k eller sverte deg)?<\/strong><\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"205\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-1024x205.png\" alt=\"\" class=\"wp-image-5272\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-1024x205.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-300x60.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-768x154.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-18x4.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19.png 1311w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Spm. 4: Mener du at det er akseptabelt at filmer eller medier bruker AI deepfake-teknologi til \u00e5 avbilde virkelige personer (for eksempel skuespillere eller offentlige personer) uten deres samtykke?<\/strong><\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"261\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-1024x261.png\" alt=\"\" class=\"wp-image-5273\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-1024x261.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-300x77.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-768x196.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-18x5.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58.png 1312w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Trendanalyse<\/strong><\/h2>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Videoangst overg\u00e5r andre formater<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Tidligere var video et medium som folk trodde p\u00e5 n\u00e5r de s\u00e5 det. N\u00e5 er det bekymringer for syntetisk video som dominerer amerikanernes bevissthet, siden video har mistet sin status som et medium man kan stole p\u00e5. Folk frykter video mer enn bilder, med en margin p\u00e5 10 prosentpoeng (73,5% mot 63,6%), fordi videoens bevegelser kombinert med synkronisert stemme og realistisk utseende forsterker bekymringene deres. Medieorganisasjoner b\u00f8r innf\u00f8re strenge autentiseringsprosedyrer for videoinnhold f\u00f8r de slipper det ut til publikum.<\/p>\n\n\n\n<ol start=\"2\" class=\"wp-block-list\">\n<li><strong>Svekket tillit til informasjon<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Det massive 85% fallet i tillitsniv\u00e5et i befolkningen viser at det er utbredt tvil om alle typer digitalt innhold, uavhengig av dets \u00e5penbare mangel p\u00e5 troverdighet. Teorien om \"billig tale\" viser hvor lett fabrikkering har gjort det \u00e5 verifisere sannheten til forbrukerens ansvar. Offentlige personer, journalister og beslutningstakere m\u00e5 forberede seg p\u00e5 \u00f8kt overv\u00e5king ved \u00e5 investere i tydelige verifiseringsmetoder (for eksempel kryptografiske vannmerker og signerte metadata).<\/p>\n\n\n\n<ol start=\"3\" class=\"wp-block-list\">\n<li><strong>Deepfakes blir personlige<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Flertallet av respondentene (85%) ser for seg at de selv eller deres familiemedlemmer kan bli ofre for deepfake-angrep. Oppfatningen av deepfakes som valg- og kjendisfokuserte politiske desinformasjonsverkt\u00f8y har endret seg til \u00e5 omfatte personlige trusler i de siste syklusene. Spredningen av AI-stemmekloning og ansiktsbytte-apper har gjort identitetstyveri og \u00f8konomisk svindel til plausible trusler for vanlige husholdninger, noe som har utl\u00f8st krav om bedre regressmekanismer for ofre og identitetsbeskyttelseslover.<\/p>\n\n\n\n<ol start=\"4\" class=\"wp-block-list\">\n<li><strong>Nesten universelt krav om samtykke<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Unders\u00f8kelsens etiske sp\u00f8rsm\u00e5l avsl\u00f8rer hvordan Hollywood-milj\u00f8et fortsatt er delt i synet p\u00e5 syntetiske skuespillere og posthume opptredener. Den sterke offentlige holdningen mot krenkelse av individuelle rettigheter kom ut som det \"aldri akseptable\" valget, som fikk st\u00f8tte fra 62,2 prosent av deltakerne. Offentlige myndigheter b\u00f8r bruke dette beviset til \u00e5 lage lover som krever eksplisitt samtykke fra enkeltpersoner f\u00f8r det skapes AI-genererte avbildninger, og som sikrer korrekt merking og offentliggj\u00f8ring.<\/p>\n\n\n\n<ol start=\"5\" class=\"wp-block-list\">\n<li><strong>Gap i beredskap og utdanningsmuligheter<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Selv om det er stor bekymring for problemet, har 89,5 prosent av respondentene ikke brukt deteksjonsverkt\u00f8y. Markedet har et latent potensial, siden interessen er st\u00f8rre enn den n\u00e5v\u00e6rende bruken, noe som tyder p\u00e5 problemer med brukervennlighet og bevissthet og tvil om effektiviteten. Sammen med andre akt\u00f8rer i bransjen m\u00e5 Undetectable AI skape enkle innf\u00f8ringsprosesser, legge til deteksjonsverkt\u00f8y p\u00e5 forbrukerplattformer og utvikle oppl\u00e6ringsprogrammer som forklarer AI-teknologi for allmennheten.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Konsekvenser for interessenter<\/strong><\/h2>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th><strong>Interessent<\/strong><\/th><th><strong>Det du kan ta med deg videre<\/strong><\/th><\/tr><\/thead><tbody><tr><td><strong>Nyheter og sosiale plattformer<\/strong><\/td><td>Ta i bruk standarder for autentiserte medier (C2PA, W3C-proveniens) og \"opprinnelsesverifiserte\" merker for \u00e5 gjenoppbygge publikums tillit.<\/td><\/tr><tr><td><strong>Underholdning Studios<\/strong><\/td><td>Innf\u00f8r eksplisitte opt-in-kontrakter for syntetiske avbildninger, og innf\u00f8r informasjon p\u00e5 skjermen n\u00e5r AI-rekreasjon brukes.<\/td><\/tr><tr><td><strong>Regulatorer<\/strong><\/td><td>Fremskynde lovforslag om rett til publisitet og deepfake-merking for \u00e5 tilpasse dem til forventningene om offentlig samtykke.<\/td><\/tr><tr><td><strong>Virksomheter og merkevarer<\/strong><\/td><td>Overv\u00e5k merkevarebilder proaktivt for \u00e5 avdekke manipulasjoner, og l\u00e6r opp de ansatte i \u00e5 oppdage mistenkelig innhold.<\/td><\/tr><tr><td><strong>Forbrukere<\/strong><\/td><td>Opps\u00f8k anerkjente verkt\u00f8y for \u00e5 oppdage og praktisere \"pause, verifiser, del\" digital hygiene f\u00f8r du forsterker medier.<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><\/h2>\n\n\n\n<h2 class=\"wp-block-heading\">Kommentarer<\/h2>\n\n\n\n<p>Vi samlet inn ytterligere svar fra deltakerne i unders\u00f8kelsen om deres bruk av AI-verkt\u00f8y for \u00e5 oppdage falske data, og det viste seg at noen allerede bruker dem, og at en stor andel av deltakerne sier at de ikke kjente til dem, men er interessert i \u00e5 l\u00e6re mer. Fullstendige data fra unders\u00f8kelsen er tilgjengelig p\u00e5 foresp\u00f8rsel.<\/p>\n\n\n\n<p>Denne rapporten er et sammendrag av de fullstendige funnene v\u00e5re, som er tilgjengelige p\u00e5 foresp\u00f8rsel. Denne unders\u00f8kelsen ble gjennomf\u00f8rt i samarbeid med <a href=\"http:\/\/Truthscan.com\" data-type=\"link\" data-id=\"Truthscan.com\" target=\"_blank\" rel=\"noopener\">TruthScan<\/a>, en l\u00f8sning for deepfake-deteksjon og anti-ai-svindel.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Konklusjon<\/strong><\/h2>\n\n\n\n<p>Deepfake-problematikken i 2025 er preget av et sterkt paradoks: <strong>skyh\u00f8ye offentlige alarmer som krysser hverandre med minimale beskyttelsestiltak<\/strong>. Tilliten er i ferd med \u00e5 svekkes, og det haster derfor med \u00e5 verifisere, merke og autentisere digitalt innhold. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Rettferdig bruk<\/h2>\n\n\n\n<p>Du er velkommen til \u00e5 bruke denne informasjonen i en artikkel eller et blogginnlegg, s\u00e5 lenge du gir oss en lenke og kildehenvisning. Hvis du vil ha tilgang til hele datasettet fra unders\u00f8kelsen, kan du ta direkte kontakt med oss.<br><\/p>\n\n\n\n<p><em>For pressehenvendelser eller tilgang til fullstendige krysstabeller, kontakt devan@undetectable.ai<\/em> eller news@undetectable.ai<br><\/p>","protected":false},"excerpt":{"rendered":"<p>Generative AI-verkt\u00f8y har utviklet deepfakes fra \u00e5 v\u00e6re vitenskapelig forskning til \u00e5 bli et stort offentlig problem. Folk [...]<\/p>","protected":false},"author":2,"featured_media":5274,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"rank_math_lock_modified_date":false,"_themeisle_gutenberg_block_has_review":false,"footnotes":""},"categories":[34],"tags":[],"class_list":["post-5269","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/posts\/5269","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/comments?post=5269"}],"version-history":[{"count":4,"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/posts\/5269\/revisions"}],"predecessor-version":[{"id":5280,"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/posts\/5269\/revisions\/5280"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/media\/5274"}],"wp:attachment":[{"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/media?parent=5269"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/categories?post=5269"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/research.undetectable.ai\/nb\/wp-json\/wp\/v2\/tags?post=5269"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}