{"id":5269,"date":"2025-07-01T05:42:23","date_gmt":"2025-07-01T05:42:23","guid":{"rendered":"https:\/\/research.undetectable.ai\/?p=5269"},"modified":"2025-07-09T17:33:19","modified_gmt":"2025-07-09T17:33:19","slug":"85-of-americans-say-deepfakes-have-eroded-their-trust-in-online-information","status":"publish","type":"post","link":"https:\/\/research.undetectable.ai\/it\/l85-degli-americani-afferma-che-i-deepfakes-hanno-eroso-la-loro-fiducia-nelle-informazioni-online\/","title":{"rendered":"85 % degli americani affermano che i deepfakes hanno eroso la loro fiducia nelle informazioni online"},"content":{"rendered":"<p><br>Gli strumenti di IA generativa hanno fatto evolvere i deepfakes dalla ricerca scientifica a una grande preoccupazione pubblica. Secondo i risultati del sondaggio di giugno 2025, le persone mostrano paura nei confronti dei media sintetici e allo stesso tempo dimostrano incapacit\u00e0 di individuarli. <\/p>\n\n\n\n<p>L'FBI afferma che la tecnologia AI deepfake consente di svolgere attivit\u00e0 criminali attraverso tre metodi principali, tra cui messaggi di spam generati dall'AI, personaggi dei social media creati dall'AI e siti web di phishing codificati dall'AI. <\/p>\n\n\n\n<p>L'obiettivo di questi schemi \u00e8 quello di sfruttare finanziariamente sia le organizzazioni commerciali sia i singoli consumatori. La combinazione della tecnologia deepfake con l'intelligenza artificiale ha portato a pi\u00f9 di <a href=\"https:\/\/www.securitymagazine.com\/articles\/101559-deepfake-enabled-fraud-caused-more-than-200-million-in-losses\" target=\"_blank\" rel=\"noopener\">$200 milioni di perdite <\/a>nel corso del 2025. <\/p>\n\n\n\n<p>La maggioranza degli americani (85%) ha perso la fiducia nelle informazioni online nel corso dell'ultimo anno a causa dei deepfakes e 81% teme di subire danni personali da contenuti audio e video falsi. Oltre 90% di utenti non utilizzano strumenti di rilevamento. I dati indicano un crescente \"gap di fiducia\" che richiede un intervento immediato da parte delle autorit\u00e0 di regolamentazione e degli operatori e tecnologi delle piattaforme.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Risultati principali<\/strong><\/h2>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:100%\">\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th><strong>Approfondimento<\/strong><\/th><th><strong>Dati di supporto<\/strong><\/th><\/tr><\/thead><tbody><tr><td><strong>Il video Deepfake \u00e8 in cima all'indice di paura.<\/strong><\/td><td>Il 73,5 % degli intervistati ha scelto i video deepfake come formato di cui \u00e8 \"pi\u00f9 preoccupato\", seguito da immagini (63,6 %), audio (52,5 %) e testo (47,2 %).&nbsp;<\/td><\/tr><tr><td><strong>\u00c8 in atto una vera e propria crisi di fiducia.<\/strong><\/td><td>L'85,4 % riferisce di aver diminuito la probabilit\u00e0 di fidarsi di notizie, foto o video online negli ultimi 12 mesi a causa di deepfake realistici.&nbsp;<\/td><\/tr><tr><td><strong>La minaccia personale \u00e8 diventata mainstream.<\/strong><\/td><td>80,8 % temono che truffatori o malintenzionati possano usare come arma i contenuti deepfake contro di loro o la loro famiglia.&nbsp;<\/td><\/tr><tr><td><strong>Forte consenso morale sul consenso.<\/strong><\/td><td>62,2 % dicono che usare le sembianze di una persona reale senza autorizzazione \u00e8 <em>mai<\/em> accettabile; solo 2.7 % dicono che \u00e8 sempre accettabile.&nbsp;<\/td><\/tr><\/tbody><\/table><\/figure>\n<\/div>\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Metodologia<\/strong><\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Campione e lavoro sul campo.<\/strong> Abbiamo reclutato <strong>1.000 adulti statunitensi<\/strong> utilizzando quote di et\u00e0, genere e regione allineate ai parametri del censimento degli Stati Uniti. Il lavoro sul campo \u00e8 stato completato su <strong>18 giugno 2025<\/strong>.<\/li>\n\n\n\n<li><strong>Domanda Design.<\/strong> Cinque domande a risposta chiusa hanno misurato la preoccupazione per i diversi formati di deepfake, i recenti cambiamenti nella fiducia, il rischio personale percepito, le opinioni etiche sul consenso e l'uso precedente del software di rilevamento.<\/li>\n\n\n\n<li><strong>Margine di errore.<\/strong> \u00b13,1 punti percentuali al livello di confidenza del 95 %.<\/li>\n\n\n\n<li><strong>Ponderazione.<\/strong> La ponderazione post-stratificazione ha corretto le piccole deviazioni dai dati demografici nazionali.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Domande<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>D1: Quale forma di AI Deepfakes vi preoccupa di pi\u00f9? <\/strong>(Scegliere tutto ci\u00f2 che si applica)<\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"192\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-1024x192.png\" alt=\"\" class=\"wp-image-5270\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-1024x192.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-300x56.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-768x144.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25-18x3.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.20.25.png 1311w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>D2: L'aumento delle immagini e dei video deepfake realistici dell'intelligenza artificiale vi ha reso meno propensi a fidarvi delle notizie e dei video\/foto\/articoli che avete visto online negli ultimi 12 mesi?<\/strong><\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"204\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-1024x204.png\" alt=\"\" class=\"wp-image-5271\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-1024x204.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-300x60.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-768x153.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41-18x4.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.21.41.png 1316w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>D3: Siete preoccupati che qualcuno possa utilizzare la tecnologia AI deepfake per creare un video o un audio falso di voi o della vostra famiglia (ad esempio, per impersonarvi in una truffa o diffamarvi)?<\/strong><\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"205\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-1024x205.png\" alt=\"\" class=\"wp-image-5272\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-1024x205.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-300x60.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-768x154.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19-18x4.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.19.png 1311w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>D4: Ritenete accettabile che i film o i media utilizzino la tecnologia AI deepfake per rappresentare persone reali (come attori o personaggi pubblici) senza il loro consenso?<\/strong><\/h3>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"261\" src=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-1024x261.png\" alt=\"\" class=\"wp-image-5273\" title=\"\" srcset=\"https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-1024x261.png 1024w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-300x77.png 300w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-768x196.png 768w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58-18x5.png 18w, https:\/\/research.undetectable.ai\/wp-content\/uploads\/2025\/07\/CleanShot-2025-06-30-at-21.22.58.png 1312w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Analisi delle tendenze<\/strong><\/h2>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>L'ansia da video supera quella di altri formati<\/strong><\/li>\n<\/ol>\n\n\n\n<p>In passato il video era un mezzo di comunicazione affidabile, a cui si credeva quando lo si vedeva. Le preoccupazioni per i video sintetici dominano ora le menti degli americani, da quando il video ha perso il suo status di affidabilit\u00e0. Le persone temono i video pi\u00f9 delle immagini con un margine di 10 punti (73,5% vs 63,6%) perch\u00e9 il movimento del video combinato con la voce sincronizzata e l'aspetto realistico intensifica le loro preoccupazioni. Le organizzazioni dei media dovrebbero implementare procedure di autenticazione rigorose per i contenuti video prima di rilasciarli al pubblico.<\/p>\n\n\n\n<ol start=\"2\" class=\"wp-block-list\">\n<li><strong>Erosione della fiducia nelle informazioni<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Il massiccio calo dei livelli di fiducia del pubblico dimostra un dubbio diffuso su ogni tipo di contenuto digitale, indipendentemente dalla sua evidente mancanza di credibilit\u00e0. La teoria del \"discorso a buon mercato\" dimostra come la facilit\u00e0 di fabbricazione abbia reso la verifica della verit\u00e0 una responsabilit\u00e0 del consumatore. I personaggi pubblici e i giornalisti, cos\u00ec come i politici, devono prepararsi a un maggiore monitoraggio investendo in metodi di verifica chiari (come filigrane crittografiche e metadati firmati).<\/p>\n\n\n\n<ol start=\"3\" class=\"wp-block-list\">\n<li><strong>I deepfake diventano personali<\/strong><\/li>\n<\/ol>\n\n\n\n<p>La maggioranza degli intervistati (85%) immagina che se stessi o i propri familiari saranno vittime di attacchi deepfake. La percezione dei deepfake come strumenti di disinformazione politica incentrati sulle elezioni e sulle celebrit\u00e0 si \u00e8 spostata negli ultimi cicli verso le minacce personali. La diffusione di applicazioni per la clonazione vocale e lo scambio di volti ha reso il furto d'identit\u00e0 e le truffe finanziarie una minaccia plausibile per le famiglie comuni e ha innescato la richiesta di migliorare i meccanismi di ricorso alle vittime e le leggi sulla protezione dell'identit\u00e0.<\/p>\n\n\n\n<ol start=\"4\" class=\"wp-block-list\">\n<li><strong>Richiesta quasi universale di consenso<\/strong><\/li>\n<\/ol>\n\n\n\n<p>La domanda etica del sondaggio rivela come la comunit\u00e0 hollywoodiana sia ancora divisa riguardo agli attori sintetici e alle performance postume. La forte posizione pubblica contro la violazione dei diritti individuali \u00e8 emersa come la scelta \"mai accettabile\" che ha ricevuto il sostegno del 62,2% dei partecipanti. I funzionari pubblici dovrebbero utilizzare questa evidenza per creare leggi che richiedano il consenso esplicito degli individui prima di creare rappresentazioni di sembianze generate dall'IA e garantire una corretta divulgazione delle etichette.<\/p>\n\n\n\n<ol start=\"5\" class=\"wp-block-list\">\n<li><strong>Divario di preparazione e opportunit\u00e0 di istruzione<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Nonostante la forte preoccupazione per il problema, l'89,5% degli intervistati non ha utilizzato strumenti di rilevamento. Il mercato mostra un potenziale latente, poich\u00e9 i livelli di interesse superano le attuali capacit\u00e0 di utilizzo, il che indica problemi di usabilit\u00e0 e consapevolezza e dubbi sull'efficacia. Undetectable AI, insieme ad altri operatori del settore, deve creare semplici processi di onboarding, aggiungendo strumenti di rilevamento alle piattaforme dei consumatori e sviluppando programmi educativi che spieghino la tecnologia AI al pubblico.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Implicazioni per le parti interessate<\/strong><\/h2>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th><strong>Soggetto interessato<\/strong><\/th><th><strong>Un risultato utile per l'azione<\/strong><\/th><\/tr><\/thead><tbody><tr><td><strong>Notizie e piattaforme sociali<\/strong><\/td><td>Implementare gli standard per i media autenticati (C2PA, W3C provenance) e introdurre badge di \"origine verificata\" per ricostruire la fiducia del pubblico.<\/td><\/tr><tr><td><strong>Studi di intrattenimento<\/strong><\/td><td>Istituire contratti espliciti di opt-in per le sembianze sintetiche e adottare informazioni sullo schermo quando viene utilizzata la ricreazione dell'intelligenza artificiale.<\/td><\/tr><tr><td><strong>Regolatori<\/strong><\/td><td>Avanzare le proposte di legge sul diritto di pubblicit\u00e0 e sull'etichettatura deepfake per allinearle alle aspettative di consenso pubblico.<\/td><\/tr><tr><td><strong>Aziende e marchi<\/strong><\/td><td>Monitorare in modo proattivo le immagini del marchio per individuare eventuali manipolazioni e istruire i dipendenti sull'individuazione di contenuti sospetti.<\/td><\/tr><tr><td><strong>Consumatori<\/strong><\/td><td>Cercate strumenti di rilevamento affidabili e praticate l'igiene digitale \"pausa, verifica, condivisione\" prima di amplificare i media.<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><\/h2>\n\n\n\n<h2 class=\"wp-block-heading\">Commenti<\/h2>\n\n\n\n<p>Abbiamo raccolto ulteriori risposte dai partecipanti al sondaggio in merito al loro utilizzo di strumenti di rilevamento di fake AI, che hanno rivelato che alcuni li stanno gi\u00e0 utilizzando e che un'ampia porzione di individui dichiara di non conoscerli ma di essere interessata a saperne di pi\u00f9. I dati completi del sondaggio sono disponibili su richiesta.<\/p>\n\n\n\n<p>Il presente rapporto \u00e8 una sintesi dei risultati completi, disponibili su richiesta. Questa ricerca \u00e8 stata condotta in collaborazione con <a href=\"http:\/\/Truthscan.com\" data-type=\"link\" data-id=\"Truthscan.com\" target=\"_blank\" rel=\"noopener\">TruthScan<\/a>, una soluzione di rilevamento deepfake e anti-frode.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><br><strong>Conclusione<\/strong><\/h2>\n\n\n\n<p>Le preoccupazioni per i deepfake nel 2025 sono definite da un forte paradosso: <strong>l'aumento dell'allarme pubblico che si interseca con un'azione protettiva minima<\/strong>. Con il declino della fiducia, le organizzazioni si trovano ad affrontare un mandato urgente per verificare, etichettare e autenticare i contenuti digitali. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Uso corretto<\/h2>\n\n\n\n<p>Sentitevi liberi di utilizzare queste informazioni in un articolo o in un post del blog, purch\u00e9 ci forniate un link e una citazione. Per accedere alla serie completa di dati dell'indagine, non esitate a contattarci direttamente.<br><\/p>\n\n\n\n<p><em>Per richieste di informazioni alla stampa o per accedere alle tabelle incrociate complete, contattare devan@undetectable.ai<\/em> o news@undetectable.ai<br><\/p>","protected":false},"excerpt":{"rendered":"<p>Gli strumenti di intelligenza artificiale generativa hanno fatto evolvere i deepfakes dalla ricerca scientifica a una grande preoccupazione pubblica. Le persone [...]<\/p>","protected":false},"author":2,"featured_media":5274,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"rank_math_lock_modified_date":false,"_themeisle_gutenberg_block_has_review":false,"footnotes":""},"categories":[34],"tags":[],"class_list":["post-5269","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/posts\/5269","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/comments?post=5269"}],"version-history":[{"count":4,"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/posts\/5269\/revisions"}],"predecessor-version":[{"id":5280,"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/posts\/5269\/revisions\/5280"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/media\/5274"}],"wp:attachment":[{"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/media?parent=5269"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/categories?post=5269"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/research.undetectable.ai\/it\/wp-json\/wp\/v2\/tags?post=5269"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}