{"id":15309,"date":"2025-10-15T16:00:31","date_gmt":"2025-10-15T16:00:31","guid":{"rendered":"https:\/\/undetectable.ai/blog\/?p=15309"},"modified":"2025-12-12T09:44:25","modified_gmt":"2025-12-12T09:44:25","slug":"cose-la-tecnologia-deepfake","status":"publish","type":"post","link":"https:\/\/undetectable.ai/blog\/it\/cose-la-tecnologia-deepfake\/","title":{"rendered":"Cos'\u00e8 la tecnologia Deepfake? Pericoli e rilevamento"},"content":{"rendered":"<p><strong>98 secondi.&nbsp;<\/strong><\/p>\n\n\n\n<p>Questo \u00e8 tutto ci\u00f2 che serve nel 2025 per clonare la voce di qualcuno, creare un video deepfake convincente e prosciugare un conto bancario aziendale.&nbsp;<\/p>\n\n\n\n<p>La tecnologia Deepfake un tempo era uno studio di livello hollywoodiano e mesi di lavoro ora sono pi\u00f9 veloci della nostra pausa caff\u00e8 mattutina.<\/p>\n\n\n\n<p>Nel 2025, la tecnologia deepfake ha raggiunto un traguardo terrificante.<\/p>\n\n\n\n<p>Oltre <a href=\"https:\/\/deepstrike.io\/blog\/deepfake-statistics-2025\" target=\"_blank\" rel=\"noreferrer noopener\">8 milioni di file multimediali sintetici<\/a> sono ora in circolazione online, rispetto ai 500.000 di due anni fa.&nbsp;<\/p>\n\n\n\n<p>E non iniziamo nemmeno con il pedaggio finanziario.<\/p>\n\n\n\n<p>Le aziende perdono in media <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noreferrer noopener\">$500.000 per incidente deepfake<\/a>con le frodi guidate dall'intelligenza artificiale che si prevede saranno <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noreferrer noopener\">coster\u00e0 alle imprese statunitensi $40 miliardi entro il 2027<\/a>.&nbsp;<\/p>\n\n\n\n<p>Ancora pi\u00f9 allarmante... i recensori umani sono in grado di rilevare solo video di tecnologia deepfake di alta qualit\u00e0 <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noreferrer noopener\">24,5% del tempo<\/a>.&nbsp;<\/p>\n\n\n\n<p>Ci\u00f2 significa che 3\/4 falsi passano inosservati.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--1024x576.jpg\" alt=\"\" class=\"wp-image-15316\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--1024x576.jpg 1024w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--300x169.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--768x432.jpg 768w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--1536x864.jpg 1536w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby--18x10.jpg 18w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/Elon-Musk-baby-.jpg 1600w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><\/div>\n\n\n<p>Benvenuti nel 2025. Oggi la tecnologia deepfake \u00e8 diventata l'arma pi\u00f9 sofisticata della criminalit\u00e0 informatica.&nbsp;<\/p>\n\n\n\n<p>In questo blog spiegheremo come funziona la tecnologia deepfake, i nuovi formati che emergeranno nel 2025 e perch\u00e9 i metodi di rilevamento tradizionali non sono pi\u00f9 sufficienti.&nbsp;<\/p>\n\n\n\n<p>Vedrete anche come i sistemi di difesa basati sull'intelligenza artificiale stanno aiutando le organizzazioni a reagire e molto altro ancora.<\/p>\n\n\n\n<p>Cominciamo.&nbsp;<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p class=\"has-text-align-center\"><strong>Punti di forza<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>I deepfakes sono nati come innocuo intrattenimento su Reddit, ma si sono evoluti in strumenti per truffe su larga scala, manipolazioni politiche e frodi aziendali.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Gli attuali formati della tecnologia deepfake includono lo scambio di volti, la clonazione della voce, la sincronizzazione delle labbra e la rievocazione di tutto il corpo.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>I formati emergenti includono la falsificazione di documenti generati dall'intelligenza artificiale e lo spoofing biometrico per aggirare i sistemi di verifica dell'identit\u00e0 e della voce.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>La tecnologia Deepfake pu\u00f2 essere utilizzata per frodi finanziarie, impersonificazione di dirigenti, disinformazione politica ed estorsione personale.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>I metodi tradizionali di rilevamento dei deepfake, come l'individuazione manuale o gli strumenti forensi, non sono pi\u00f9 efficaci contro i moderni deepfake in tempo reale.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Solo i sistemi adattivi e basati sull'intelligenza artificiale come TruthScan sono in grado di rilevare i deepfake zero-day, offrendo una protezione in tempo reale su video, audio e testo.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Che cos'\u00e8 la tecnologia Deepfake?<\/h2>\n\n\n\n<p>La tecnologia Deepfake significa creare qualcosa che non \u00e8 reale, ma che sembra e suona completamente reale. <\/p>\n\n\n\n<p>Si tratta di immagini, video o clip audio generati dall'intelligenza artificiale che mostrano persone o eventi mai accaduti.<\/p>\n\n\n\n<p>Questo significa che sono come l'editing tradizionale?<br>Non proprio.&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Editing tradizionale<\/strong> \u00e8 ci\u00f2 che gli editor video fanno da decenni. Comprende il taglio, la giunzione, la correzione del colore e l'aggiunta manuale di effetti visivi. Utilizza strumenti software come Photoshop o Premiere Pro.&nbsp;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Falsi profondi <\/strong>automatizzare questo processo. Utilizzano modelli di intelligenza artificiale in grado di studiare migliaia di immagini del volto di una persona e di generare nuovi movimenti o espressioni realistici che non sono mai stati registrati.<\/li>\n<\/ul>\n\n\n\n<p><strong>Ad esempio:<\/strong><\/p>\n\n\n\n<p>In un deepfake, l'IA pu\u00f2 scambiare il volto di un attore con quello di un altro, far coincidere ogni battito di ciglia ed espressione e persino fargli dire parole che non ha mai pronunciato.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"624\" height=\"463\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/deepfake-technology-ai-swap-.jpg\" alt=\"\" class=\"wp-image-15318\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/deepfake-technology-ai-swap-.jpg 624w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/deepfake-technology-ai-swap--300x223.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/deepfake-technology-ai-swap--16x12.jpg 16w\" sizes=\"auto, (max-width: 624px) 100vw, 624px\" \/><\/figure><\/div>\n\n\n<p>Ora, prima di capire come funziona questa tecnologia deepfake, vediamo dove tutto \u00e8 iniziato.<\/p>\n\n\n\n<p>La parola<strong> \"deepfake\" <\/strong>deriva dalla combinazione di <strong><em>\"apprendimento profondo\" <\/em><\/strong>e<strong><em> \"falso\".<\/em><\/strong><\/p>\n\n\n\n<p>\u00c8 apparso per la prima volta nel 2017, quando un <a href=\"https:\/\/www.britannica.com\/technology\/deepfake\" target=\"_blank\" rel=\"noreferrer noopener\">Un utente di Reddit ha creato una comunit\u00e0<\/a> per condividere video generati dall'intelligenza artificiale.<\/p>\n\n\n\n<p>Poco dopo, strumenti open-source come DeepFaceLab, FakeApp e ZAO hanno permesso a chiunque di creare deepfakes realistici in pochi minuti.<\/p>\n\n\n\n<p>Oggi, DeepFaceLab da solo gestisce oltre 95% di tutti i video deepfake online. E non sono pi\u00f9 necessari computer di fascia alta o competenze di codifica.<\/p>\n\n\n\n<p>Con un breve clip vocale e pochi dollari, chiunque pu\u00f2 impersonare un'altra persona online.<\/p>\n\n\n\n<p>Veniamo ora alla domanda: \"Come funziona la tecnologia DeepFake?\".<\/p>\n\n\n\n<p>La tecnologia Deepfake si basa su due modelli chiave di intelligenza artificiale: Le reti avversarie generative (GAN) e gli autoencoder variazionali (VAE).<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>GAN <\/strong>funzionano come un faccia a faccia digitale. Un'intelligenza artificiale (il generatore) cerca di creare contenuti falsi, mentre un'altra (il discriminatore) cerca di individuarli. A ogni round, entrambe migliorano, finch\u00e9 il falso diventa quasi impossibile da individuare.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>VAE, <\/strong>invece, sono pi\u00f9 che altro attenti studenti della realt\u00e0. Imparano i modelli, l'illuminazione e i dettagli del viso delle persone reali comprimendo e ricostruendo le immagini pi\u00f9 volte. Pi\u00f9 si esercitano, pi\u00f9 i loro volti ricreati appaiono naturali.&nbsp;<\/li>\n<\/ul>\n\n\n\n<p>Le VAE fungono da base. Insegnano al sistema come i volti reali appaiono, si muovono e reagiscono alla luce.<\/p>\n\n\n\n<p>Una volta costruita questa comprensione, le GAN perfezionano l'output. Affilano i dettagli, smussano i movimenti e perfezionano le espressioni, finch\u00e9 ogni fotogramma appare convincente e reale.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Formati comuni: Video, audio, immagini e testo<\/h3>\n\n\n\n<p>La tecnologia Deepfake non \u00e8 limitata ai video. Pu\u00f2 esistere in quasi tutti i formati che utilizziamo online.&nbsp;<\/p>\n\n\n\n<p>L'intelligenza artificiale pu\u00f2 manipolare suoni, immagini e persino parole scritte per creare versioni sintetiche della realt\u00e0.<\/p>\n\n\n\n<p>Vediamo come viene utilizzato ciascun formato.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td class=\"has-text-align-center\" data-align=\"center\"><strong>Formato<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Descrizione<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Esempio<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Fonti<\/strong><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Video<\/td><td class=\"has-text-align-center\" data-align=\"center\">Video generati dall'intelligenza artificiale che mescolano immagini e audio falsi attraverso il face-swapping o il trasferimento di performance.<\/td><td class=\"has-text-align-center\" data-align=\"center\">Nel 2024, i truffatori si sono spacciati per un dirigente di Arup in una videochiamata dal vivo, utilizzando dei deepfake per rubare $25,6M.<\/td><td class=\"has-text-align-center\" data-align=\"center\"><a href=\"https:\/\/pmc.ncbi.nlm.nih.gov\/articles\/PMC11943306\/\" target=\"_blank\" rel=\"noreferrer noopener\">Fonte<\/a><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Audio (Clonazione vocale)<\/td><td class=\"has-text-align-center\" data-align=\"center\">L'intelligenza artificiale clona la voce di una persona utilizzando brevi campioni per farle dire cose che non ha mai detto.<\/td><td class=\"has-text-align-center\" data-align=\"center\">Nel 2024, una voce clonata del CEO di LastPass \u00e8 stata utilizzata su WhatsApp per truffare un dipendente, nell'ambito di un'ondata di attacchi voice deepfake.<\/td><td class=\"has-text-align-center\" data-align=\"center\"><a href=\"https:\/\/www.eftsure.com\/blog\/cyber-crime\/these-7-deepfake-ceo-scams-prove-that-no-business-is-safe\/\" target=\"_blank\" rel=\"noreferrer noopener\">Fonte<\/a><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Immagini<\/td><td class=\"has-text-align-center\" data-align=\"center\">Immagini false a fotogramma singolo utilizzate per diffondere disinformazione o manipolare i mercati.<\/td><td class=\"has-text-align-center\" data-align=\"center\">Nel 2023, una falsa foto dell'esplosione del Pentagono \u00e8 diventata virale, causando per breve tempo un calo dell'S&amp;P 500.<\/td><td class=\"has-text-align-center\" data-align=\"center\"><a href=\"https:\/\/www.ibm.com\/new\/announcements\/deepfake-detection\" target=\"_blank\" rel=\"noreferrer noopener\">Sou<\/a><a href=\"https:\/\/www.ibm.com\/new\/announcements\/deepfake-detection\" target=\"_blank\" rel=\"noopener\">rce<\/a><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Testo<\/td><td class=\"has-text-align-center\" data-align=\"center\">Notizie false, propaganda o rapporti scritti dall'intelligenza artificiale con lo scopo di ingannare o manipolare.<\/td><td class=\"has-text-align-center\" data-align=\"center\">Si sono diffusi online falsi post politici e analisi finanziarie inventate create con strumenti di intelligenza artificiale.<\/td><td class=\"has-text-align-center\" data-align=\"center\"><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>La clonazione vocale \u00e8 la pi\u00f9 pericolosa tra tutti i formati, perch\u00e9 \u00e8 accessibile e facile da creare.&nbsp;<\/p>\n\n\n\n<p>Anche la tecnologia dei video deepfake \u00e8 minacciosa, ma richiede comunque computer potenti e lunghi tempi di elaborazione.&nbsp;<\/p>\n\n\n\n<p>Una voce falsa pu\u00f2 essere creata in pochi minuti, a volte utilizzando solo un clip audio di 60 secondi.&nbsp;<\/p>\n\n\n\n<p>Queste voci clonate vengono gi\u00e0 utilizzate nelle truffe telefoniche, nelle chiamate a falsi dirigenti e nelle frodi ai call center.&nbsp;<\/p>\n\n\n\n<p>Ma non si ferma qui. La tecnologia Deepfake si sta evolvendo rapidamente e due nuovi formati stanno gi\u00e0 causando problemi.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Falsificazione di documenti digitali<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L'intelligenza artificiale \u00e8 ora in grado di creare o alterare documenti ufficiali come passaporti, carte d'identit\u00e0 e persino rendiconti finanziari.<\/p>\n\n\n\n<p>Solo nel 2024, i casi di <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noreferrer noopener\">la falsificazione di documenti digitali \u00e8 aumentata di 244%<\/a>che costituiscono pi\u00f9 della met\u00e0 di tutte le frodi documentali a livello mondiale.<\/p>\n\n\n\n<p>Molti di questi attacchi hanno come obiettivo i sistemi di identificazione nazionale, come il codice fiscale indiano e la carta d'identit\u00e0 nazionale pakistana.<\/p>\n\n\n\n<p>Per contrastare questi rischi, soluzioni come TruthScan <a href=\"https:\/\/truthscan.com\/ai-image-detector\" data-type=\"link\" data-id=\"https:\/\/truthscan.com\/ai-image-detector\" target=\"_blank\" rel=\"noreferrer noopener\">Rilevatore di immagini AI<\/a> aiutano a verificare se l'immagine di un documento o di un documento d'identit\u00e0 \u00e8 stata manipolata digitalmente.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"666\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-1024x666.jpg\" alt=\"Schermata del rilevatore di immagini AI di TruthScan\" class=\"wp-image-15738\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-1024x666.jpg 1024w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-300x195.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-768x500.jpg 768w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-1536x999.jpg 1536w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan-18x12.jpg 18w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/10\/AI-image-Detector-TruthScan.jpg 1574w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><\/div>\n\n\n<p>Rileva le immagini generate dall'intelligenza artificiale o manomesse in tempo reale, segnalando foto clonate, testi alterati o elementi composti prima che passino attraverso i sistemi di verifica.<\/p>\n\n\n\n<p>In questo modo \u00e8 pi\u00f9 facile per le organizzazioni confermare l'autenticit\u00e0 e fermare i falsi deepfake prima che si diffondano.<\/p>\n\n\n\n<ol start=\"2\" class=\"wp-block-list\">\n<li><strong>Spoofing biometrico (KYC Bypass)<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Poi c'\u00e8 lo spoofing biometrico. Si tratta di falsi profondi realizzati per ingannare i sistemi di verifica facciale o vocale.<\/p>\n\n\n\n<p>Si pensi ai controlli di identit\u00e0 utilizzati durante le iscrizioni in banca o l'onboarding aziendale.<\/p>\n\n\n\n<p>Gli aggressori ora utilizzano volti o voci sintetiche per aggirare questi sistemi, e questi <a href=\"https:\/\/www.eftsure.com\/statistics\/deepfake-statistics\/\" target=\"_blank\" rel=\"noreferrer noopener\">attacchi saltati 704% nel 2023<\/a>. Ecco perch\u00e9 il semplice <strong>\"controlli di vivacit\u00e0\"<\/strong> non \u00e8 pi\u00f9 sufficiente.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">L'ascesa della tecnologia Deepfake<\/h2>\n\n\n\n<p>Esaminiamo i dati.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td class=\"has-text-align-center\" data-align=\"center\"><strong>Metrico<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>2023<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Proiezione 2025-27<\/strong><\/td><td class=\"has-text-align-center\" data-align=\"center\"><strong>Approfondimento chiave<\/strong><\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">File Deepfake in circolazione<\/td><td class=\"has-text-align-center\" data-align=\"center\">500,000<\/td><td class=\"has-text-align-center\" data-align=\"center\">8 milioni di euro<\/td><td class=\"has-text-align-center\" data-align=\"center\">Crescita esplosiva 900%<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Tentativi di frode legati a Deepfake<\/td><td class=\"has-text-align-center\" data-align=\"center\">Linea di base<\/td><td class=\"has-text-align-center\" data-align=\"center\">+3,000% YoY (2023)<\/td><td class=\"has-text-align-center\" data-align=\"center\">Sfruttamento organizzato e su larga scala<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Perdita media per incidente<\/td><td class=\"has-text-align-center\" data-align=\"center\">-<\/td><td class=\"has-text-align-center\" data-align=\"center\">~$500,000<\/td><td class=\"has-text-align-center\" data-align=\"center\">Grave rischio finanziario<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Perdite per frodi guidate dall'intelligenza artificiale (Stati Uniti)<\/td><td class=\"has-text-align-center\" data-align=\"center\">$12.3B<\/td><td class=\"has-text-align-center\" data-align=\"center\">$40B (entro il 2027)<\/td><td class=\"has-text-align-center\" data-align=\"center\">32% aumento annuale<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">Accuratezza del rilevamento umano<\/td><td class=\"has-text-align-center\" data-align=\"center\">-<\/td><td class=\"has-text-align-center\" data-align=\"center\">24.5%<\/td><td class=\"has-text-align-center\" data-align=\"center\">La revisione manuale non \u00e8 pi\u00f9 affidabile<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>Per combattere i deepfake, abbiamo bisogno di una tecnologia che impari alla stessa velocit\u00e0 dei falsi. E uno degli strumenti pi\u00f9 affidabili per il rilevamento dei deepfake \u00e8 oggi <a href=\"https:\/\/truthscan.ai\" target=\"_blank\" rel=\"noreferrer noopener\">TruthScan<\/a>.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"747\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-1024x747.jpg\" alt=\"Schermata della dashboard di TruthScan che mostra gli strumenti di rilevamento AI e deepfake\" class=\"wp-image-13005\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-1024x747.jpg 1024w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-300x219.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-768x560.jpg 768w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan.jpg 1404w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/08\/truthscan-16x12.jpg 16w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><\/div>\n\n\n<p>Se non la conoscete, si tratta di una piattaforma di rilevamento di deepfake in tempo reale costruita su scala.<\/p>\n\n\n\n<p>Utilizza <strong>Reti avversarie generative (GAN)<\/strong> e <strong>Modelli di visione-linguaggio (VLM) <\/strong>per individuare le pi\u00f9 piccole incongruenze tra video, audio e testo.<\/p>\n\n\n\n<p>Diversi test hanno dimostrato che <a href=\"https:\/\/truthscan.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">TruthScan raggiunge una precisione fino a 98%<\/a>, rispetto a circa 70% con i vecchi strumenti forensi.&nbsp;<\/p>\n\n\n\n<p>Esegue controlli continui su tutti i canali digitali. Ci\u00f2 significa che le organizzazioni possono rilevare i deepfake prima che causino danni, non dopo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Da intrattenimento e meme a minacce serie<\/h3>\n\n\n\n<p>La tecnologia Deepfake \u00e8 nata come intrattenimento.<\/p>\n\n\n\n<p>Come abbiamo detto sopra, gli utenti di Reddit hanno scambiato i volti per ridere, creando meme e migliorando le scene dei film.&nbsp;<\/p>\n\n\n\n<p>Hollywood lo utilizzava persino per il de-aging digitale e le magie della post-produzione. Ma quella fase di spensieratezza non \u00e8 durata a lungo.&nbsp;<\/p>\n\n\n\n<p>Nel 2017 \u00e8 apparso il primo grande abuso. Si trattava di un <a href=\"https:\/\/www.britannica.com\/technology\/deepfake\" target=\"_blank\" rel=\"noreferrer noopener\">pornografia deepfake non consensuale<\/a>.&nbsp;<\/p>\n\n\n\n<p>Dal 2018 al 2022, la tecnologia Deepfake \u00e8 passata da un divertimento innocuo a un serio strumento di manipolazione e criminalit\u00e0.&nbsp;<\/p>\n\n\n\n<p>I primi esempi includono il <a href=\"https:\/\/timreview.ca\/article\/1282\" target=\"_blank\" rel=\"noreferrer noopener\">video deepfake del presidente del Gabon<\/a> nel 2018, che ha scatenato disordini politici. <\/p>\n\n\n\n<p>Nel 2023, con strumenti potenti come Midjourney 5.1 e DALL-E 2, la creazione di deepfake \u00e8 diventata facile e pericolosa.<\/p>\n\n\n\n<p>Poi \u00e8 arrivato il momento in cui non sono pi\u00f9 solo i personaggi pubblici a essere presi di mira. La gente comune si trova ora ad affrontare i deepfakes usati per molestie, ricatti e vendette.&nbsp;<\/p>\n\n\n\n<p>I video falsi sono emersi anche in cause di divorzio, domande di lavoro e controversie interne alle aziende.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Casi di abuso politico e aziendale<\/h3>\n\n\n\n<p>La tecnologia Deepfake \u00e8 entrata ufficialmente nel mondo degli affari e della politica.&nbsp;<\/p>\n\n\n\n<p><strong>Esempi di abuso aziendale:<\/strong><\/p>\n\n\n\n<p>Nel 2024, i truffatori hanno ingannato i dipendenti di <a href=\"https:\/\/hyperverge.co\/blog\/examples-of-deepfakes\/\" target=\"_blank\" rel=\"noreferrer noopener\">Arup<\/a> utilizzando la clonazione di video e voci deepfake.<\/p>\n\n\n\n<p>Hanno finto di essere alti dirigenti in una videochiamata dal vivo e hanno convinto il personale a trasferire $25,6 milioni. La truffa ha funzionato perch\u00e9 le persone si sono fidate del volto e della voce familiare sullo schermo.<\/p>\n\n\n\n<p>Nello stesso anno, gli hacker hanno preso di mira <a href=\"https:\/\/www.eftsure.com\/blog\/cyber-crime\/these-7-deepfake-ceo-scams-prove-that-no-business-is-safe\/\" target=\"_blank\" rel=\"noreferrer noopener\">LastPass<\/a> clonando la voce dell'amministratore delegato su WhatsApp.<\/p>\n\n\n\n<p>L'hanno usata per fare pressione su un dipendente affinch\u00e9 intraprendesse un'azione urgente dopo l'orario di lavoro.<\/p>\n\n\n\n<p>Questo tipo di truffe sta diventando comune perch\u00e9 i criminali possono facilmente trovare registrazioni pubbliche, come interviste o discorsi, per copiare la voce o il volto di qualcuno.<\/p>\n\n\n\n<p>Ci\u00f2 significa che ogni dirigente che appare online potrebbe diventare un bersaglio.<\/p>\n\n\n\n<p><strong>Esempi di abuso politico:<\/strong><\/p>\n\n\n\n<p>Il <a href=\"https:\/\/www.mdpi.com\/2813-5288\/2\/4\/20\" target=\"_blank\" rel=\"noreferrer noopener\">Forum economico mondiale<\/a> ha definito la disinformazione guidata dall'IA uno dei principali rischi globali del 2024, con i deepfakes al centro.<\/p>\n\n\n\n<p>Nell'agosto del 2024, i ricercatori hanno scoperto il <a href=\"https:\/\/cetas.turing.ac.uk\/publications\/ai-enabled-influence-operations-safeguarding-future-elections\" target=\"_blank\" rel=\"noreferrer noopener\">Rete Spamouflage<\/a>un'operazione sui social media che si ritiene sia legata alla Cina e che ha utilizzato dei deepfake per screditare il presidente delle Filippine.<\/p>\n\n\n\n<p>Tattiche simili sono state viste in guerra, come video falsi di <a href=\"https:\/\/arya.ai\/blog\/top-deepfake-incidents\" target=\"_blank\" rel=\"noopener\">Il presidente ucraino Volodymyr Zelenskyy<\/a> che sembra arrendersi.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Rischi e pericoli dei deepfake<\/h2>\n\n\n\n<p>Vediamo come la tecnologia deepfake sta cambiando l'idea stessa di ci\u00f2 di cui possiamo fidarci.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Rischi per la governance e la fiducia<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Se tutto pu\u00f2 essere falsificato, di cosa possiamo fidarci? La tecnologia Deepfake ha fatto vacillare la nostra fiducia nelle informazioni digitali.<\/p>\n\n\n\n<p>Che si tratti di un discorso di un politico, di una notizia dell'ultima ora o di un video virale, la maggior parte delle persone si chiede, <em>\"\u00c8 reale o generato dall'intelligenza artificiale?\".&nbsp;<\/em><\/p>\n\n\n\n<p>Questo crescente dubbio rende pi\u00f9 difficile per i governi, i giornalisti e le istituzioni mantenere la credibilit\u00e0. <\/p>\n\n\n\n<p>Come abbiamo visto in precedenza, i deepfake sono gi\u00e0 stati utilizzati per diffondere disinformazione politica e persino per imitare funzionari pubblici.<\/p>\n\n\n\n<ol start=\"2\" class=\"wp-block-list\">\n<li><strong>Catastrofi finanziarie e aziendali<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Nel mondo finanziario, la tecnologia deepfake sta rapidamente diventando un problema da miliardi di dollari.<\/p>\n\n\n\n<p>I truffatori utilizzano voci clonate, video falsi e identit\u00e0 sintetiche per ingannare dipendenti, investitori e intere aziende.&nbsp;<\/p>\n\n\n\n<p>Abbiamo visto come le imitazioni di dirigenti e gli incidenti di manipolazione del mercato possano scuotere le grandi aziende: basta una videochiamata convincente o una voce familiare che dice la cosa sbagliata.<\/p>\n\n\n\n<ol start=\"3\" class=\"wp-block-list\">\n<li><strong>Vulnerabilit\u00e0 tecniche e sociali<\/strong><\/li>\n<\/ol>\n\n\n\n<p>La tecnologia Deepfake sta infrangendo i sistemi che un tempo ritenevamo infallibili.<\/p>\n\n\n\n<p>Il riconoscimento facciale e la verifica vocale, un tempo affidabili per la sicurezza, possono ora essere aggirati con volti e voci generati dall'intelligenza artificiale.<\/p>\n\n\n\n<p>Questo significa che anche <strong>\"prove\" <\/strong>come una foto o un video non pu\u00f2 essere automaticamente attendibile.&nbsp;<\/p>\n\n\n\n<p>Inoltre, il comportamento umano aumenta il rischio. Le persone anziane e i grandi utilizzatori di social media sono pi\u00f9 propensi a credere e condividere i deepfakes, favorendone la diffusione ancora pi\u00f9 rapida.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Come TruthScan protegge le organizzazioni<\/h3>\n\n\n\n<p>TruthScan \u00e8 uno strumento di rilevamento dei deepfake che aggiunge un livello di verifica alla realt\u00e0 stessa.&nbsp;<\/p>\n\n\n\n<p>Che cosa c'\u00e8 di diverso rispetto ai sistemi tradizionali?&nbsp;<\/p>\n\n\n\n<p>I sistemi di rilevamento deepfake tradizionali analizzano solo le immagini o l'audio, ma TruthScan utilizza una verifica multimodale.&nbsp;<\/p>\n\n\n\n<p>Che cos'\u00e8 la verifica multimodale?&nbsp;<\/p>\n\n\n\n<p>Significa che effettua controlli incrociati su video, audio, testo e metadati in tempo reale per individuare le incongruenze che gli occhi umani e i sistemi tradizionali non notano.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Esso <strong>convalida l'autenticit\u00e0 della fonte<\/strong> prima che i contenuti vengano pubblicati o condivisi. Questo assicura che marchi, dirigenti e istituzioni non amplifichino inconsapevolmente i media manipolati.<br><\/li>\n\n\n\n<li>Esso <strong>rafforza la verifica dell'identit\u00e0<\/strong> contro i tentativi di clonazione vocale e di scambio di volti, rilevando impronte digitali sintetiche invisibili a occhio nudo.<br><\/li>\n\n\n\n<li>Esso <strong>protegge la fiducia organizzativa <\/strong>preservando la provenienza dei contenuti, in modo che ogni video o documento verificato abbia una catena ininterrotta di autenticit\u00e0.<\/li>\n<\/ul>\n\n\n\n<p>In un mondo in cui la verit\u00e0 stessa \u00e8 sotto attacco, lo strumento di rilevamento deepfake TruthScan individua il falso e ripristina la fiducia in ci\u00f2 che \u00e8 reale.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Come individuare i deepfake: I migliori metodi per individuare i media falsi<\/h2>\n\n\n\n<p>Il rilevamento della tecnologia deepfake richiede una difesa a tre livelli, come la revisione umana, l'analisi forense e il rilevamento adattativo dell'intelligenza artificiale.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Modi manuali per rilevare i deepfakes<\/li>\n<\/ul>\n\n\n\n<p>Un revisore esperto \u00e8 in grado di <a href=\"https:\/\/deepstrike.io\/blog\/deepfake-statistics-2025\" target=\"_blank\" rel=\"noreferrer noopener\">identificare i deepfake di alta qualit\u00e0 solo 24.5%<\/a> del tempo.<\/p>\n\n\n\n<p>I tradizionali segni rivelatori, come l'illuminazione non corrispondente, le ombre innaturali o i movimenti labiali non sincronizzati, sono diventati inaffidabili.&nbsp;<\/p>\n\n\n\n<p>Le moderne GAN attenuano questi difetti e, una volta che il video viene compresso (come sui social media), questi piccoli indizi scompaiono completamente.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Approcci tecnici e analitici<\/li>\n<\/ul>\n\n\n\n<p>Questo metodo \u00e8 pi\u00f9 affidabile della revisione manuale, ma ha un costo computazionale elevato.&nbsp;<\/p>\n\n\n\n<p>Cerchiamo di capire come funzionano questi approcci:<\/p>\n\n\n\n<p>Inizia con <strong>tecniche di analisi forense<\/strong> che \u00e8 alla base del rilevamento tecnico dei deepfake. <\/p>\n\n\n\n<p>Questi strumenti decompongono i media in dettagli microscopici per vedere incongruenze invisibili agli esseri umani.&nbsp;<\/p>\n\n\n\n<p><strong>Per esempio:<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>L'analisi fotogramma per fotogramma seziona i video in singole immagini, aiutando a identificare modelli innaturali come l'illuminazione irregolare o i movimenti del viso non corrispondenti.&nbsp;<\/li>\n<\/ul>\n\n\n\n<p>Poi arriva <strong>Analisi del livello di errore (ELA)<\/strong>che inverte il processo di editing evidenziando le differenze di compressione dei pixel. \u00c8 un segno rivelatore di manipolazione.&nbsp;<\/p>\n\n\n\n<p>Man mano che si approfondisce, <strong>coerenza spazio-temporale<\/strong> analizzano il modo in cui voce, gesti ed espressioni facciali si allineano nel tempo. Anche un piccolo ritardo tra il movimento delle labbra e l'audio pu\u00f2 tradire un'origine sintetica.<\/p>\n\n\n\n<p>Ma se questi metodi sono potenti, sono anche avidi di risorse.<\/p>\n\n\n\n<p>L'elaborazione di migliaia di video fotogramma per fotogramma non \u00e8 pratica su scala, soprattutto quando ogni giorno vengono caricati milioni di nuovi file multimediali.&nbsp;<\/p>\n\n\n\n<p>La tecnologia deepfake si evolve a causa del modo in cui viene realizzata. Ogni volta che un rilevatore di deepfake migliora, il generatore di fake <strong><em>(l'\"avversario\")<\/em><\/strong> impara da esso e produce risultati ancora pi\u00f9 convincenti.&nbsp;<\/p>\n\n\n\n<p>Questo continuo tira e molla \u00e8 noto come \"adversarial loop\". Ci\u00f2 significa che i sistemi statici di rilevamento dei deepfake diventano obsoleti nel giro di pochi mesi.&nbsp;<\/p>\n\n\n\n<p>L'unica difesa sostenibile \u00e8 l'intelligenza artificiale che impara in tempo reale, utilizzando le reti neurali per aggiornarsi costantemente quando emergono nuove tecniche di deepfake.&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Utilizzo degli strumenti di rilevamento dell'intelligenza artificiale di TruthScan<\/li>\n<\/ul>\n\n\n\n<p>Tutti i metodi che abbiamo visto sopra non sono ancora cos\u00ec avanzati da rilevare con precisione la tecnologia deepfake. La velocit\u00e0, la portata e la sofisticazione di questi attacchi richiedono sistemi di intelligenza artificiale specializzati e adattivi, costruiti appositamente per questo campo di battaglia in continua evoluzione.&nbsp;<\/p>\n\n\n\n<p>\u00c8 qui che <a href=\"https:\/\/truthscan.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">TruthScan<\/a> arriva. TruthScan \u00e8 stato progettato specificamente per la difesa nel mondo reale.&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Il suo <strong>Sistema di apprendimento basato sull'intelligenza artificiale<\/strong> non smette mai di formarsi, studia ogni giorno nuovi tipi di tecnologia deepfake e si aggiorna automaticamente. Questo significa che \u00e8 in grado di individuare anche i pi\u00f9 avanzati<strong> \"zero-day\"<\/strong> deepfakes, quelli che nessuno ha mai visto prima, senza bisogno di umani che lo riqualifichino.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Inoltre <strong>lavora in tempo reale su tutti i principali canali di comunicazione <\/strong>dalle videochiamate e dai call center alle piattaforme multimediali digitali. TruthScan non analizza solo una cosa. Controlla video, audio e testo insieme, assicurandosi che tutto sia in linea.&nbsp;<\/li>\n<\/ul>\n\n\n\n<p>Ecco come protegge i diversi tipi di organizzazioni:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Istituzioni finanziarie:<\/strong> TruthScan individua le voci false nelle chiamate all'assistenza clienti, blocca le identit\u00e0 tecnologiche false durante i controlli KYC (in rapido aumento) e impedisce ai falsi dirigenti di approvare bonifici fraudolenti.<br><\/li>\n\n\n\n<li><strong>Imprese:<\/strong> Mantiene la comunicazione interna reale. Segnala i media manomessi che potrebbero essere usati per ricattare, disinformare o danneggiare il marchio. Pu\u00f2 anche analizzare i vecchi record di comunicazione per rilevare modelli di contenuti sintetici, creando una sicurezza a lungo termine.<br><\/li>\n\n\n\n<li><strong>Governo e settore pubblico:<\/strong> TruthScan verifica i media utilizzati nelle indagini e negli annunci pubblici, proteggendo da video politici falsi o dichiarazioni manipolate che potrebbero compromettere la fiducia del pubblico o la sicurezza nazionale.<\/li>\n<\/ul>\n\n\n\n<p>TruthScan \u00e8 uno strumento di rilevamento delle falsificazioni profonde che offre alle organizzazioni la velocit\u00e0, la precisione e l'adattabilit\u00e0 necessarie per essere all'avanguardia.<\/p>\n\n\n\n<p>I lettori preoccupati per i crescenti pericoli dei media sintetici hanno bisogno di una soluzione affidabile e pratica per la verifica dei contenuti.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"424\" src=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-1024x424.jpg\" alt=\"\" class=\"wp-image-17776\" title=\"\" srcset=\"https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-1024x424.jpg 1024w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-300x124.jpg 300w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-768x318.jpg 768w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector-18x7.jpg 18w, https:\/\/undetectable.ai/blog\/wp-content\/uploads\/2025\/04\/AI-Video-Detector.jpg 1384w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><\/div>\n\n\n<p>Le nostre IA non rilevabili <a href=\"https:\/\/undetectable.ai\/ai-video-detector\" target=\"_blank\" rel=\"noreferrer noopener\">Rilevatore video AI<\/a> fornisce una soluzione pratica per i lettori preoccupati dai pericoli dei deepfake, offrendo una verifica rapida dei video trovati online.<\/p>\n\n\n\n<p>Provate entrambi i nostri AI Detector e Humanizer direttamente nel widget qui sotto!<\/p>\n\n\n\n<div id=\"uai-widget\" data-affiliate-link=\"https:\/\/undetectable.ai\/?_by=hi4km\"><script>var js = document.createElement(\"script\");js.async = true;js.src = \"https:\/\/widget.undetectable.ai\/js\/widget-loader.js?t=\"+Date.now();document.getElementsByTagName(\"head\")[0].appendChild(js);<\/script><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusione<\/h2>\n\n\n\n<p>La tecnologia Deepfake \u00e8 nata come un esperimento intelligente. Era un modo per mettere il volto di Nicolas Cage su tutto.&nbsp;<\/p>\n\n\n\n<p>Ma ora sta distruggendo le riunioni dei consigli di amministrazione, le campagne elettorali e i conti bancari. E lo scherzo \u00e8 finito.<\/p>\n\n\n\n<p>Quello che una volta era <strong>\"divertimento innocuo\"<\/strong> su Reddit si \u00e8 trasformato in una macchina da frode da miliardi di dollari.&nbsp;<\/p>\n\n\n\n<p>La parte pi\u00f9 spaventosa?<\/p>\n\n\n\n<p>La maggior parte delle persone non \u00e8 ancora in grado di distinguere ci\u00f2 che \u00e8 vero. Anche gli esperti individuano i falsi di alta qualit\u00e0 solo un quarto delle volte. Il confine tra vedere e credere \u00e8 ufficialmente sfumato.<\/p>\n\n\n\n<p>E gli strumenti di rilevamento dei deepfake, di cui un tempo ci fidavamo per individuare le manipolazioni, sono gi\u00e0 un passo indietro.&nbsp;<\/p>\n\n\n\n<p>I falsi continuano a imparare, adattarsi e migliorare.<\/p>\n\n\n\n<p>Ecco perch\u00e9 il futuro della difesa digitale dipende dall'IA che combatte l'IA.&nbsp;<\/p>\n\n\n\n<p>Strumento di rilevamento deepfake come <a href=\"https:\/\/truthscan.com\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>TruthScan<\/strong><\/a> ha sistemi adattivi che si evolvono in tempo reale e rilevano ci\u00f2 che l'uomo non pu\u00f2 fare.<\/p>\n\n\n\n<p>In un mondo in cui chiunque pu\u00f2 \"dire\" o \"sembrare\" di fare qualsiasi cosa, la verit\u00e0 non \u00e8 morta, ha solo bisogno di maggiore sicurezza.&nbsp;<\/p>\n\n\n\n<p>Perch\u00e9 il prossimo video virale potrebbe non essere solo una fake news... potrebbe essere un fake di te.<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":15,"featured_media":15315,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_themeisle_gutenberg_block_has_review":false,"footnotes":""},"categories":[31],"tags":[],"class_list":["post-15309","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-helpful-ai-content-tips"],"_links":{"self":[{"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/posts\/15309","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/users\/15"}],"replies":[{"embeddable":true,"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/comments?post=15309"}],"version-history":[{"count":8,"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/posts\/15309\/revisions"}],"predecessor-version":[{"id":17788,"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/posts\/15309\/revisions\/17788"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/media\/15315"}],"wp:attachment":[{"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/media?parent=15309"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/categories?post=15309"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/undetectable.ai/blog\/it\/wp-json\/wp\/v2\/tags?post=15309"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}