98 másodperc.
2025-ben ennyi kell ahhoz, hogy valaki hangját klónozzák, meggyőző deepfake videót készítsenek, és lemerítsenek egy vállalati bankszámlát.
A deepfake technológia korábban hollywoodi szintű stúdió volt, és a hónapokig tartó munka ma már gyorsabban zajlik, mint a reggeli kávészünetünk.
2025-ben a deepfake technológia ijesztő mérföldkőhöz érkezett.
Vége 8 millió szintetikus médiafájl keringenek az interneten, szemben a két évvel ezelőtti 500 000-rel.
És akkor még ne is kezdjük az anyagi áldozatokkal.
A vállalatok átlagosan $500,000 mély hamisításonként, a mesterséges intelligencia által vezérelt csalás várhatóan az amerikai vállalkozásoknak 2027-ig $40 milliárd forintjába fog kerülni.
Még riasztóbb... az emberi bírálók csak a jó minőségű deepfake technológiával készült videókat képesek felismerni. 24.5% az időből.
Ez azt jelenti, hogy 3/4 hamisítvány észrevétlenül átcsúszik.

Üdvözöljük 2025-ben. Napjainkra a deepfake technológia a kiberbűnözés legkifinomultabb fegyverévé vált.
Ebben a blogban bemutatjuk, hogyan működik a deepfake technológia, a 2025-ben megjelenő új formátumok, és miért nem elégségesek többé a hagyományos felismerési módszerek.
Azt is megtudhatja, hogy a mesterséges intelligenciával működő védelmi rendszerek hogyan segítik a szervezeteket a visszavágásban, és még sok minden mást.
Kezdjük el.
A legfontosabb tudnivalók
- A deepfakes ártalmatlan szórakozásként indult a Redditen, de mára nagyszabású csalások, politikai manipuláció és vállalati csalások eszközévé vált.
- A jelenlegi deepfake technológiai formátumok közé tartozik az arccsere, a hangklónozás, a szájszinkronizálás és a teljes test rekonstrukciója.
- Az új formátumok közé tartozik a mesterséges intelligencia által generált dokumentumhamisítás és a biometrikus hamisítás a személyazonossági és hanghitelesítési rendszerek megkerülésére.
- A Deepfake technológiát pénzügyi csalásra, vezetői személyazonosság megszemélyesítésére, politikai dezinformációra és személyes zsarolásra lehet használni.
- A hagyományos mélyhamisítás-felderítési módszerek, mint például a kézi észlelés vagy a törvényszéki eszközök már nem hatékonyak a modern, valós idejű mélyhamisításokkal szemben.
- Csak az olyan adaptív, AI-alapú rendszerek, mint a TruthScan, képesek felismerni a nulladik napi mély hamisítványokat, és valós idejű védelmet nyújtanak a videó, hang és szöveg tekintetében.
Mi a Deepfake technológia?
A deepfake technológia azt jelenti, hogy létrehozunk valamit, ami nem valódi, de teljesen valódinak tűnik és hangzik.
Ezek olyan mesterséges intelligencia által generált képek, videók vagy hangfelvételek, amelyek olyan embereket vagy eseményeket mutatnak, amelyek soha nem történtek meg.
Ez azt jelenti, hogy ugyanolyanok, mint a hagyományos szerkesztés?
Nem igazán.
Soha többé ne aggódj amiatt, hogy a mesterséges intelligencia felismeri a szövegeidet. Undetectable AI Segíthet:
- Tegye láthatóvá az AI-asszisztált írást ember-szerű.
- Bypass az összes főbb AI-érzékelő eszköz egyetlen kattintással.
- Használja a címet. AI biztonságosan és magabiztosan az iskolában és a munkahelyen.
- Hagyományos szerkesztés a videószerkesztők évtizedek óta ezt csinálják. Ez magában foglalja a vágást, az összevágást, a színkorrekciót és a vizuális effektek manuális hozzáadását. Olyan szoftvereszközöket használ, mint a Photoshop vagy a Premiere Pro.
- Deepfakes automatizálja ezt a folyamatot. Olyan mesterséges intelligenciamodelleket használnak, amelyek több ezer képet tudnak tanulmányozni egy személy arcáról, majd új, valósághű mozdulatokat vagy kifejezéseket generálnak, amelyeket soha nem rögzítettek.
Például:
Egy deepfake során a mesterséges intelligencia képes felcserélni egy színész arcát egy másikéval, minden pislogás és arckifejezés megegyezik, és még olyan szavakat is képes kimondatni velük, amelyeket soha nem mondtak ki.

Mielőtt belemennénk abba, hogyan működik ez a deepfake technológia, nézzük meg, honnan indult az egész.
A szó "deepfake" a következők kombinálásából származik "mélytanulás" és "hamis."
Először 2017-ben jelent meg, amikor egy Reddit felhasználó létrehozott egy közösséget mesterséges intelligencia által generált videók megosztására.
Nem sokkal később az olyan nyílt forráskódú eszközök, mint a DeepFaceLab, a FakeApp és a ZAO lehetővé tették, hogy szinte bárki percek alatt valósághű mélyhamisítványokat hozzon létre.
Napjainkban csak a DeepFaceLab az összes online deepfake videó több mint 95%-jét készíti. És ehhez már nem kell nagy teljesítményű számítógép vagy kódolási szakértelem.
Egy rövid hangklippel és néhány dollárral bárki megszemélyesíthet egy másik személyt az interneten.
Most térjünk rá a kérdésre, hogy "hogyan működik a DeepFake technológia?".
A Deepfake technológia két kulcsfontosságú mesterséges intelligencia-modellre támaszkodik: Generative Adversarial Networks (GAN) és Variational Autoencoders (VAE).
- GAN-ok úgy működnek, mint egy digitális arcjáték. Az egyik mesterséges intelligencia (a generátor) megpróbál hamis tartalmat létrehozni, míg egy másik (a megkülönböztető) megpróbálja elkapni azt. Minden fordulóban mindketten fejlődnek, míg végül a hamisítványt szinte lehetetlenné válik felismerni.
- VAE-k, másrészt inkább a valóság gondos tanulmányozói. A képek újra és újra történő tömörítésével és rekonstruálásával tanulják meg a valódi emberek mintáit, megvilágítását és arcának részleteit. Minél többet gyakorolnak, annál természetesebbnek tűnnek az újrateremtett arcok.
A VAE-k az alapot jelentik. Ezek megtanítják a rendszernek, hogyan néznek ki, mozognak és reagálnak a fényre a valódi arcok.
Ha ez a megértés megtörtént, a GAN-ok finomítják a kimenetet. Élesíti a részleteket, simítja a mozgást és tökéletesíti a kifejezéseket, amíg minden egyes képkocka meggyőzően valóságosnak nem tűnik.
Gyakori formátumok: Videó, hang, kép és szöveg
A Deepfake technológia nem korlátozódik a videókra. Szinte minden online használt formátumban létezhetnek.
A mesterséges intelligencia képes manipulálni a hangot, a képi megjelenítést, sőt még az írott szavakat is, hogy a valóság szintetikus változatát hozza létre.
Bontsuk le, hogyan használják az egyes formátumokat.
| Formátum | Leírás | Példa | Források |
| Videó | Mesterséges intelligencia által generált videók, amelyek hamis kép- és hanganyagot vegyítenek arccserével vagy teljesítményátvitellel. | 2024-ben a csalók élő videóhívásban az Arup egyik vezetőjének adták ki magukat, és deepfakes segítségével $25,6M-et loptak el. | Forrás |
| Hang (hangklónozás) | A mesterséges intelligencia rövid minták segítségével klónozza egy személy hangját, hogy olyan dolgokat mondjon, amelyeket soha nem mondott. | 2024-ben a LastPass vezérigazgatójának klónozott hangját használták a WhatsAppon egy alkalmazott átverésére, ami a 680% hangalapú deepfake támadások hullámának része volt. | Forrás |
| Képek | Félretájékoztatás terjesztésére vagy a piacok manipulálására használt egykockás hamis képek. | 2023-ban egy hamis Pentagon-robbanásról készült fotó terjedt el, ami rövid időre az S&P 500 árfolyamának csökkenését okozta. | Source |
| Szöveg | Az AI által írt álhírek, propaganda, vagy megtévesztésre vagy manipulációra szánt jelentések. | Hamis politikai posztok és mesterséges intelligencia eszközökkel készített hamis pénzügyi elemzések terjedtek el az interneten. |
A hangklónozás a legveszélyesebb az összes formátum közül, mert hozzáférhető és könnyen létrehozható.
A videó deepfake technológia is fenyegető, de még mindig nagy teljesítményű számítógépekre és hosszú feldolgozási időre van szükségük.
Egy hamis hangot néhány perc alatt lehet létrehozni, néha csupán egy 60 másodperces hangfelvételből.
Ezeket a klónozott hangokat már használják telefonos csalásokhoz, hamis vezetői hívásokhoz és call-center csalásokhoz.
De ez nem áll meg itt. A deepfake technológia gyorsan fejlődik, és két új formátum máris gondot okoz.
- Digitális dokumentum hamisítás
A mesterséges intelligencia ma már képes hivatalos dokumentumokat, például útleveleket, személyi igazolványokat vagy akár pénzügyi kimutatásokat is létrehozni vagy módosítani.
Csak 2024-ben a digitális dokumentumhamisítás 244%-rel felgyorsult, ami a világszerte elkövetett okmánycsalások több mint felét teszi ki.
Számos ilyen támadás a nemzeti személyazonosító rendszereket, például az indiai adóazonosítót és a pakisztáni nemzeti személyi igazolványt célozza.
- Biometrikus hamisítás (KYC megkerülése)
Aztán ott van a biometrikus hamisítás. Az arc- vagy hanghitelesítési rendszerek becsapására készített hamisítványok.
Gondoljon a banki regisztráció vagy a vállalati beszállás során alkalmazott személyazonossági ellenőrzésekre.
A támadók ma már szintetikus arcokat vagy hangokat használnak e rendszerek megkerülésére, és az ilyen támadások ugrott 704% 2023-ban. Ezért egyszerű "életképességi ellenőrzések" már nem elég.
A Deepfake technológia felemelkedése
Nézzük meg az adatokat.
| Metrikus | 2023 | Előrejelzett 2025-27 | Kulcsfontosságú betekintés |
| Forgalomban lévő Deepfake fájlok | 500,000 | 8 millió | Robbanásszerű 900% növekedés |
| Deepfake-hez kapcsolódó csalási kísérletek | Alapvonal | +3,000% YoY (2023) | Szervezett, nagyszabású kizsákmányolás |
| Átlagos üzleti veszteség incidensenként | - | ~$500,000 | Komoly pénzügyi kockázat |
| Mesterséges intelligencia által vezérelt csalási veszteségek (USA) | $12.3B | $40B (2027-ig) | 32% éves növekedés |
| Emberi észlelési pontosság | - | 24.5% | A kézi felülvizsgálat már nem megbízható |
A deepfakes elleni küzdelemhez olyan technológiára van szükségünk, amely olyan gyorsan tanul, mint a hamisítványok. És az egyik legmegbízhatóbb mélyhamisítás-felismerő eszköz manapság a következő TruthScan.

Ha nem tudsz róla, ez egy valós idejű, méretarányosra épített deepfake-felismerő platform.
Használja a Generatív adverzális hálózatok (GAN) és Látás-nyelvi modellek (VLM) a legapróbb ellentmondásokat is kiszúrja a videó, a hang és a szöveg között.
Számos vizsgálat kimutatta, hogy A TruthScan akár 98% pontosságot is elérhet, szemben a régebbi törvényszéki eszközökkel használt nagyjából 70% értékkel.
Folyamatos ellenőrzéseket végez a digitális csatornákon. Ez azt jelenti, hogy a szervezetek még azelőtt észlelhetik a mély hamisítványokat, mielőtt azok kárt okoznának, nem pedig utána.
A szórakoztatástól és a mémektől a komoly fenyegetésekig
A Deepfake technológia szórakozásként indult.
Ahogy fentebb említettük, a reddit-felhasználók arcokat cseréltek a nevetés kedvéért, mémeket készítettek, és filmjeleneteket javítottak fel.
Hollywood még digitális öregedésgátlásra és utómunka-varázslatra is használta. De ez a könnyed fázis nem tartott sokáig.
2017-ben jelent meg az első nagyobb visszaélés. Ez egy nem konszenzuson alapuló deepfake pornográfia.
2018 és 2022 között a Deepfake technológia az ártalmatlan szórakozásból a manipuláció és a bűnözés komoly eszközévé vált.
A korai példák közé tartozik a deepfake videó Gabon elnökéről 2018-ban, ami politikai zavargásokat váltott ki.
2023-ra, az olyan nagy teljesítményű eszközökkel, mint a Midjourney 5.1 és a DALL-E 2, a deepfake-ek létrehozása könnyedén és veszélyessé vált.
Aztán eljött az idő, amikor már nem csak a közszereplőket veszik célba. Most már a hétköznapi emberek is szembesülnek a zaklatásra, zsarolásra és bosszúra használt deepfake-ekkel.
A hamis videók még válási ügyekben, álláspályázatokban és belső vállalati vitákban is felbukkantak.
Politikai és vállalati visszaélések esetei
A Deepfake technológia hivatalosan is belépett az üzleti és politikai oldalra.
Példák a vállalati visszaélésekre:
2024-ben a csalók becsapták az alkalmazottakat a Arup deepfake videó és hangklónozás segítségével.
Élő videohívásban felsővezetőknek adták ki magukat, és meggyőzték a személyzetet, hogy utaljanak át $25,6 millió eurót. Az átverés működött, mert az emberek bíztak a képernyőn megjelenő ismerős arcban és hangban.
Ugyanebben az évben a hackerek célpontjai LastPass a vezérigazgató hangjának klónozásával a WhatsAppon.
Arra használták, hogy munkaidőn túl nyomást gyakoroljanak egy alkalmazottra, hogy sürgős intézkedést tegyen.
Az ilyen típusú csalások egyre gyakoribbak, mivel a bűnözők könnyen találnak nyilvános felvételeket, például interjúkat vagy beszédeket, hogy lemásolják valakinek a hangját vagy az arcát.
Ez azt jelenti, hogy minden online megjelenő vezető célponttá válhat.
Példák a politikai visszaélésekre:
A Világgazdasági Fórum a mesterséges intelligencia által vezérelt dezinformációt a 2024-es év egyik legnagyobb globális kockázatának nevezte, amelynek középpontjában a deepfakes áll.
2024 augusztusában a kutatók felfedték a Spamouflage hálózat, egy feltehetően Kínához köthető közösségi média művelet, amely deepfake-eket használt a Fülöp-szigeteki elnök lejáratására.
Hasonló taktikákat láttak már a hadviselésben, például hamis videókat a Volodimir Zelenszkij ukrán elnök úgy tűnik, hogy megadja magát.
A Deepfakes kockázatai és veszélyei
Vegyük sorra, hogyan változtatja meg a deepfake technológia azt az elképzelést, hogy miben bízhatunk.
- Az irányítást és a bizalmat érintő kockázatok
Ha mindent meg lehet hamisítani, miben bízhatunk? A Deepfake technológia megingatta a digitális információkba vetett bizalmunkat.
Legyen szó egy politikus beszédéről, egy friss hírcikkről vagy egy vírusvideóról, a legtöbb ember elgondolkodik, "Ez valódi vagy mesterséges intelligencia által generált?"
Ez a növekvő kétség megnehezíti a kormányok, újságírók és intézmények számára a hitelesség fenntartását.
Ahogy korábban láttuk, a deepfake-eket már használták politikai félretájékoztatás terjesztésére, sőt, még köztisztviselők utánzására is.
- Pénzügyi és vállalati katasztrófa
A pénzügyi világban a deepfake technológia gyorsan milliárdos problémává válik.
A csalók ma már klónozott hangokat, hamis videókat és szintetikus személyazonosságokat használnak arra, hogy becsapják az alkalmazottakat, a befektetőket és egész vállalatokat.
Láttuk, hogy a vezetői megszemélyesítések és a piaci manipulációs incidensek hogyan tudják megingatni a nagyvállalatokat, elég egy meggyőző videóhívás vagy egy ismerős hang, amely rossz dolgot mond.
- Technikai és társadalmi sebezhetőségek
A Deepfake technológia feltöri az egykor bolondbiztosnak hitt rendszereket.
Az arcfelismerés és a hangellenőrzés, amelyek egykor a biztonság szempontjából megbízhatónak számítottak, ma már megkerülhetők a mesterséges intelligencia által generált arcokkal és hangokkal.
Ez azt jelenti, hogy még "bizonyíték" mint például egy fénykép vagy videó, nem lehet automatikusan megbízni.
Ráadásul az emberi viselkedés is növeli a kockázatot. Az idősebbek és a közösségi médiát intenzíven használók nagyobb valószínűséggel hisznek és osztják meg a hamisítványokat, ami még gyorsabb terjedésüket segíti.
Hogyan védi a TruthScan a szervezeteket
A TruthScan egy olyan mélyreható hamisítvány-felismerő eszköz, amely magához a valósághoz ad egy ellenőrzési réteget.
Miben különbözik ez a hagyományos rendszerektől?
A hagyományos deepfake-felismerő rendszerek csak a vizuális vagy hangfelvételeket elemzik, a TruthScan azonban multimodális ellenőrzést alkalmaz.
Mi az a multimodális ellenőrzés?
Ez azt jelenti, hogy valós időben keresztellenőrzi a videót, a hangot, a szöveget és a metaadatokat, hogy észrevegye azokat a következetlenségeket, amelyeket az emberi szem és a hagyományos rendszerek nem vesznek észre.
- Ez hitelesíti a forrás hitelességét a tartalom közzététele vagy megosztása előtt. Ez biztosítja, hogy a márkák, vezetők és intézmények ne erősítsék fel tudtukon kívül a manipulált médiát.
- Ez megerősíti a személyazonosság ellenőrzését a hangklónozási és arccsere-kísérletek ellen a szabad szemmel nem látható szintetikus ujjlenyomatok felismerésével.
- Ez védi a szervezeti bizalmat a tartalom eredetének megőrzésével, így minden ellenőrzött videó vagy dokumentum a hitelesség töretlen láncolatát hordozza.
Egy olyan világban, ahol maga az igazság is támadás alatt áll, a TruthScan mély hamisítvány-felismerő eszköz felismeri a hamisítványokat, és helyreállítja a bizalmat a valóságban.
Hogyan ismerjük fel a mély hamisítványokat: A legjobb módszerek a hamis média kiszűrésére
A deepfake technológia felderítéséhez háromrétegű védelemre van szükség, például emberi felülvizsgálatra, törvényszéki elemzésre és adaptív mesterséges intelligencia észlelésre.
- Kézi módszerek a Deepfakes felismerésére
A képzett bírálók helyesen csak 24.5% kiváló minőségű hamisítványok azonosítása az időnek.
Vannak olyan hagyományos árulkodó jelek, mint a nem megfelelő megvilágítás, a természetellenes árnyékok vagy a szinkronizálatlan ajakmozgások, amelyek megbízhatatlanná váltak.
A modern GAN-ok kisimítják ezeket a hibákat, és amint a videót tömörítik (például a közösségi médiában), ezek az apró jelek teljesen eltűnnek.
- Technikai és elemzési megközelítések
Ez a módszer megbízhatóbb, mint a kézi felülvizsgálat, de nagy számítási költséggel jár.
Értsük meg, hogyan működnek ezek a megközelítések:
A következővel kezdődik törvényszéki elemzési technikák ami a technikai deepfake-felismerés alapja.
Ezek az eszközök mikroszkopikus részletekre bontják a médiát, hogy az ember számára láthatatlan következetlenségeket lássák.
Például:
- A képkockánkénti elemzés a videókat egyedi képekre bontja, ami segít azonosítani a természetellenes mintákat, például a szabálytalan megvilágítást vagy a nem megfelelő arcmozgásokat.
Aztán jön Hibaszint-elemzés (ELA), amely megfordítja a szerkesztési folyamatot, kiemelve a képpontok tömörítésének különbségeit. Ez a manipuláció árulkodó jele.
Ahogy mélyebbre megyünk, tér-időbeli koherencia módszerek elemzik, hogy a hang, a gesztusok és az arckifejezések hogyan igazodnak egymáshoz az idő múlásával. Még egy kis késés is elárulhatja, hogy az ajakmozgás és a hang között szintetikus eredetű.
De bár ezek a módszerek hatékonyak, erőforrásigényesek is.
Több ezer videó képkockánként történő feldolgozása nem praktikus, különösen akkor, amikor naponta több millió új médiafájl kerül feltöltésre.
Deepfake technológia fejlődik, mert hogyan készül ez. Minden alkalommal, amikor egy deepfake detektor javul, a hamis generátor (az "ellenfél") tanul belőle, és még meggyőzőbb eredményeket produkál.
Ezt az állandó oda-vissza csatározást nevezzük ellenséges huroknak. Ez azt jelenti, hogy a statikus mélyhamisítás-érzékelő rendszerek hónapokon belül elavulnak.
Az egyetlen fenntartható védekezés az olyan mesterséges intelligencia, amely valós időben tanul, és neurális hálózatok segítségével folyamatosan frissíti magát az új mélyhamisítási technikák megjelenésével.
- A TruthScan AI Detection Tools használata
A fentiekben bemutatott módszerek mindegyike még mindig nem annyira fejlett, hogy pontosan felismerje a deepfake technológiát. E támadások sebessége, nagyságrendje és kifinomultsága speciális, adaptív AI-rendszereket igényel, amelyeket kifejezetten erre a fejlődő csatatérre építettek.
Ott van, ahol TruthScan jön be. A TruthScan kifejezetten a valós világ védelmére lett kifejlesztve.
- A AI-alapú tanulási rendszer soha nem hagyja abba a képzést, naponta tanulmányozza a deepfake technológia új típusait, és automatikusan frissíti magát. Ez azt jelenti, hogy még a legfejlettebb "nulladik nap" deepfakes, olyanok, amelyeket még senki sem látott, anélkül, hogy emberekre lenne szükség az átképzéshez.
- Ez is valós időben működik minden főbb kommunikációs csatornán a videohívásoktól és a call centerektől a digitális médiaplatformokig. A TruthScan nem csak egy dolgot elemez. A videót, a hangot és a szöveget együttesen ellenőrzi, így biztosítva, hogy minden összhangban legyen.
Íme, hogyan védi a különböző típusú szervezeteket:
- Pénzügyi intézmények: A TruthScan elkapja a hamis hangokat az ügyfélszolgálati hívásokban, blokkolja a hamis technológiai azonosítókat a KYC-ellenőrzések során (amelyek száma gyorsan növekszik), és megakadályozza, hogy a hamis vezetők jóváhagyják a csalárd átutalásokat.
- Vállalkozások: A belső kommunikáció valós marad. Jelzi a manipulált médiát, amelyet zsarolásra, félretájékoztatásra vagy márkakárosításra használhatnak fel. A régebbi kommunikációs feljegyzéseket is képes elemezni a szintetikus tartalmak mintáinak felismerése érdekében, így hosszú távú biztonságot nyújt.
- Kormányzati és közszféra: A TruthScan ellenőrzi a nyomozásokban és nyilvános bejelentésekben használt médiát, védelmet nyújtva a hamis politikai videókkal vagy manipulált nyilatkozatokkal szemben, amelyek megzavarhatják a közbizalmat vagy a nemzetbiztonságot.
A TruthScan egy olyan mélyreható hamisítvány-felismerő eszköz, amely a szervezetek számára biztosítja az előretöréshez szükséges sebességet, pontosságot és alkalmazkodóképességet.
Próbálja ki az AI Detector és a Humanizer programot közvetlenül az alábbi widgetben!
Következtetés
A Deepfake technológia egy okos kísérletnek indult. Ez volt a módja annak, hogy Nicolas Cage arcát mindenre rá lehessen tenni.
De most már a testületi üléseket, választási kampányokat és bankszámlákat is megzavarja. És a viccnek vége.
Ami egykor "ártalmatlan szórakozás" a Redditen milliárdos csalógépezetté vált.
Az ijesztő rész?
A legtöbb ember még mindig nem tudja megmondani, mi a valóság. Még a szakértők is csak az esetek negyedében ismerik fel a jó minőségű hamisítványokat. A látás és a hit közötti határvonal hivatalosan is elmosódott.
És a deepfake-felismerő eszközök, amelyekben egykor bíztunk, hogy elkapják a manipulációt, máris egy lépéssel lemaradtak.
A hamisítványok folyamatosan tanulnak, alkalmazkodnak és fejlődnek.
Ezért a digitális védelem jövője a mesterséges intelligencia ellen harcoló mesterséges intelligenciától függ.
Deepfake detektáló eszköz, mint például TruthScan adaptív rendszerekkel rendelkezik, amelyek valós időben fejlődnek, és felismerik azt, amit az emberek nem tudnak.
Egy olyan világban, ahol bárki bármit "mondhat" vagy "látszólag" bármit megtehet, az igazság nem halott, csak jobb biztonságra van szüksége.
Mert lehet, hogy a következő vírusvideó nem csak egy álhír lesz... lehet, hogy egy hamis te leszel.