"Η τεχνητή νοημοσύνη λειτουργεί σαν ενισχυτικό απόδοσης για τους εγκληματίες του κυβερνοχώρου. Ουσιαστικά ανεβάζει τα επίπεδα των κακών μεσαίου επιπέδου". [1]
Τον τελευταίο χρόνο, η τεχνητή νοημοσύνη (AI) έχει εξελιχθεί ραγδαία, τροφοδοτώντας τα πάντα, από την εξατομικευμένη αναζήτηση μέχρι την προηγμένη ιατρική διάγνωση. Όμως, ενώ η τεχνολογία τρέχει προς τα εμπρός, μια πιο σκοτεινή πραγματικότητα ελλοχεύει: οι εγκληματίες του κυβερνοχώρου χρησιμοποιούν ως όπλα τις ίδιες ανακαλύψεις της Τεχνητής Νοημοσύνης για να βελτιώσουν τις απάτες, να υποδυθούν τα θύματα και να ενισχύσουν τις παράνομες επιχειρήσεις.
Οι κυβερνητικές υπηρεσίες - από το Κέντρο Καταγγελιών για Εγκλήματα Διαδικτύου (IC3) του FBI έως το Υπουργείο Εσωτερικής Ασφάλειας (DHS) - έχουν επισημάνει το κυβερνοέγκλημα με βάση την τεχνητή νοημοσύνη ως ένα ταχέως αναπτυσσόμενο πρόβλημα. [2][8]
Ερευνήσαμε τα ευρήματα της αμερικανικής κυβέρνησης και αξιόπιστες αναλύσεις τρίτων σχετικά με το πώς χρησιμοποιείται η τεχνητή νοημοσύνη για το έγκλημα στον κυβερνοχώρο το 2024. Από το τρομακτικές απάτες deepfake σε ισχυρό εκστρατείες phishing, ιδού τι αποκαλύπτουν τα δεδομένα -και οι έλεγχοι των γεγονότων-.
Βασικά συμπεράσματα:
- Η τεχνητή νοημοσύνη είναι ένας παράγοντας που συμβάλλει, αλλά όχι η μοναδική αιτία κάθε κυβερνοεπίθεσης. Η παραδοσιακή πειρατεία εξακολουθεί να υφίσταται σε κλίμακα.
- Η πλαστοπροσωπία Deepfake δεν είναι πλέον επιστημονική φαντασία- συμβαίνει τώρα.
- Η δημιουργία σεξουαλικών εκβιασμών και CSAM με χρήση τεχνητής νοημοσύνης αποτελεί επείγουσα προτεραιότητα για τις υπηρεσίες επιβολής του νόμου και προστασίας των παιδιών.
- Η παραπληροφόρηση αποτελεί απειλή για την εθνική ασφάλεια, με την τεχνητή νοημοσύνη να τροφοδοτεί πιο πιστευτές ψεύτικες προσωπικότητες και αφηγήσεις.
- Η αυστηρότερη επιβολή της νομοθεσίας είναι στον ορίζοντα, καθώς το Υπουργείο Δικαιοσύνης και το FBI υπόσχονται να αντιμετωπίσουν τα εγκλήματα που υποβοηθούνται από τεχνητή νοημοσύνη με αυξημένη σοβαρότητα.
- 56% των Αμερικανών που συμμετείχαν στην έρευνα δήλωσαν ότι ανησυχούν για τα Deep Fakes, την τεχνητή νοημοσύνη που αποτελεί απειλή για την ανθρώπινη ζωή ή την παράνομη χρήση. [9]*
1. Ψάρεμα και κοινωνική μηχανική με τεχνητή νοημοσύνη
Μια νέα εποχή πειστικού phishing
- Τι συμβαίνει;
Οι εγκληματίες χρησιμοποιούν τη δημιουργική τεχνητή νοημοσύνη για να δημιουργήσουν τέλεια, εξατομικευμένα μηνύματα ηλεκτρονικού ταχυδρομείου και κείμενα phishing. Οι μέρες των γελοίων γραμματικών λαθών έχουν περάσει ανεπιστρεπτί. Τώρα, αυτά τα μηνύματα ηλεκτρονικού ταχυδρομείου εμφανίζονται γυαλισμένα και υπερ-στοχευμένα, εξαπατώντας ακόμη και τους άγρυπνους παραλήπτες. [2][3] - Επίσημες προειδοποιήσεις
Το τμήμα του FBI στο Σαν Φρανσίσκο προειδοποιεί για μια "αυξανόμενη απειλή από εγκληματίες του κυβερνοχώρου που χρησιμοποιούν εργαλεία με τεχνητή νοημοσύνη για την ενορχήστρωση εξαιρετικά στοχευμένων εκστρατειών phishing". [2] Το 2024, το IC3 ανέφερε μια συνεχή αύξηση των απωλειών που σχετίζονται με το phishing - αν και δεν παρέχει ακριβή καταμέτρηση για το πόσες από αυτές είναι καθοδηγούμενες από την ΤΝ. [3] Ποιοτικά, ωστόσο, οι ερευνητές βλέπουν μια αξιοσημείωτη αύξηση σε πιο εξελιγμένες απόπειρες phishing που παρακάμπτουν τις τυπικές κόκκινες σημαίες. - Επισημάνσεις Fact-Check
Ενώ οι καταγγελίες για phishing αυξάνονται κατακόρυφα συνολικά, το FBI δεν έχει δημοσιεύσει ακριβές ποσοστό που να αποδίδεται αποκλειστικά στην τεχνητή νοημοσύνη. Αντ' αυτού, τονίζουν τον αυξανόμενο ρεαλισμό και τα ποσοστά επιτυχίας αυτών των απάτης με ενισχυμένη τεχνητή νοημοσύνη. Πρόκειται για ένα χαρακτηριστικό παράδειγμα μιας απειλής που είναι πραγματική - ακόμη και αν οι ακριβείς αριθμοί είναι άπιαστοι.
Επιπτώσεις στις επιχειρήσεις και τα άτομα
- Υποκλοπή ηλεκτρονικού ταχυδρομείου επιχειρήσεων (BEC):
Η τεχνητή νοημοσύνη βοηθά τους απατεώνες να αναπαράγουν εκτελεστικά μηνύματα ηλεκτρονικού ταχυδρομείου ή να προσαρμόσουν τα μηνύματα σε πολλές γλώσσες, αυξάνοντας την επιτυχία στην απάτη BEC. Οι απώλειες από τις απάτες BEC ξεπέρασαν το $2,9 δισεκατομμύριο το 2023, σύμφωνα με το FBI, και το 2024 αναμένεται να ξεπεράσουν αυτό το ποσό - αν και το κομμάτι της AI εξακολουθεί να παρακολουθείται. [3] - Προσωπικές απώλειες:
Οι άνθρωποι έρχονται αντιμέτωποι με καλοσχεδιασμένες ψεύτικες ειδοποιήσεις τραπεζών ή επιστολές "ρομαντικής απάτης" που φαίνονται σπαρακτικά αληθινές. Αυτό έχει οδηγήσει σε κλεμμένα διαπιστευτήρια, άδειασμα τραπεζικών λογαριασμών και κλοπή ταυτότητας [2]. Οι ηλικιωμένοι παραμένουν ιδιαίτερα ευάλωτοι, καθώς οι εγκληματίες μπορούν να κλωνοποιούν φωνές ή να παράγουν μηνύματα που μοιάζουν με μηνύματα φροντιστή.
2. Προσποίηση και απάτη Deepfake
Ψεύτικες φωνές, αληθινά χρήματα
Φανταστείτε να λαμβάνετε ένα φρενήρες τηλεφώνημα από τη φωνή ενός αγαπημένου σας προσώπου που εκλιπαρεί για λύτρα. Στην πραγματικότητα, Η τεχνητή νοημοσύνη χρησιμοποίησε δείγματα από τα μέσα κοινωνικής δικτύωσης για να δημιουργήσει αυτή ακριβώς τη φωνητική υπογραφή.
Σύμφωνα με τα δελτία IC3 του FBI, η κλωνοποίηση φωνής έχει αναδειχθεί σε νέο εργαλείο για εκβιασμούς και οικονομικές απάτες. [2][5] Έχουν επίσης αναφερθεί περιστατικά κλήσεων "ψεύτικων CEO" που εξαπατούν τους υπαλλήλους ώστε να μεταφέρουν χρήματα.
Μην ανησυχείτε ποτέ ξανά για την τεχνητή νοημοσύνη που ανιχνεύει τα κείμενά σας. Undetectable AI Μπορεί να σας βοηθήσει:
- Κάντε το γραπτό σας με υποστήριξη AI να εμφανιστεί ανθρωποειδής.
- Παράκαμψη όλα τα κύρια εργαλεία ανίχνευσης AI με ένα μόνο κλικ.
- Χρήση AI με ασφάλεια και με αυτοπεποίθηση στο σχολείο και στην εργασία.
Χαρακτηριστικό παράδειγμα: Το 2023, μια μητέρα από την Αριζόνα παραλίγο να πέσει θύμα απάτης όταν πίστεψε ότι άκουσε τη φωνή της έφηβης κόρης της να κλαίει σε ένα ψεύτικο τηλεφώνημα "απαγωγής". Ευτυχώς, εξακρίβωσε την ασφάλεια της κόρης της πριν μεταφέρει χρήματα.
Βίντεο Deepfake και μίμηση
Οι εγκληματίες παράγουν επίσης βιντεοκλήσεις που δημιουργούνται με τεχνητή νοημοσύνη και παρουσιάζουν ρεαλιστικούς "διευθύνοντες συμβούλους" ή "επιχειρηματικούς εταίρους", δίνοντας οδηγίες στους υπαλλήλους να εγκρίνουν μεγάλες μεταφορές. Το Υπουργείο Δικαιοσύνης (DOJ) προειδοποιεί ότι αυτές οι deepfake βιντεοκλήσεις είναι ανησυχητικά αξιόπιστες, ιδίως σε απομακρυσμένα ή υβριδικά περιβάλλοντα εργασίας. [4][7]
Σημείωση για τον έλεγχο των γεγονότων:
Η επιβολή του νόμου έχει επιβεβαιώσει πολλαπλά περιστατικά, αλλά δεν έχει δημοσιεύσει επίσημη καταμέτρηση των περιπτώσεων deepfake. Τα αναφερόμενα παραδείγματα, ωστόσο, ευθυγραμμίζονται με τις συνεχείς προειδοποιήσεις του FBI/DOJ σχετικά με μια "απότομη αύξηση" της χρήσης της τεχνολογίας deepfake για απάτες. [2][4][7]
3. Τεχνητής Νοημοσύνης παραγόμενος εκβιασμός και συνθετική κατάχρηση των μέσων ενημέρωσης
Αλλοίωση αθώων εικόνων σε εκμετάλλευση
- Τι συμβαίνει;
Οι εγκληματίες παίρνουν καλοπροαίρετες φωτογραφίες (από τα μέσα κοινωνικής δικτύωσης ή αλλιώς) και τις μετατρέπουν σε ρητό υλικό. Αυτός ο λεγόμενος "deepfake sextortion" ευδοκιμεί χάρη στην ικανότητα της τεχνητής νοημοσύνης να δημιουργεί ενοχλητικά πειστικές εικόνες ή βίντεο. [5] - Τα θύματα περιλαμβάνουν ανηλίκους
Το FBI, σε ένα PSA του 2023, σημείωσε αύξηση των περιπτώσεων sextortion, όπου οι φωτογραφίες ανηλίκων μετατρέπονταν σε ψεύτικο πορνογραφικό υλικό. Στη συνέχεια, οι δράστες απειλούν να μοιραστούν ή να δημοσιεύσουν αυτές τις κατασκευασμένες εικόνες, εκτός εάν τα θύματα πληρώσουν ή παράσχουν πραγματικό σεξουαλικό περιεχόμενο. [5] - Υλικό σεξουαλικής κακοποίησης παιδιών (CSAM)
Το DHS και το Υπουργείο Δικαιοσύνης επιβεβαιώνουν ότι χρησιμοποιούνται εργαλεία τεχνητής νοημοσύνης για τη δημιουργία περιεχομένου σεξουαλικής κακοποίησης παιδιών με τεχνητή νοημοσύνη. Τον Αύγουστο του 2024, το Υπουργείο Δικαιοσύνης συνέλαβε ένα άτομο για τη χρήση ΤΝ για την παραγωγή παιδικής πορνογραφίας. [6] Η επιβολή του νόμου τονίζει ότι "το CSAM που παράγεται από AI εξακολουθεί να είναι CSAM".
Υπενθύμιση ελέγχου γεγονότων:
Οι επίσημες πηγές αντιμετωπίζουν απερίφραστα το χειραγωγημένο από την Τεχνητή Νοημοσύνη CSAM ως παράνομο. Τα ακριβή δεδομένα επικράτησης είναι ελάχιστα, αλλά οι πολλαπλές ενέργειες επιβολής επιβεβαιώνουν την πραγματική και αυξανόμενη απειλή της.
4. Αποπληροφόρηση και πολιτική παρέμβαση με βάση την Τεχνητή Νοημοσύνη
- Ανάμειξη στις εκλογές 2.0
Τον Ιούλιο του 2024, το Υπουργείο Δικαιοσύνης διέλυσε μια μυστική ρωσική φάρμα bot που χρησιμοποιούσε ψεύτικες περσόνες ενισχυμένες με τεχνητή νοημοσύνη για τη διάδοση παραπληροφόρησης [4][7]. Αυτοί οι λογαριασμοί κοινωνικής δικτύωσης που δημιουργούνταν από τεχνητή νοημοσύνη προωθούσαν διχαστικές αφηγήσεις με μια πολυπλοκότητα που τα αυτοματοποιημένα φίλτρα δυσκολεύονταν να ανιχνεύσουν. - Εσωτερική και εξωτερική επιρροή
Ο Διευθυντής του FBI Wray σημειώνει ότι "η δημιουργική τεχνητή νοημοσύνη... μειώνει το εμπόδιο εισόδου" [1], καθιστώντας ευκολότερο τόσο για τους ξένους αντιπάλους όσο και για τις εγχώριες ομάδες να δημιουργήσουν αληθοφανείς "ψεύτικες ειδήσεις", να δημιουργήσουν βίντεο ή να υποδυθούν πολιτικούς. - Όχι μόνο Spam
Αυτό το περιεχόμενο μπορεί να υπονομεύσει την εμπιστοσύνη του κοινού, να σπείρει σύγχυση κατά τη διάρκεια των εκλογών ή να ενθαρρύνει κακόβουλα οικονομικά σχέδια. [4][8] Το DHS κατατάσσει την παραπληροφόρηση που καθοδηγείται από την τεχνητή νοημοσύνη ως ένα έγκλημα "με δυνατότητες στον κυβερνοχώρο" - αναγνωρίζοντας ότι, ενώ μπορεί να μην περιλαμβάνει άμεση πειρατεία, εκμεταλλεύεται ψηφιακές πλατφόρμες για παράνομους ή παραπλανητικούς σκοπούς.
Πλαίσιο ελέγχου γεγονότων:
Το Υπουργείο Δικαιοσύνης έχει τεκμηριώσει επαρκώς την κατάρριψη της "φάρμας bot". [4][7] Ανεξάρτητοι ερευνητές ασφαλείας επιβεβαιώνουν ότι η δημιουργία προσωπικοτήτων από τεχνητή νοημοσύνη βρίσκεται σε άνοδο. Ωστόσο, οι επίσημες υπηρεσίες σπάνια δημοσιεύουν ακριβείς μετρήσεις (π.χ., "30% της παραπληροφόρησης βασίζεται πλέον σε AI"). Αντ' αυτού, επικεντρώνονται στη δημοσιοποίηση της σοβαρότητας και της πολυπλοκότητας αυτών των εκστρατειών.
5. Αναδυόμενες απειλές: κακόβουλο λογισμικό και χάκινγκ με τη βοήθεια της τεχνητής νοημοσύνης
WormGPT και πέρα από αυτό
Σε υπόγεια φόρουμ, οι εγκληματίες προωθούν μοντέλα τεχνητής νοημοσύνης -όπως το "WormGPT"- που είναι ρυθμισμένα για τη συγγραφή κακόβουλου λογισμικού. Η DHS προειδοποιεί ότι αυτά τα εργαλεία "καλύπτουν κενά γνώσεων, όπως η κωδικοποίηση υπολογιστών", επιτρέποντας σε σχετικά ανειδίκευτους χάκερ να εξαπολύουν προηγμένες επιθέσεις [8]. Παρόλο που το κακόβουλο λογισμικό που γράφεται με τεχνητή νοημοσύνη σε μεγάλη κλίμακα είναι ακόμη περιορισμένο, οι ειδικοί προβλέπουν ότι θα αποτελέσει σημαντική ανησυχία για τη συνέχεια.
Προσαρμοστικό κακόβουλο λογισμικό;
Οι ερευνητές ασφαλείας έχουν αποδείξει ότι το κακόβουλο λογισμικό με τεχνητή νοημοσύνη μπορεί να μεταβάλει τον κώδικά του ("πολυμορφισμός") για να αποφύγει την ανίχνευση από τα antivirus. Το DHS έχει επίσης θεωρητικοποιήσει το "αυτοδίδακτο" κακόβουλο λογισμικό που δοκιμάζει αυτόνομα νέα exploits, αλλά τα παραδείγματα στον πραγματικό κόσμο παραμένουν σπάνια το 2024. [8]
Σημείωση για τον έλεγχο των γεγονότων:
Οι περισσότερες επιθέσεις υψηλού προφίλ (όπως το ransomware) εξακολουθούν να βασίζονται σε συμβατικές μεθόδους, αλλά το FBI, η NSA και οι ειδικοί σε θέματα ασφάλειας στον κυβερνοχώρο βλέπουν ενδείξεις ότι η τεχνητή νοημοσύνη αποτελεί όλο και περισσότερο μέρος του οπλοστασίου των κυβερνοεγκληματιών. Περιμένετε περισσότερες εξελίξεις -και ενδεχομένως περισσότερα επίσημα στατιστικά στοιχεία- μέχρι το 2025.
Επιπτώσεις και βασικά στατιστικά στοιχεία (Ελεγχόμενα γεγονότα)
- Συνολικές καταγγελίες για εγκλήματα στον κυβερνοχώρο
- Το IC3 του FBI έλαβε 880.000+ καταγγελίες για εγκλήματα στον κυβερνοχώρο το 2023, με αναφερόμενες απώλειες που ξεπέρασαν τα $12,5 δισεκατομμύρια - μια αύξηση 22% στις απώλειες από το 2022. [3]
- Αν και το ακριβές τμήμα που αφορά την τεχνητή νοημοσύνη δεν παρακολουθείται, οι ειδικοί πιστεύουν ότι ο ρεαλισμός της τεχνητής νοημοσύνης οδηγεί σε υψηλότερα ποσοστά επιτυχίας στις απάτες phishing, BEC και πλαστοπροσωπίας. [2][3]
- Επιχειρηματική υποκλοπή ηλεκτρονικού ταχυδρομείου (BEC)
- Παραμένει μία από τις πιο δαπανηρές μορφές ηλεκτρονικού εγκλήματος, ξεπερνώντας τα $2,9 δισεκατομμύρια σε αναφερόμενες απώλειες το 2023. [3] Ο ρόλος της τεχνητής νοημοσύνης; Πιο γυαλισμένα μηνύματα ηλεκτρονικού ταχυδρομείου, καλύτερος εντοπισμός και περιστασιακά βαθιά ψεύτικες κλήσεις ή βίντεο.
- Deepfake Sextortion
- Το FBI δεν δημοσιεύει οριστικό αριθμό περιστατικών εξαναγκασμού με βάση το deepfake, αλλά "πολλές νέες αναφορές κάθε μήνα" έχουν εμφανιστεί. [5]
- Επιπτώσεις στο θύμα: Προσωπικός εξευτελισμός, οικονομικός εκβιασμός και συναισθηματικό τραύμα.
- Επιχειρήσεις παραπληροφόρησης
- Το Υπουργείο Δικαιοσύνης διέκοψε μια ρωσική φάρμα bot με τεχνητή νοημοσύνη τον Ιούλιο του 2024 [4][7]. Οι ομοσπονδιακές υπηρεσίες υπογραμμίζουν την απειλή της παραπληροφόρησης που διαδίδεται από την Τεχνητή Νοημοσύνη για τις αμερικανικές εκλογές και τις δημοκρατικές διαδικασίες.
- Έλεγχος γεγονότων για τον μύθο της "τρίτης μεγαλύτερης οικονομίας"
- Ορισμένοι τίτλοι των μέσων ενημέρωσης συγκρίνουν το παγκόσμιο κόστος του κυβερνοεγκλήματος με το ΑΕΠ των μεγάλων κρατών, αλλά τα $10-12 δισεκατομμύρια των ετήσιων αναφερόμενων απωλειών στις ΗΠΑ προφανώς δεν είναι σε αυτή την κλίμακα [3]. Οι αναλυτές εκτιμούν ότι ο παγκόσμιος οικονομικός αντίκτυπος του εγκλήματος στον κυβερνοχώρο θα μπορούσε να φτάσει τα τρισεκατομμύρια, τοποθετώντας τον θεωρητικά μεταξύ των κορυφαίων οικονομιών, αν συμπεριλάβει κανείς όλα τα έμμεσα κόστη.
- "Ένα στα πέντε εγκλήματα στο διαδίκτυο" Πλαίσιο
- Σε ορισμένες περιοχές, περίπου το 20-25% των αναφερόμενων εγκλημάτων σχετίζονται πλέον με τον κυβερνοχώρο. Το ποσοστό αυτό δεν ισχύει κατ' ανάγκη παγκοσμίως, αλλά αναδεικνύει ένα αυξανόμενο ποσοστό του συνολικού εγκλήματος που είναι ψηφιακό.
Επιβολή του νόμου και πολιτικές απαντήσεις
- Αυστηρότερη στάση του DOJ
- Η αναπληρώτρια γενική εισαγγελέας Lisa Monaco υποσχέθηκε "αυστηρότερες ποινές" για τους εγκληματίες που εκμεταλλεύονται την Τεχνητή Νοημοσύνη για να ενισχύσουν τα αδικήματα - αντιμετωπίζοντας την Τεχνητή Νοημοσύνη ως επιβαρυντικό παράγοντα σε περιπτώσεις απάτης, εκμετάλλευσης παιδιών και άλλα. [6]
- Ομάδα εργασίας για την ΤΝ της εσωτερικής ασφάλειας
- Το DHS επεκτείνει τις προσπάθειες για την ανίχνευση απάτης με βάση την τεχνητή νοημοσύνη, τη διαχείριση της ανίχνευσης deepfake και την προστασία των ανηλίκων από την εκμετάλλευση που δημιουργείται από την τεχνητή νοημοσύνη. [8] Διερευνά επίσης τον τρόπο χρήσης της ΤΝ για την άμυνα, σαρώνοντας τα δίκτυα για ανωμαλίες.
- Εταιρική συμμόρφωση
- Το Υπουργείο Δικαιοσύνης ζητά τώρα από τις εταιρείες να δείξουν πώς χειρίζονται τους κινδύνους ΤΝ στα προγράμματα συμμόρφωσης που εφαρμόζουν. Η αποτυχία να αποτρέψουν τους υπαλλήλους από την καταχρηστική χρήση της ΤΝ ή η αγνόηση των τρωτών σημείων ασφαλείας της ΤΝ μπορεί να αυξήσει την εταιρική ευθύνη. [6]
- Εκστρατείες ευαισθητοποίησης του κοινού
- Το FBI, η FCC και η FTC εξέδωσαν προειδοποιήσεις για τους καταναλωτές σχετικά με τις απάτες "παππούδων" με τεχνητή νοημοσύνη και τις ψεύτικες κλήσεις απαγωγής. Το μήνυμα; Να επαληθεύετε πάντα τις ύποπτες κλήσεις ή μηνύματα - το να βλέπεις (ή να ακούς) δεν είναι πλέον πίστη στην εποχή της τεχνητής νοημοσύνης. [2][5]
56% των Αμερικανών λένε ότι ανησυχούν για την επιβλαβή τεχνητή νοημοσύνη
Τον Νοέμβριο του 2024, η Undetectable AI πραγματοποίησε έρευνα σε 1.000 Αμερικανούς σε όλες τις Ηνωμένες Πολιτείες. [9] Οι ερωτηθέντες, ηλικίας 18 έως 27 ετών, ανέφεραν ότι 23% πίστευαν ότι η Τεχνητή Νοημοσύνη αποτελεί υπαρξιακή απειλή για την ανθρωπότητα, 18% εξέφρασαν ανησυχίες για την παράνομη χρήση δεδομένων ή την προστασία της ιδιωτικής ζωής των δεδομένων και 15% ανησυχούσαν για την τεχνολογία Τεχνητής Νοημοσύνης που χρησιμοποιείται για τη δημιουργία deepfakes.
Κοιτάζοντας μπροστά: 2025 και μετά
Παρά τα περιορισμένα δεδομένα σχετικά με την ακριβή επικράτηση των επιθέσεων με βάση την τεχνητή νοημοσύνη, η τάση είναι σαφής: η τεχνητή νοημοσύνη μειώνει τα εμπόδια για τους εγκληματίες, επιτρέπει πιο ρεαλιστικές απάτες και εντείνει την παραπληροφόρηση. Εν τω μεταξύ, οι υπερασπιστές - η επιβολή του νόμου, οι εμπειρογνώμονες κυβερνοασφάλειας και οι ρυθμιστικές αρχές - ενισχύονται. Αναμείνατε:
- Περισσότερη τεχνητή νοημοσύνη στην άμυνα: Εργαλεία για την εγκληματολογία deepfake, φίλτρα phishing βασισμένα στην ΤΝ και ανίχνευση ανωμαλιών σε δίκτυα.
- Διευρυμένη ρυθμιστική εποπτεία: Το DOJ, η SEC και άλλοι φορείς είναι πιθανό να πατάξουν περαιτέρω την κακή χρήση της ΤΝ, επιβάλλοντας βαρύτερες ποινές σε άτομα ή οργανισμούς που διευκολύνουν εγκλήματα που σχετίζονται με την ΤΝ.
- Ευρύτερη διεθνής συνεργασία: Το έγκλημα στον κυβερνοχώρο δεν έχει σύνορα και οι κοινές επιχειρήσεις -όπως η κατάρριψη από το Υπουργείο Δικαιοσύνης τον Ιούλιο του 2024 μιας ρωσικής φάρμας bot- θα γίνονται όλο και πιο συχνές.
Συμπέρασμα: Ένας πολλαπλασιαστής δύναμης για το έγκλημα στον κυβερνοχώρο
Το βασικό θέμα που προκύπτει από επίσημες πηγές και αναλύσεις εμπειρογνωμόνων είναι ότι η τεχνητή νοημοσύνη ενισχύει τις υπάρχουσες μεθόδους εγκληματικότητας στον κυβερνοχώρο. Από το υπερρεαλιστικό phishing μέχρι τις φωνητικές κλήσεις "ψεύτικου CEO", οι εγκληματίες χρησιμοποιούν τη δημιουργική ΤΝ για να βελτιώσουν κατά πολύ τα ποσοστά επιτυχίας τους - και να εκμεταλλευτούν τα θύματα που κάποτε βασίζονταν σε απλούς ελέγχους "ενστίκτου" (ορθογραφικά λάθη, λάθος προφορά κ.λπ.) για να εντοπίσουν τις απάτες.
Μείνετε σε εγρήγορση και ενημερωμένοι
Η ευαισθητοποίηση του κοινού και η επαλήθευση είναι κρίσιμης σημασίας σε αυτό το ταχέως αναπτυσσόμενο περιβάλλον. Είτε είστε ένα στέλεχος της διεύθυνσης που λαμβάνει ένα αίτημα για τηλεγράφημα της τελευταίας στιγμής, είτε ένας συνταξιούχος που δέχεται κλήσεις από ένα "εγγόνι σε κρίση", είτε ένας χρήστης των μέσων κοινωνικής δικτύωσης που έρχεται αντιμέτωπος με ένα εντυπωσιακό βίντεο ενός πολιτικού, να θυμάστε: αν κάτι σας φαίνεται περίεργο, επαληθεύστε το. Η τεχνητή νοημοσύνη σημαίνει ότι οι εγκληματίες μπορούν να μιμούνται πραγματικούς ανθρώπους ή να δημιουργούν ψευδαισθήσεις με εκπληκτική ακρίβεια.
Μεθοδολογία
Πραγματοποιήσαμε αυτή την έρευνα εξετάζοντας επίσημους κυβερνητικούς πόρους, (όπως δημοσιευμένα έγγραφα από το Υπουργείο Δικαιοσύνης και την ετήσια ετήσια έκθεση IC3 για το έγκλημα στο Διαδίκτυο). Εξετάσαμε επίσης αξιόπιστα σχόλια και καλύψεις τρίτων για τις αναδυόμενες απειλές ηλεκτρονικού εγκλήματος που σχετίζονται με την τεχνητή νοημοσύνη. Διεξήγαμε επίσης έρευνα σε περισσότερους από 1000 ανταποκριτές στις Ηνωμένες Πολιτείες για να κατανοήσουμε τις ανησυχίες τους σχετικά με την Τεχνητή Νοημοσύνη. Τέλος, ελέγξαμε την παρούσα έκθεση για να εγγυηθούμε ότι όλες οι αναφερόμενες πηγές είναι ακριβείς και επικαιροποιημένες.
Δίκαιη χρήση
Είστε ευπρόσδεκτοι και σας ενθαρρύνουμε να παρουσιάσετε αυτά τα δεδομένα σε μια ιστορία ή ένα άρθρο. Φροντίστε να αναφέρετε την αναφορά στο Undetectable AI και να συμπεριλάβετε έναν σύνδεσμο προς αυτή τη σελίδα, ώστε οι αναγνώστες να μπορούν να δουν την πλήρη έκθεση.
Αναφορές
- FBI: FBI: Προετοιμαστείτε για μια εκλογική χρονιά με απειλές με χοντρό ρυθμό, που τροφοδοτούνται από κακούς με AI - Άμυνα Ένα
- Το FBI προειδοποιεί για την αυξανόμενη απειλή των εγκληματιών του κυβερνοχώρου που χρησιμοποιούν την τεχνητή νοημοσύνη (8 Μαΐου 2024)
- Κέντρο Καταγγελιών για Εγκλήματα στο Διαδίκτυο (IC3) - 2023 Internet Crime Report & Related PSAs
- Γραφείο Δημοσίων Σχέσεων | Το Υπουργείο Δικαιοσύνης ηγείται των προσπαθειών... για την καταστροφή της μυστικής ρωσικής κυβερνητικής επιχείρησης bot στα μέσα κοινωνικής δικτύωσης (9 Ιουλίου 2024)
- Internet Crime Complaint Center (IC3) | PSA: Κακόβουλοι δράστες που χειραγωγούν φωτογραφίες και βίντεο για να δημιουργήσουν ρητό περιεχόμενο και συστήματα εκβιασμού (5 Ιουνίου 2023)
- Άνδρας συνελήφθη για παραγωγή, διανομή και κατοχή εικόνων με τεχνητή νοημοσύνη ανηλίκων που επιδίδονται σε σεξουαλικά ξεκάθαρη συμπεριφορά
- DOJ & Partners Disrupt Russian Bot Farm - Enforcement Details (Ιούλιος 2024)
- DHS: "Επιπτώσεις της τεχνητής νοημοσύνης στις εγκληματικές και παράνομες δραστηριότητες" (27 Σεπτεμβρίου 2024)
- 2024 Έρευνα που διεξάγεται από το Undetectable AI