Tren Kejahatan Siber AI dan Bagaimana Hal Ini Dapat Membahayakan Anda di Tahun 2025

"Kecerdasan buatan bertindak seperti peningkat kinerja bagi para penjahat siber. Kecerdasan buatan secara efektif meningkatkan level penjahat tingkat menengah." [1]

Pada tahun lalu, kecerdasan buatan (AI) telah berkembang dengan cepat, memberdayakan segala sesuatu mulai dari pencarian yang dipersonalisasi hingga diagnostik medis tingkat lanjut. Namun, sementara teknologi terus melaju, ada realitas yang lebih gelap yang membayangi: penjahat siber menggunakan terobosan AI yang sama untuk menyempurnakan penipuan, menyamar sebagai korban, dan memperkuat perusahaan ilegal. 

Badan-badan pemerintah-dari Pusat Pengaduan Kejahatan Internet FBI (IC3) hingga Departemen Keamanan Dalam Negeri (DHS)-telah menandai kejahatan siber yang digerakkan oleh AI sebagai masalah yang berkembang pesat. [2][8]

Kami meneliti temuan pemerintah AS dan analisis pihak ketiga yang kredibel tentang bagaimana AI digunakan untuk kejahatan siber pada tahun 2024. Dari penipuan deepfake yang menakutkan untuk ampuh kampanye phishingBerikut ini adalah data - dan pemeriksaan fakta - yang terungkap.

Hal-hal penting yang dapat diambil:

  1. AI adalah faktor yang berkontribusi tetapi bukan satu-satunya penyebab dari setiap serangan siber. Peretasan tradisional masih terus berlanjut dalam skala besar.
  2. Peniruan deepfake bukan lagi fiksi ilmiah; ini terjadi sekarang.
  3. Pembuatan konten pornografi dan CSAM menggunakan AI merupakan prioritas mendesak bagi penegak hukum dan lembaga perlindungan anak.
  4. Disinformasi adalah ancaman keamanan nasional, dengan AI yang mendorong persona dan narasi palsu yang lebih dipercaya.
  5. Penegakan hukum yang lebih ketat sudah di depan mata, karena DOJ dan FBI bersumpah untuk memperlakukan kejahatan yang dibantu oleh AI dengan sangat serius.
  6. 56% orang Amerika yang disurvei mengatakan bahwa mereka khawatir tentang Deep Fakes, AI yang mengancam kehidupan manusia, atau penggunaan yang melanggar hukum. [9]* 

1. Phishing dan Rekayasa Sosial yang disempurnakan dengan AI

Era Baru Phishing yang Meyakinkan

  • Apa yang terjadi?
    Penjahat menggunakan AI generatif untuk membuat email dan teks phishing yang sempurna dan dipersonalisasi. Lewatlah sudah hari-hari kesalahan tata bahasa yang menggelikan. Sekarang, email-email ini tampak halus dan sangat tepat sasaran, bahkan menipu penerima yang waspada. [2][3]
  • Peringatan Resmi
    Divisi FBI di San Francisco memperingatkan adanya "peningkatan ancaman penjahat siber yang menggunakan alat bertenaga AI untuk mengatur kampanye phishing yang sangat bertarget." [2] Pada tahun 2024, IC3 melaporkan adanya peningkatan yang berkelanjutan dalam kerugian terkait phishing-meskipun mereka tidak memberikan penghitungan pasti berapa banyak yang didorong oleh AI. [3] Namun, secara kualitatif, para penyelidik melihat adanya peningkatan yang mencolok dalam upaya phishing yang lebih canggih yang melewati tanda bahaya yang biasa terjadi.
  • Sorotan Pemeriksaan Fakta
    Meskipun pengaduan phishing meroket secara keseluruhan, FBI belum mempublikasikan persentase pasti yang hanya dikaitkan dengan AI. Sebaliknya, mereka menekankan pada meningkatnya realisme dan tingkat keberhasilan penipuan yang disempurnakan dengan AI ini. Ini adalah contoh utama dari ancaman yang nyata-meskipun angka pastinya sulit dipahami.

Dampak pada Bisnis dan Individu

  • Kompromi Email Bisnis (Business Email Compromise/BEC):
    AI membantu penipu meniru email eksekutif atau menyesuaikan pesan dalam berbagai bahasa, sehingga meningkatkan keberhasilan penipuan BEC. Kerugian akibat penipuan BEC melebihi $2,9 miliar pada tahun 2023, menurut FBI, dan tahun 2024 diperkirakan akan melebihi itu-meskipun bagian AI masih terus dipantau. [3]
  • Kerugian Pribadi:
    Orang-orang menghadapi peringatan bank palsu yang dibuat dengan baik atau surat "penipuan percintaan" yang tampak sangat nyata. Hal ini menyebabkan kredensial dicuri, rekening bank terkuras, dan pencurian identitas [2]. Para lansia tetap sangat rentan, karena para penjahat dapat meniru suara atau membuat pesan yang mirip dengan pengasuh.

2. Peniruan dan Penipuan Deepfake

Suara Palsu, Uang Asli

Bayangkan jika Anda menerima telepon panik dari orang yang Anda cintai yang meminta uang tebusan. Pada kenyataannya, AI menggunakan sampel dari media sosial untuk menghasilkan tanda tangan vokal yang tepat. 

Menurut buletin IC3 FBI, kloning suara telah muncul sebagai alat baru untuk pemerasan dan penipuan keuangan. [2][5] Insiden panggilan "CEO palsu" yang menipu karyawan untuk mentransfer dana juga telah dilaporkan.

Jangan Pernah Khawatir AI Mendeteksi Teks Anda Lagi. Undetectable AI Dapat Membantu Anda:

  • Membuat tulisan dengan bantuan AI Anda muncul seperti manusia.
  • Bypass semua alat pendeteksi AI utama hanya dengan satu klik.
  • Gunakan AI dengan aman dan dengan percaya diri di sekolah dan tempat kerja.
Coba GRATIS

Contoh Kasus: Pada tahun 2023, seorang ibu di Arizona hampir saja tertipu ketika ia yakin mendengar suara isak tangis putrinya yang masih remaja dalam sebuah panggilan "penculikan" palsu. Untungnya, dia memverifikasi keamanan putrinya sebelum mengirimkan uang.

Video Deepfake dan Peniruan

Penjahat juga membuat panggilan video yang dibuat oleh AI yang menampilkan "CEO" atau "mitra bisnis" yang realistis, yang menginstruksikan karyawan untuk mengesahkan transfer dalam jumlah besar. Departemen Kehakiman (DOJ) memperingatkan bahwa panggilan video palsu ini sangat tidak dapat dipercaya, terutama di lingkungan kerja jarak jauh atau hibrida. [4][7]

Catatan Pemeriksaan Fakta:
Penegak hukum telah mengonfirmasi beberapa insiden tetapi belum mempublikasikan jumlah resmi kasus deepfake. Akan tetapi, contoh-contoh yang dilaporkan sejalan dengan peringatan FBI/DOJ yang konsisten mengenai "peningkatan tajam" dalam penggunaan teknologi deepfake untuk penipuan. [2][4][7]

3. Penyalahgunaan Media Sintetis dan Penyalahgunaan Media yang Dihasilkan oleh AI

Mengubah Gambar Tak Bersalah Menjadi Eksploitasi

  • Apa yang terjadi?
    Penjahat mengambil foto-foto jinak (dari media sosial atau lainnya) dan memanipulasinya menjadi materi yang eksplisit. Apa yang disebut "deepfake sextortion" ini tumbuh subur karena kemampuan AI untuk menghasilkan gambar atau video yang sangat meyakinkan. [5]
  • Korban Termasuk Anak di Bawah Umur
    FBI, dalam PSA tahun 2023, mencatat adanya peningkatan kasus sextortion di mana gambar anak di bawah umur diubah menjadi materi pornografi palsu. Pelaku kemudian mengancam akan membagikan atau mempublikasikan gambar-gambar palsu ini kecuali korban membayar atau memberikan konten seksual yang sebenarnya. [5]
  • Materi Pelecehan Seksual Anak (CSAM)
    DHS dan DOJ mengonfirmasi bahwa alat AI digunakan untuk membuat konten pelecehan seksual terhadap anak yang dibuat oleh AI. Pada bulan Agustus 2024, DOJ menangkap seseorang karena menggunakan AI untuk memproduksi pornografi anak. [6] Penegakan hukum menekankan bahwa "CSAM yang dihasilkan oleh AI tetaplah CSAM." 

Pengingat Pemeriksaan Fakta:
Sumber-sumber resmi dengan tegas menganggap CSAM yang dimanipulasi oleh AI sebagai tindakan ilegal. Data prevalensi yang tepat masih langka, tetapi berbagai tindakan penegakan hukum mengonfirmasi bahwa CSAM merupakan ancaman yang nyata dan terus berkembang.

4. Disinformasi dan Campur Tangan Politik yang Didorong oleh AI

  • Campur Tangan Pemilu 2.0
    Pada Juli 2024, DOJ membongkar peternakan bot rahasia Rusia yang menggunakan persona palsu yang disempurnakan dengan AI untuk menyebarkan disinformasi [4][7]. Akun-akun media sosial yang dibuat oleh AI ini mendorong narasi-narasi yang memecah belah dengan kecanggihan yang sulit dideteksi oleh filter otomatis.
  • Pengaruh Domestik dan Luar Negeri
    Direktur FBI Wray mencatat bahwa "AI generatif ... menurunkan penghalang untuk masuk" [1], sehingga lebih mudah bagi musuh asing dan kelompok domestik untuk membuat "berita palsu" yang masuk akal, memalsukan video, atau menyamar sebagai politisi.
  • Bukan Hanya Spam
    Konten ini dapat merusak kepercayaan publik, menimbulkan kebingungan selama pemilihan umum, atau mendorong skema keuangan yang berbahaya. [4][8] DHS mengklasifikasikan disinformasi yang digerakkan oleh AI sebagai kejahatan "yang didukung oleh dunia maya"-mengakui bahwa meskipun tidak melibatkan peretasan secara langsung, disinformasi ini mengeksploitasi platform digital untuk tujuan yang ilegal atau menipu.

Konteks Pemeriksaan Fakta:
DOJ telah mendokumentasikan dengan baik penghapusan "peternakan bot". [4][7] Peneliti keamanan independen menguatkan bahwa pembuatan persona yang dihasilkan oleh AI sedang meningkat. Namun, badan-badan resmi jarang merilis metrik yang tepat (misalnya, "30% disinformasi sekarang berbasis AI"). Sebaliknya, mereka berfokus pada publikasi keseriusan dan kecanggihan kampanye-kampanye ini.

5. Ancaman yang Muncul: Malware dan Peretasan Berbantuan AI

WormGPT dan Selanjutnya

Di forum-forum bawah tanah, para penjahat menggembar-gemborkan model-model AI-seperti "WormGPT"-yang disetel dengan baik untuk menulis malware. DHS memperingatkan bahwa alat ini "mengisi kesenjangan pengetahuan seperti pengkodean komputer," sehingga memungkinkan peretas yang relatif tidak terampil untuk melancarkan serangan tingkat lanjut [8]. Meskipun malware yang ditulis oleh AI dalam skala besar masih terbatas, para ahli memperkirakan bahwa hal ini akan menjadi perhatian utama di masa mendatang.

Malware Adaptif?

Para peneliti keamanan telah menunjukkan bahwa malware yang digerakkan oleh AI dapat mengubah kodenya ("polimorfisme") untuk menghindari deteksi antivirus. DHS juga berteori tentang malware "belajar mandiri" yang secara mandiri menguji eksploitasi baru, tetapi contoh di dunia nyata masih jarang terjadi pada tahun 2024. [8]

Catatan Pemeriksaan Fakta:
Sebagian besar serangan tingkat tinggi (seperti ransomware) masih mengandalkan metode konvensional, tetapi FBI, NSA, dan para ahli keamanan siber melihat tanda-tanda bahwa AI semakin menjadi bagian dari persenjataan penjahat siber. Nantikan lebih banyak perkembangan - dan mungkin lebih banyak statistik resmi - pada tahun 2025.

Dampak & Statistik Utama (Diperiksa Fakta)

  1. Keluhan Kejahatan Dunia Maya Secara Keseluruhan
    • IC3 FBI menerima lebih dari 880.000 pengaduan kejahatan siber pada tahun 2023, dengan kerugian yang dilaporkan melebihi $12,5 miliar-sebesar 22% peningkatan kerugian dari tahun 2022. [3]
    • Meskipun porsi pasti yang melibatkan AI tidak terlacak, para ahli percaya bahwa realisme AI mendorong tingkat keberhasilan yang lebih tinggi dalam penipuan phishing, BEC, dan peniruan. [2][3]
  2. Kompromi Email Bisnis (BEC)
    • Tetap menjadi salah satu bentuk kejahatan siber yang paling mahal, melebihi $2,9 miliar dalam kerugian yang dilaporkan pada tahun 2023. [3] Peran AI? Email yang lebih halus, pelokalan yang lebih baik, dan terkadang memalsukan panggilan atau video.
  3. Pemalsuan Seksual yang mendalam
    • FBI tidak mempublikasikan jumlah pasti insiden pemerkosaan berbasis deepfake, tetapi "beberapa laporan baru setiap bulannya" telah muncul. [5]
    • Dampak terhadap korban: Penghinaan pribadi, pemerasan finansial, dan trauma emosional.
  4. Operasi Disinformasi
    • DOJ mengganggu peternakan bot Rusia yang didukung oleh AI pada Juli 2024 [4][7]. Badan-badan federal menekankan ancaman disinformasi yang disebarkan oleh AI terhadap pemilihan umum dan proses demokrasi di AS.
  5. Cek Fakta tentang Mitos "Ekonomi Terbesar Ketiga"
    • Beberapa berita utama media membandingkan biaya kejahatan siber global dengan PDB negara-negara besar, tetapi $10-12 miliar kerugian tahunan yang dilaporkan di AS jelas bukan dalam skala itu [3]. Para analis memperkirakan dampak ekonomi global dari kejahatan siber dapat mencapai triliunan, yang secara teoritis menempatkannya di antara negara-negara ekonomi teratas jika kita memasukkan semua biaya tidak langsung.
  6. Konteks "Satu dari Lima Kejahatan Online"
    • Di beberapa wilayah tertentu, sekitar 20-251 triliun kejahatan yang dilaporkan sekarang terkait dengan dunia maya. Angka ini tidak selalu berlaku di seluruh dunia, tetapi menyoroti peningkatan jumlah kejahatan digital.

Penegakan Hukum dan Respons Kebijakan

  1. Sikap DOJ yang Lebih Keras
    • Wakil Jaksa Agung Lisa Monaco menjanjikan "hukuman yang lebih berat" bagi penjahat yang mengeksploitasi AI untuk memperkuat pelanggaran-memperlakukan AI sebagai faktor yang memberatkan dalam penipuan, eksploitasi anak, dan banyak lagi. [6]
  2. Satuan Tugas AI Keamanan Dalam Negeri
    • DHS memperluas upaya untuk mendeteksi penipuan yang digerakkan oleh AI, mengelola deteksi deepfake, dan melindungi anak di bawah umur dari eksploitasi yang dilakukan oleh AI. [8] DHS juga mengeksplorasi cara menggunakan AI untuk pertahanan, memindai jaringan untuk mencari anomali.
  3. Kepatuhan Perusahaan
    • DOJ sekarang meminta perusahaan untuk menunjukkan bagaimana mereka menangani risiko AI dalam program kepatuhan mereka. Kegagalan untuk mencegah karyawan menyalahgunakan AI, atau mengabaikan kerentanan keamanan AI, dapat meningkatkan tanggung jawab perusahaan. [6]
  4. Kampanye Kesadaran Publik
    • FBI, FCC, dan FTC semuanya meluncurkan peringatan kepada konsumen tentang penipuan "kakek-nenek" berbasis AI dan panggilan penculikan palsu. Pesannya? Selalu verifikasi panggilan atau pesan yang mencurigakan-melihat (atau mendengar) tidak lagi dipercaya di era AI. [2][5]

561 Juta Orang Amerika Mengatakan Mereka Khawatir Tentang AI yang Berbahaya

Pada bulan November 2024, Undetectable AI mensurvei 1.000 orang Amerika di seluruh Amerika Serikat. [9] Para responden, yang berusia 18 hingga 27 tahun, mengindikasikan bahwa 23% percaya bahwa AI menimbulkan ancaman eksistensial bagi umat manusia, 18% mengungkapkan kekhawatiran tentang penggunaan data atau privasi data yang melanggar hukum, dan 15% mengkhawatirkan teknologi AI yang digunakan untuk membuat deepfakes.

Melihat ke Depan: 2025 dan Selanjutnya

Meskipun data keras yang terbatas tentang prevalensi serangan yang digerakkan oleh AI, trennya jelas: AI menurunkan hambatan bagi penjahat, memungkinkan penipuan yang lebih realistis, dan mengintensifkan disinformasi. Sementara itu, para pembela - penegak hukum, pakar keamanan siber, dan regulator - semakin meningkat. Harapan:

  • Lebih banyak AI dalam Pertahanan: Alat untuk forensik deepfake, filter phishing berbasis AI, dan deteksi anomali dalam jaringan.
  • Pengawasan Regulasi yang Diperluas: DOJ, SEC, dan lainnya kemungkinan akan menindak lebih lanjut penyalahgunaan AI, menjatuhkan hukuman yang lebih berat kepada individu atau organisasi yang memfasilitasi kejahatan terkait AI.
  • Kerja Sama Internasional yang Lebih Luas: Kejahatan siber tidak mengenal batas, dan operasi bersama-seperti pemblokiran peternakan bot Rusia oleh DOJ pada Juli 2024-akan semakin sering dilakukan.

Kesimpulan: Pengganda Kekuatan untuk Kejahatan Dunia Maya

Tema utama yang muncul dari sumber resmi dan analisis para ahli adalah bahwa AI meningkatkan metode kejahatan siber yang sudah ada. Mulai dari phishing yang sangat realistis hingga panggilan suara "CEO palsu", para penjahat menggunakan AI generatif untuk meningkatkan tingkat keberhasilan mereka secara signifikan-dan untuk mengeksploitasi korban yang dulunya hanya mengandalkan "pemeriksaan naluri" sederhana (salah eja, aksen yang salah, dan sebagainya) untuk mengenali penipuan.

Tetap Waspada dan Terinformasi

Kesadaran dan verifikasi publik sangat penting dalam lingkungan yang berkembang pesat ini. Apakah Anda seorang eksekutif C-suite yang menerima permintaan telepon di menit-menit terakhir, seorang pensiunan yang menerima telepon dari "cucu yang sedang mengalami krisis", atau pengguna media sosial yang dihadapkan pada video sensasional dari seorang politisi, ingatlah: jika ada sesuatu yang terasa janggal, lakukan verifikasi. AI berarti para penjahat dapat meniru orang sungguhan atau menciptakan ilusi dengan akurasi yang mengejutkan.

Metodologi

Kami melakukan penelitian ini dengan memeriksa sumber-sumber resmi pemerintah, (seperti dokumen yang diterbitkan dari Departemen Kehakiman dan Laporan Tahunan Kejahatan Internet IC3). Kami juga memeriksa komentar dan liputan pihak ketiga yang tepercaya tentang ancaman kejahatan siber yang muncul terkait kecerdasan buatan. Kami juga mensurvei lebih dari 1000 koresponden di Amerika Serikat untuk memahami kekhawatiran mereka tentang AI. Terakhir, kami memeriksa fakta dalam laporan ini untuk menjamin bahwa semua sumber yang dikutip adalah akurat dan terkini.

Penggunaan Wajar

Anda dipersilakan dan dianjurkan untuk menampilkan data ini dalam cerita atau artikel. Pastikan untuk memberikan atribusi ke Undetectable AI dan menyertakan tautan ke halaman ini sehingga pembaca dapat melihat laporan lengkapnya.

Referensi

  1. FBI: Bersiaplah untuk Tahun Pemilu yang Penuh Ancaman, Didukung oleh Orang Jahat dengan AI - Pertahanan Satu
  2. FBI Memperingatkan Meningkatnya Ancaman Penjahat Siber yang Memanfaatkan Kecerdasan Buatan (8 Mei 2024)
  3. Pusat Pengaduan Kejahatan Internet (IC3) - Laporan Kejahatan Internet 2023 & ILM Terkait
  4. Kantor Urusan Publik | Departemen Kehakiman Memimpin Upaya... untuk Mengacaukan Peternakan Bot Media Sosial Terselubung yang Dioperasikan Pemerintah Rusia (9 Juli 2024)
  5. Pusat Pengaduan Kejahatan Internet (IC3) | PSA: Pelaku Kejahatan Memanipulasi Foto dan Video untuk Membuat Konten Eksplisit dan Skema Pemerasan (5 Juni 2023)
  6. Seorang Pria Ditangkap karena Memproduksi, Mendistribusikan, dan Memiliki Gambar Anak di Bawah Umur yang Dihasilkan oleh AI yang Terlibat dalam Perilaku Seksual Eksplisit
  7. DOJ & Mitra Mengacaukan Bot Farm Rusia - Rincian Penegakan Hukum (Juli 2024)
  8. DHS: "Dampak Kecerdasan Buatan terhadap Kegiatan Kriminal dan Terlarang" (27 September 2024) 
  9. Survei 2024 Dilakukan Oleh AI yang Tidak Terdeteksi

Hak Cipta © 2023 Code Blog Pro. Semua Hak Cipta Dilindungi Undang-Undang