"인공 지능은 사이버 범죄자들에게 성능 향상제와 같은 역할을 합니다. 중간 수준의 악당들을 효과적으로 레벨 업시킵니다." [1]
지난 한 해 동안 인공지능(AI)은 빠르게 발전하여 개인화된 검색부터 첨단 의료 진단에 이르기까지 모든 것을 뒷받침하고 있습니다. 하지만 기술이 발전하는 동안 사이버 범죄라는 어두운 현실이 다가오고 있습니다. 동일한 AI 혁신을 무기화하고 있습니다. 사기를 구체화하고, 피해자를 사칭하며, 불법 기업을 확대하는 데 사용됩니다.
FBI의 인터넷 범죄 신고 센터(IC3)부터 국토안보부(DHS)에 이르기까지 정부 기관은 AI 기반 사이버 범죄를 빠르게 성장하는 문제로 지적하고 있습니다. [2][8]
2024년에 AI가 사이버 범죄에 어떻게 사용되고 있는지에 대한 미국 정부의 조사 결과와 신뢰할 수 있는 제3자 분석을 조사했습니다. 출처 무서운 딥페이크 사기 강력한 피싱 캠페인데이터와 사실 확인을 통해 알아본 내용을 소개합니다.
주요 요점:
- AI는 모든 사이버 공격의 원인 중 하나이지만 유일한 원인은 아닙니다. 전통적인 해킹은 여전히 대규모로 지속되고 있습니다.
- 딥페이크 사칭은 더 이상 공상 과학 소설이 아니라 지금 일어나고 있습니다.
- AI를 이용한 성착취물 및 아동 성착취물 생성은 법 집행 기관과 아동 보호 기관의 시급한 우선 과제입니다.
- 허위 정보는 국가 안보에 위협이 되고 있으며, AI는 더 믿을 만한 가짜 인물과 내러티브를 만들어내고 있습니다.
- 법무부와 FBI가 AI를 이용한 범죄를 더욱 엄중하게 다룰 것을 다짐함에 따라 더욱 엄격한 법 집행이 곧 시작될 예정입니다.
- 설문조사에 참여한 미국인의 561TP6%는 딥페이크, 인간의 생명에 위협이 되는 AI 또는 불법적인 사용에 대해 우려하고 있다고 답했습니다. [9]*
1. AI로 강화된 피싱 및 소셜 엔지니어링
설득력 있는 피싱의 새로운 시대
- 무슨 일인가요?
범죄자들은 생성 AI를 사용하여 완벽하고 개인화된 피싱 이메일과 문자를 제작합니다. 웃어넘길 수 있는 문법 오류의 시대는 지났습니다. 이제 이러한 이메일은 세련되고 타깃이 명확하게 설정되어 있어 경계를 늦추지 않는 수신자조차 속일 수 있습니다. [2][3] - 공식 경고
FBI의 샌프란시스코 지부는 "고도로 표적화된 피싱 캠페인을 조율하기 위해 AI 기반 도구를 사용하는 사이버 범죄자들의 위협이 증가하고 있다"고 경고합니다. [2] 2024년에 IC3는 피싱 관련 손실이 지속적으로 증가하고 있다고 보고했지만, 얼마나 많은 피해가 AI에 의한 것인지에 대한 정확한 집계는 제공하지 않았습니다. [3] 그러나 질적으로 조사자들은 일반적인 위험 신호를 우회하는 보다 정교한 피싱 시도가 눈에 띄게 증가하고 있다고 보고 있습니다. - 팩트체크 하이라이트
피싱에 대한 불만이 전반적으로 급증하고 있지만, FBI는 AI로 인한 정확한 비율을 발표하지 않았습니다. 대신 AI로 강화된 사기의 현실감과 성공률이 점점 높아지고 있다는 점을 강조하고 있습니다. 이는 정확한 수치를 파악하기 어렵더라도 실제 위협이 존재한다는 것을 보여주는 대표적인 예입니다.
기업 및 개인에게 미치는 영향
- 비즈니스 이메일 침해(BEC):
AI는 사기범들이 경영진 이메일을 복제하거나 여러 언어로 메시지를 맞춤화할 수 있도록 도와주어 BEC 사기의 성공률을 높여줍니다. FBI에 따르면 2023년에 BEC 사기로 인한 손실은 1조 7,290억 달러를 넘어섰으며, 2024년에는 이보다 더 늘어날 것으로 예상되지만 아직 AI의 비중은 모니터링 중입니다. [3] - 개인적 손실:
사람들은 잘 만들어진 가짜 은행 알림이나 가슴이 아플 정도로 진짜처럼 보이는 '로맨스 스캠' 문자에 직면합니다. 이로 인해 자격 증명 도용, 은행 계좌 도용, 신원 도용이 발생하고 있습니다[2]. 범죄자들은 목소리를 복제하거나 간병인 같은 메시지를 만들어낼 수 있기 때문에 노인은 특히 취약합니다.
2. 딥페이크 사칭 및 사기
가짜 목소리, 진짜 돈
사랑하는 사람의 목소리로 몸값을 달라고 애원하는 전화를 받는다고 상상해 보세요. 현실입니다, AI는 소셜 미디어의 샘플을 사용하여 정확한 보컬 시그니처를 생성했습니다.
FBI의 IC3 게시판에 따르면 음성 복제는 갈취와 금융 사기를 위한 새로운 도구로 부상했습니다. [2][5] 직원들을 속여 자금을 송금하도록 유도하는 '가짜 CEO' 전화 사건도 보고되었습니다.
다시는 AI가 내 문자를 감지할까 걱정하지 마세요. Undetectable AI 도움을 드릴 수 있습니다:
- AI 지원 글쓰기 표시하기 사람처럼.
- 바이패스 클릭 한 번으로 모든 주요 AI 탐지 도구를 사용할 수 있습니다.
- 사용 AI 안전하게 그리고 자신 있게 학교와 직장에서
주요 사례: 2023년, 애리조나의 한 어머니는 가짜 '납치' 전화를 받은 10대 딸의 흐느끼는 목소리를 듣고 사기를 당할 뻔했습니다. 다행히도 그녀는 돈을 송금하기 전에 딸의 안전을 확인했습니다.
딥페이크 동영상 및 사칭
범죄자들은 또한 실제 'CEO' 또는 '비즈니스 파트너'가 등장하는 AI 생성 영상 통화를 제작하여 직원들에게 거액의 이체를 승인하도록 지시합니다. 법무부(DOJ)는 이러한 딥페이크 영상 통화는 특히 원격 또는 하이브리드 업무 환경에서는 믿을 수 없을 정도로 신뢰할 수 있다고 경고합니다. [4][7]
팩트체크 참고 사항:
법 집행 기관은 여러 건의 사건을 확인했지만 공식적인 딥페이크 사례 수를 발표하지는 않았습니다. 그러나 보고된 사례는 사기에 딥페이크 기술을 사용하는 사례가 "급격히 증가하고 있다"는 FBI/DOJ의 일관된 경고와 일치합니다. [2][4][7]
3. 인공지능으로 생성된 성착취물 및 합성 미디어 남용
선량한 이미지를 악용하는 행위
- 무슨 일인가요?
범죄자들은 소셜 미디어 등에서 멀쩡한 사진을 찍어 음란물로 조작합니다. 이른바 '딥페이크 섹스토션'이라고 불리는 이 수법은 놀라울 정도로 그럴듯한 이미지나 동영상을 생성하는 AI의 능력으로 성공을 거두고 있습니다. [5] - 미성년자를 포함한 피해자
FBI는 2023년 PSA에서 미성년자의 사진을 가짜 음란물로 바꿔치기하는 성착취 사건이 증가하고 있다고 지적했습니다. 범죄자들은 피해자가 돈을 지불하거나 실제 성적 콘텐츠를 제공하지 않으면 이러한 조작된 이미지를 공유하거나 게시하겠다고 협박합니다. [5] - 아동 성적 학대 자료(CSAM)
DHS와 법무부는 AI 도구가 아동 성학대 콘텐츠를 제작하는 데 사용되고 있음을 확인했습니다. 2024년 8월, 법무부는 아동 포르노를 제작하는 데 AI를 사용한 혐의로 한 개인을 체포했습니다. [6] 법 집행 기관은 "AI가 생성한 CSAM도 여전히 CSAM"이라고 강조합니다.
팩트 체크 알림:
공식적인 출처에서는 인공지능으로 조작된 CSAM을 명백히 불법으로 취급하고 있습니다. 정확한 유병률 데이터는 부족하지만 여러 단속 조치를 통해 실제 위협이 증가하고 있음을 확인할 수 있습니다.
4. 인공지능에 의한 허위 정보 및 정치적 간섭
- 선거 개입 2.0
2024년 7월, 법무부는 AI로 강화된 가짜 페르소나를 사용하여 허위 정보를 퍼뜨리는 러시아의 비밀 봇 농장을 차단했습니다[4][7]. 이러한 AI로 생성된 소셜 미디어 계정은 자동화된 필터가 탐지하기 어려운 정교함으로 분열적인 내러티브를 퍼뜨렸습니다. - 국내 및 해외 영향력
FBI의 레이 국장은 "생성형 AI는 진입 장벽을 낮춰"[1] 해외 공격자와 국내 단체 모두 그럴듯한 '가짜 뉴스'나 딥페이크 동영상을 제작하거나 정치인을 사칭하는 것이 더 쉬워졌다고 지적합니다. - 단순한 스팸이 아닙니다
이러한 콘텐츠는 대중의 신뢰를 약화시키고 선거 기간 동안 혼란을 야기하거나 악의적인 금융 사기를 조장할 수 있습니다. [4][8] DHS는 AI 기반 허위 정보를 '사이버 활용' 범죄로 분류하는데, 이는 직접적인 해킹을 수반하지는 않지만 불법적이거나 기만적인 목적을 위해 디지털 플랫폼을 악용한다는 점을 인식하고 있습니다.
팩트 체크 컨텍스트:
법무부는 '봇 농장'에 대해 잘 문서화했습니다. [4][7] 독립 보안 연구자들은 AI에 의한 페르소나 생성이 증가하고 있다는 사실을 입증하고 있습니다. 그러나 공식 기관은 정확한 지표를 거의 공개하지 않습니다(예: "30%의 허위 정보가 현재 AI 기반입니다"). 대신 이러한 캠페인의 심각성과 정교함을 알리는 데 주력합니다.
5. 새로운 위협: AI 지원 멀웨어 및 해킹
WormGPT와 그 너머
범죄자들은 지하 포럼에서 멀웨어 작성에 적합하도록 미세 조정된 "WormGPT"와 같은 AI 모델을 선전하고 있습니다. DHS는 이러한 도구가 "컴퓨터 코딩과 같은 지식 격차를 메워" 상대적으로 숙련되지 않은 해커가 지능형 공격을 실행할 수 있게 해준다고 경고합니다[8]. 대규모 AI로 작성된 멀웨어는 아직 제한적이지만, 전문가들은 앞으로 주요 관심사가 될 것이라고 예측합니다.
적응형 멀웨어?
보안 연구자들은 AI 기반 멀웨어가 바이러스 백신 탐지를 피하기 위해 코드를 변형("다형성")할 수 있다는 사실을 입증했습니다. DHS는 또한 새로운 익스플로잇을 자율적으로 테스트하는 '자가 학습' 멀웨어에 대한 이론을 제시했지만, 2024년에도 실제 사례는 드물다고 합니다. [8]
팩트체크 참고 사항:
랜섬웨어와 같은 대부분의 유명한 공격은 여전히 기존의 방식에 의존하고 있지만, FBI, NSA, 사이버 보안 전문가들은 AI가 사이버 범죄자들의 무기고에 점점 더 많이 사용되고 있다는 징후를 발견하고 있습니다. 2025년까지 더 많은 발전과 공식적인 통계가 나올 것으로 예상됩니다.
영향 및 주요 통계(사실 확인)
- 전체 사이버 범죄 불만 사항
- FBI의 IC3는 2023년에 88만 건 이상의 사이버 범죄 신고를 접수했으며, 신고된 손실액은 1조 7천 125억 달러로 2022년에 비해 221% 증가했습니다. [3]
- AI와 관련된 정확한 비중은 추적되지 않았지만, 전문가들은 AI의 현실감으로 인해 피싱, BEC, 사칭 사기의 성공률이 높아진다고 보고 있습니다. [2][3]
- 비즈니스 이메일 침해(BEC)
- 2023년에 보고된 손실액이 1조 7,290억 달러를 넘어서는 가장 비용이 많이 드는 사이버 범죄 중 하나로 남아 있습니다. [3] AI의 역할은? 더 세련된 이메일, 더 나은 현지화, 때때로 딥페이크 통화나 동영상.
- 딥페이크 섹스토션
- FBI는 딥페이크 기반 성착취 사건에 대한 명확한 집계는 발표하지 않지만, "매달 여러 건의 새로운 보고"가 등장하고 있습니다. [5]
- 피해자 영향: 개인적 굴욕감, 금전적 갈취, 정서적 트라우마.
- 허위 정보 작전
- 법무부는 2024년 7월에 AI로 구동되는 러시아 봇 농장을 중단시켰습니다[4][7]. 연방 기관은 미국 선거와 민주적 절차에 대한 AI로 전파된 허위 정보의 위협을 강조합니다.
- '세계 3위 경제대국' 신화에 대한 팩트체크
- 일부 언론에서는 전 세계 사이버 범죄 비용을 주요 국가의 GDP와 비교하지만, 미국에서 보고된 연간 손실 규모는 그 정도에 미치지 못합니다[3]. 분석가들은 사이버 범죄로 인한 전 세계 경제적 영향이 수조 달러에 달할 것으로 추정하며, 간접 비용까지 포함하면 이론적으로 세계 경제에 미치는 영향이 가장 큰 국가 중 하나로 꼽힙니다.
- "온라인 범죄 5건 중 1건" 맥락
- 특정 지역에서는 보고된 범죄의 약 20~25%가 사이버 관련 범죄입니다. 이 수치가 반드시 전 세계적으로 적용되는 것은 아니지만 전체 범죄에서 디지털 범죄가 차지하는 비중이 증가하고 있음을 보여줍니다.
법 집행 및 정책 대응
- 법무부의 강경한 입장
- 리사 모나코 법무부 차관은 AI를 사기, 아동 착취 등의 범죄를 확대하는 데 악용하는 범죄자들에게 "더 엄격한 형량"을 선고할 것을 약속했습니다. [6]
- 국토안보부 AI 태스크포스
- DHS는 AI 기반 사기를 탐지하고, 딥페이크 탐지를 관리하며, AI로 인한 악용으로부터 미성년자를 보호하기 위한 노력을 확대하고 있습니다. [8] 또한 네트워크에서 이상 징후를 스캔하여 방어에 AI를 사용하는 방법도 모색하고 있습니다.
- 기업 규정 준수
- 법무부는 이제 기업들에게 규정 준수 프로그램에서 AI 위험을 어떻게 처리하는지 보여줄 것을 요구하고 있습니다. 직원이 AI를 오용하는 것을 방지하지 못하거나 AI 보안 취약점을 무시하면 기업의 책임이 커질 수 있습니다. [6]
- 대중 인식 제고 캠페인
- FBI, FCC, FTC는 모두 AI 기반 '조부모' 사기 및 딥페이크 납치 전화에 대한 소비자 경보를 발령했습니다. 메시지는? 의심스러운 전화나 메시지는 항상 확인하세요. AI 시대에는 더 이상 보이는 것(또는 들리는 것)만을 믿어서는 안 됩니다. [2][5]
미국인 561TP6%는 유해한 AI에 대해 걱정한다고 답했습니다.
2024년 11월, 언디텍터블 AI는 미국 전역의 미국인 1,000명을 대상으로 설문조사를 실시했습니다. [9] 18세에서 27세 사이의 응답자 중 231명은 AI가 인류에게 실존적 위협이 된다고 생각했고, 181명은 데이터의 불법적인 사용이나 데이터 프라이버시에 대해 우려를 표명했으며, 151명은 딥페이크 제작에 사용되는 AI 기술에 대해 우려를 표명했습니다.
미래 전망: 2025년과 그 이후
AI 기반 공격의 정확한 확산에 대한 명확한 데이터는 제한적이지만, AI가 범죄자들의 장벽을 낮추고, 보다 현실적인 사기를 가능하게 하며, 허위 정보를 강화하는 추세는 분명합니다. 한편, 법 집행 기관, 사이버 보안 전문가, 규제 당국 등 방어자들도 이에 대한 대응을 강화하고 있습니다. 기대하세요:
- 더 많은 방어용 AI: 딥페이크 포렌식, AI 기반 피싱 필터, 네트워크의 이상 징후 탐지를 위한 도구.
- 규제 감독 확대: 법무부, SEC 등은 AI 오용에 대한 단속을 강화하여 AI 관련 범죄를 조장하는 개인이나 조직에 더 무거운 처벌을 부과할 가능성이 높습니다.
- 광범위한 국제 협력: 사이버 범죄는 국경이 없으며, 2024년 7월 법무부의 러시아 봇 농장에 대한 압수수색과 같은 공동 작전이 더욱 빈번해질 것입니다.
결론 사이버 범죄를 위한 힘의 배율
공식 소식통과 전문가 분석을 통해 드러나는 핵심 주제는 AI가 기존의 사이버 범죄 수법을 강화한다는 것입니다. 초현실적인 피싱부터 '가짜 CEO' 음성 통화까지, 범죄자들은 제너레이티브 AI를 사용하여 사기 성공률을 크게 향상시키고, 단순한 '직감'(철자 오류, 억양이 다른 등)에 의존하던 피해자들을 악용하여 사기를 적발하고 있습니다.
경계 및 정보 유지
이처럼 빠르게 성장하는 환경에서는 대중의 인식과 검증이 매우 중요합니다. 급한 연락을 받는 최고 경영진이든, '위기에 처한 손주'의 전화를 받는 은퇴자든, 선정적인 정치인 동영상을 접한 소셜 미디어 사용자든, 뭔가 이상하다고 느껴지면 반드시 확인해야 합니다. AI는 범죄자들이 실제 사람을 흉내 내거나 놀라울 정도로 정확하게 착각을 일으킬 수 있다는 것을 의미합니다.
방법론
법무부에서 발행한 문서와 연례 IC3 인터넷 범죄 연례 보고서 등 정부의 공식 자료를 조사하여 이 연구를 수행했습니다. 또한 신뢰할 수 있는 제3자의 논평과 인공지능과 관련된 새로운 사이버 범죄 위협에 대한 보도도 조사했습니다. 또한 미국 내 특파원 1,000여 명을 대상으로 인공지능에 대한 우려를 파악하기 위해 설문조사를 실시했습니다. 마지막으로, 이 보고서에 인용된 모든 출처의 정확성과 최신성을 보장하기 위해 사실 확인을 거쳤습니다.
공정 사용
이 데이터를 스토리나 기사에 소개하는 것을 환영하며 권장합니다. 독자들이 보고서 전문을 볼 수 있도록 반드시 '탐지 불가능한 AI'에 대한 출처를 명시하고 이 페이지로 연결되는 링크를 포함하시기 바랍니다.
참조
- FBI: FBI: AI를 이용한 악당들의 위협이 급증하는 선거 시즌에 대비하세요. 디펜스 원
- FBI, 인공 지능을 활용하는 사이버 범죄자의 위협 증가 경고 (2024년 5월 8일)
- 인터넷 범죄 신고 센터(IC3) - 2023년 인터넷 범죄 신고 및 관련 PSA
- 공보실 | 법무부, 러시아 정부가 운영하는 은밀한 소셜 미디어 봇 농장을 방해하기 위한 노력 주도 (2024년 7월 9일)
- 인터넷 범죄 신고 센터(IC3) | PSA: 사진과 동영상을 조작하여 음란 콘텐츠와 성착취물을 제작하는 악의적인 행위자(2023년 6월 5일)
- 성적으로 노골적인 행위를 하는 미성년자의 AI 생성 이미지를 제작, 배포 및 소지한 혐의로 체포된 남성
- 법무부 및 파트너, 러시아 봇 농장을 방해하다 - 시행 세부 사항(2024년 7월)
- DHS: "범죄 및 불법 활동에 대한 인공 지능의 영향"(2024년 9월 27일)
- 2024년 탐지 불가능한 AI로 실시되는 설문조사