인공지능(AI)의 활용이 폭발적으로 늘어나면서, 테러 조직들이 이를 악용하는 사례가 갈수록 정교해지고 있다. 유엔과 각국 안보 기관의 최신 보고서에 따르면 ISIS와 알카에다 등 극단주의 단체들은 생성형 AI를 활용한 선전 방송, 모집 활동, 사이버 공격에 이르기까지 다양한 전술을 실험에서 실용 단계로 전환하고 있다.
구체적 사례로는 2024년 등장한 ISIS의 AI 뉴스 프로그램 ‘News Harvest’가 대표적이다. AI로 합성된 가상의 앵커가 군복을 입고 테러 조직 성명을 발표하는 방송은 정기적으로 배포되고 있으며, 실제 테러 공격 직후 선전 도구로 활용된 경우도 보고됐다. 최근에는 인기 애니메이션 캐릭터의 음성을 딥페이크로 변조해 선전가를 부르는 방식까지 시도되며, 서구 대중문화와 테러 선동이 결합하는 새로운 위협 양상이 나타났다.
챗봇과 대형 언어 모델(LLM)의 악용도 문제로 떠올랐다. 테러 조직들은 ChatGPT와 유사한 모델을 기반으로 잠재 지지자와 24시간 개인화된 대화를 이어가며 점진적 급진화를 유도한다. 이는 실제 조직원 노출 없이도 모집 활동이 가능하다는 점에서 보안 당국에 큰 도전 과제를 던지고 있다.
무기화 측면에서도 AI는 빠르게 침투 중이다. 하마스와 헤즈볼라 등이 활용한 드론 공격은 이미 잘 알려진 사례지만, 얼굴 인식·차량 식별 기능이 탑재된 AI 드론은 정밀 타격과 자율 비행까지 가능하게 만들고 있다. 다수 드론이 군집 작전을 수행하는 ‘스웜 공격’ 시나리오도 현실적 위협으로 거론된다.
사이버 공격 역시 AI 기술로 한층 강화됐다. 국토안보부 보고서에 따르면 딥페이크 음성과 얼굴 합성은 생체 인증 시스템을 우회할 수 있는 수준에 근접했으며, AI 기반 스피어피싱은 기존 대비 수 배 높은 성공률을 기록했다. 실제로 구글은 2025년 상반기에만 테러 관련 딥페이크 신고가 250건을 넘어섰다고 밝혔다.
국제 사회의 대응도 속도를 높이고 있다. 유엔은 AI와 테러리즘의 결합이 초래할 위협을 “현재 진행형의 안보 위협”으로 규정하며, 국제 법적 기준 마련과 탐지 기술 개발의 시급성을 강조했다. 미국 의회에서는 ‘AI 테러리즘 위험 평가법(Generative AI Terrorism Risk Assessment Act)’이 발의돼, 매년 테러 조직의 AI 활용 수준을 평가하고 대응책을 보고하도록 했다.
전문가들은 AI 기술의 발전과 함께 테러 위협도 점점 더 정교해질 것이라고 전망한다. 따라서 단순한 기술적 차단을 넘어, 법·제도 정비, 플랫폼 기업과의 협력, 그리고 시민들의 미디어 리터러시 교육까지 종합적인 대응이 필요하다는 지적이다. 동양 고전의 경구처럼 “방미두점(防微杜漸, 미세한 것을 경계하고 뿌리째 막는다)”의 자세가 무엇보다 중요해지고 있다는 경고가 설득력을 얻고 있다.
















