제2차 세계대전 중 독일은 알베르트 아인슈타인의 상대성 이론(E=mc²)으로 원자폭탄을 만들려 했다. 아인슈타인은 프랭클린 루스벨트 당시 미국 대통령에게 먼저 무기를 만들어 독일을 막아야 한다고 편지를 썼다. 미국이 먼저 만들면 독일이 포기할 것이라는 생각에서다. 그런데 미국은 전쟁을 끝내기 위해 원자폭탄을 만들어 일본에 투하했다. 아인슈타인은 자신의 연구가 인명 살상에 사용됐다는 죄책감에 핵무기 폐기 운동에 힘쓰기도 했다.아인슈타인의 이 일화는 과학기술이 과학자의 의도와 달리 인류에 해를 끼치는 결과를 초래한 사례로 자주 등장한다. 최근에는 '문명의 이기'로 손꼽히는 인공지능(AI)이 전쟁에 활용돼 새로운 딜레마로 떠오르고 있다. 미국·이스라엘이 이란의 주요 군사시설을 기습 공격해 최고지도자인 아야톨라 알리 하메네이 등 핵심 지도부를 제거했다. 공격 개시 전 이란 지도부 동선을 비롯한 현지 상황, 미사일 저장시설 파악 등에 AI가 깊숙이 관여한 정황들이 나오고 있다.AI가 미국 중앙정보국(CIA)과 이스라엘의 정보기관 모사드가 수집한 휴민트(인적 정보)와 각종 감시 시스템 자료, 사전 확보된 비밀 문건 등 방대한 정보와 데이터를 분석하고 다양한 시나리오를 제시하는데 결정적 역할을 했다는 것이다. 실제로 미국 국방부는 오픈AI 출신 연구원들이 만든 생성형 AI 기업 앤트로픽의 AI 서비스 클로드를 기습 공격 계획 단계는 물론 다양한 정보 소스를 분석하는 데 사용했다고 외신이 전했다. 이란 최고지도부 회의 장소, 미사일 저장소 등 핵심 타깃 선정과 공격 우선순위 결정에도 활용됐다는 것이다.미국과 대립하고 있는 중국 내부에서는 미국이 AI를 활용해 이란 공격에 나선 것으로 알려지자 AI 군사화에 박차를 가해야 한다는 요구가 분출하고 있다고 한다. 인간의 삶에 도움을 주기 위해 개발된 AI가 인명을 앗아가는 군사작전에 폭넓게 쓰일 가능성은 더 커질 전망이다. 아인슈타인의 상대성 이론이 원자폭탄을 세상에 태어나게 한 것처럼 AI가 '전쟁의 이기'로 사용돼 많은 사람의 목숨을 빼앗아 간다면 AI를 원망해야 할까, AI를 활용한 인간을 탓해야 할까? 먼 미래가 아닌 지금 걱정스런 눈으로 중동을 바라보는 우리 앞에 던져진 질문이다. 연합