• 최종편집 : 2019.9.23 월 09:32
상단여백
HOME 산업/경제 신기술/신산업
[해외는] 상사 목소리 합성 사기…‘AI 보이싱피싱’ 첫 피해 발생
김미정 기자 | 승인 2019.09.08 23:12

인공지능(AI)를 활용한 보이스피싱 피해 사건이 실제로 일어나 주목을 끈다.

기술정보 전문매체인 기가진은 세계 최초로 AI로 만들어진 음성합성에 의한 사기 피해가 발생했다고 소개하고 그 피해액이 24만3000만 달러(약 2억8500만 원)에 달하는 것으로 밝혀졌다고 전했다.

피해를 입은 기업의 보험사인 외러 에르메스(Euler Hermes)에 따르면 그 기업의 매니저는 사건 당일 오후에 상사로부터 한 통의 전화를 받았다. 전화 속 상사의 목소리는 “지불 지연에 따른 추가요금을 지불하기 위해 헝가리의 은행계좌에 송금할 것” “전화를 하면서 메일로 명세를 송신할 것”을 지시했다. 그런데 이 목소리는 상사를 재현한 합성음성이였다. 합성음성은 음색만 같은 것이 아니고 목소리의 상태나 말버릇도 같고 심지어 독일어 사투리까지 똑같이 재현했다.

첫 번째 송금을 끝낸 직후, 다시 상사의 목소리 전화가 다시 걸려와, 그것을 수상하게 여긴 담당 매니저는 본인이 직접 상사에게 다시 전화를 걸었다. 매니저가 외러 에르메스 앞으로 보낸 메일에는 “내가 진짜 상사와 얘기를 하고 있는 동안에도 합성음성의 상사는 계속 얘기를 했다”고 적혀 있다.

최근 몇 년, 실제 인물에 영상이나 음성을 합성하는 AI 기술이 고도로 발달돼 왔다. 2017년에는 유명 여배우의 얼굴을 합성한 페이크 포르노가 화제가 됐고, 그것을 계기로 딥페이크(Deepfake)로 불리는 합성기술이 발전해 왔다. 지난달 말 중국에서는 한 장의 얼굴 사진에서 간단하게 딥페이크 영상을 만들어내는 앱 ‘ZAO’가 선보여 큰 관심을 끌었다.

그러나 다른 한편으로는 팁페이크 기술 발전에 대한 우려도 제기되고 있다. 무엇보다도 프라이버시 침해 가능성을 제기하는 목소리가 크다. 합성 영상을 악용한 가짜뉴스의 확산으로 진진과 거짓의 분별이 어려워지는 위험성도 지적된다.

김미정 기자  skenews@skenews.kr

<저작권자 © 산경e뉴스, 무단 전재 및 재배포 금지>

김미정 기자의 다른기사 보기
icon인기기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
여백
여백
신문사소개기사제보광고문의불편신고개인정보취급방침청소년보호정책이메일무단수집거부
(우 02531) 서울시 동대문구 사가정로6 청계지웰오피스텔 4층   |  대표전화 : 02)564-3300  |  팩스 : 02)564-0090
등록번호 : (인터넷 일간) 서울 아-03195 · (주간) 서울 다-10847  |  발행인 : 이만섭
발행처 : (주)산경이뉴스신문사  |  편집국장 : 박종만  |  등록일 : 2014년 6월17일  |  발행일 : 2014년 6월18일
회계고문 : 김영수 회계사  |  특허고문 : 김연환 변리사  |  법률고문 : 이강혁 변호사
Copyright © 2019 ㈜산경이뉴스신문사. All rights reserved.
Back to Top