핫이슈

보이스피싱 AI 피해사례 증가

오순도순 2023. 3. 7. 15:39
반응형

보이스피싱 AI는 인공지능 기술을 활용해서 사람의 목소리나 발화 방식을 모방해서 대상을 속이는 범죄 형태인데요. 최근 보이스피싱 AI 를 이용한 피해사례가 증가하고 있어요.

 


최근에 영국 더 타임스는 최근 인공지능(AI) 기술을 활용해 가족이나 친척 등 가까운 지인의 목소리를 위조해 보이스피싱에 사용하는 사기 기법이 등장하고 있다고 보도했어요. 캐나다 앨버타에 사는 벤저민 파커는 부모님이 자신의 목소리를 사칭한 보이스피싱 범죄 피해를 입은 케이스 중 한가지로, 이들이 목소리를 수집한 방법을 모르겠다면서도 AI 기술을 활용하게되면 단 몇 개의 문장만으로도 목소리를 위조할 수 있다고 말했어요.

 


보이스피싱 AI 피해사례 알아볼게요.

보이스피싱 AI금융사기
보이스피싱 AI는 은행, 보험회사, 카드사 등 금융회사에서 많이 활용돼요. 피싱범은 피해자와 같은 목소리와 발음, 억양을 내는 인공지능 기술을 이용해 전화를 걸어 금융거래를 유도하고 비밀번호, 개인정보, 계좌번호 등을 요구해요.

 


보이스피싱 AI 상품판매 사기
보이스피싱 AI는 상품판매 사기에서도 활용돼요. 전문적으로 제작된 보이스피싱 AI가 상품의 설명과 가격, 혜택 등을 선명하게 전달하면서 소비자의 신뢰를 얻어요. 또한 결국 소비자가 주문한 제품은 존재하지 않는 경우가 대부분인데요.


보이스피싱 AI 회사내부 사기
보이스피싱 AI는 회사 내부에서도 사용될 수 있어요. 인사팀이나 재무팀, 경영진 등을 가장한 보이스피싱범이 직원들의 개인정보나 기업 비밀 등을 요구할 때가 있어요. 이 때 직원들은 보안 규정을 위반하지 않으려는 경향이 있어 대처하기 어렵습니다.

 


보이스피싱 AI 유명인사 사칭
보이스피싱 AI는 유명인사나 기업 CEO, 정치인 등을 사칭하는 데도 사용될 수 있어요. 이를 통해 범죄자는 대상을 속여 돈을 요구한 경우 혹은 비밀 정보를 빼내기도 해요.


이러한 보이스피싱 AI는 피해자가 인지하기 어렵므로 사기가 성공하기 쉽습니다. 그러기 때문에 피싱범의 음성, 행동, 대화내용 등을 조심스럽게 살펴보는 습관을 갖고 방어하는 것이 중요해요. 그리고, 개인정보 유출을 막아주고, 적극적으로 보안 수칙을 준수하는 것도 필수적인데요.


보이스피싱 AI 피해를 예방하는 것은 어려운 일인데요.
그러나 몇 가지 방법을 통해 보이스피싱 AI 피해를 줄일 수 있어요.


은행이나 금융기관에서 전화를 받을 경우, 미리 연락을 하여 실제로 전화가 온 것인지 확인하는 것이 좋아요. 특히나 은행에서 전화를 받을 경우, 은행의 공식 전화번호를 이용해 연락하는 것이 중요해요.

금융 거래를 할 때는, 가능한 한 보안을 강화하는 것이 좋아요.

이를 위해 복잡한 비밀번호를 사용하며, 불필요한 정보를 제공하지 않도록 주의해야 해요.

 


공식적인 기관에서 전화를 받을 때는, 발신자의 이름과 직책 등을 확인하는 것이 좋아요. 만약 발신자가 신뢰할 수 없는 사람이라면, 해당 전화를 받지 않는 것이 좋아요.

보이스피싱 AI가 전화로 접근하는 것을 막기 위해, 전화번호 차단 서비스를 이용하는 것이 좋아요.

미리 보이스피싱 AI의 작동 방식과 유사한 음성이나 인공지능 음성을 사용하는 기술을 학습하며, 경험해 보는 것이 좋아요. 이를 통해 보이스피싱 AI에 노출되었을 때, 신속하고 효과가 좋은 대처 방법을 찾을 수 있어요.

 


불필요한 개인정보를 공유하지 않는 것이 중요해요

특히나 전화나 문자를 통해 개인정보를 요청하는 경우는 주의해야 해요.

이러한 방법을 통해 보이스피싱 AI 피해를 줄이고, 개인정보를 안전하게 보호할 수 있어요. 그리고, 사기와 스팸 전화 등을 신속하게 식별하고 차단하는 솔루션을 사용하는 것도 좋은 대안이 될 수 있어요

반응형