노드VPN은 1월 28일 세계 데이터 프라이버시의 날(Data Privacy Day)을 맞아, AI 도구가 일상적인 업무 환경에 빠르게 자리 잡으면서 한국인들이 직면하고 있는 개인정보 보호 위험에 대한 새로운 조사 결과를 공개했다.

노드VPN이 2025년 한 해 동안 진행된 국가 개인정보 테스트(National Privacy Test, NPT) 데이터를 분석한 결과, 한국인의 92%는 업무에서 AI를 사용할 때 고려해야 할 개인정보 보호 요소를 충분히 인식하지 못하고 있는 것으로 나타났다. 생성형 AI가 업무 전반에 빠르게 도입되고 있지만, 개인정보 보호 위험에 대한 이해는 여전히 이를 따라가지 못하고 있다.
챗지피티(ChatGPT), 코파일럿(Copilot) 등 생성형 AI 도구는 업무 생산성을 높이는 수단으로 빠르게 확산되고 있다. 그러나 이 과정에서 개인 정보나 업무 관련 데이터가 무심코 노출되는 사례가 증가하고 있으며, 해당 데이터의 저장 및 활용 방식에 대한 인식은 여전히 부족한 상황이다.
이 같은 위험은 업무 환경에만 국한되지 않는다. 같은 조사에 따르면 한국인의 45%는 딥페이크, 음성 복제 등 AI 기술을 활용한 사기를 정확히 구별하지 못하는 것으로 나타났다. AI 기술이단순한 텍스트 생성 단계를 넘어 실제 인물과 구분하기 어려운 영상과 음성까지 구현할 수 있게 되면서, AI를 활용한 사기 수법은 한층 더 정교해지고 있다.
노드VPN의 기존 연구 결과도 이러한 우려를 뒷받침한다. 전 세계적으로 최근 2년간 3명 중 1명은 온라인 사기를 경험했으며, 이 가운데 49%는 실제 금전적 피해를 입은 것으로 나타났다. AI기술이 사이버 범죄에 활용되면서 이전보다 적은 기술적 지식만으로도 고도화된 사기가 가능해졌고, 2026년에는 AI 기반 공격이 주요 사이버 보안 위협으로 부상할 것으로 전망된다.
이처럼 AI 기술의 활용이 빠르게 확산되는 가운데, 개인정보 보호에 대한 기본적인 인식 격차가 새로운 보안 리스크로 부상하고 있다. 노드VPN은 AI시대개인정보 노출 위험을 줄이기 위해, 기술 자체보다 사용 과정에서의 판단과 기본보안 원칙이 무엇보다 중요하다고 강조했다.
노드VPN은 업무 환경에서 생성형 AI 활용과 AI를 악용한 사기로부터 자신을 보호하기 위해 ▲회사 기밀 및고객 정보 입력 금지 ▲AI 대화 내용의 기록•저장 가능성 인지 ▲조직 차원의 AI 사용 정책 사전 확인 ▲예상치 못한 금전정보 요청에 대한 경계 ▲AI 생성 음성과영상에 대한 무조건적 신뢰 지양 ▲보안 소프트웨어의 올바른 사용과 최신 상태 유지 등 기본적인 보안 기준과 습관을 갖출 것을 권고했다.
김원영 기자 : goora@noteforum.co.kr
[디지털 모바일 IT 전문 정보 - 노트포럼]
Copyrights ⓒ 노트포럼, 무단전재 및 재배포 금지