1. 개인정보 유출 우려
딥시크는 중국의 정보 통신망을 통해
이용자들의 개인정보가 유출될 가능성이 있다.
틱톡 역시 초기 개인정보 수집 동의 항목에서
민감한 개인정보를 수집함을 명시한 바 있으며,
이러한 데이터가 사이버 범죄에 악용될 가능성이 높다.
따라서 중국에서 개발된 생성형 AI 및
온라인 플랫폼 사용 시 주의가 필요하다.
2. 딥페이크 기술 악용 위험
개인정보가 유출되면
SNS에 업로드된 사진을 활용해
간단히 딥페이크 영상을 만들 수 있다.
이러한 영상이 범죄에 악용될 경우,
협박을 통한 금융 사기나
명예 훼손의 피해를 입을 위험이 크다.
3. 보이스피싱 및 금융사기 위험
가족 및 개인 연락처 정보가 유출되면
납치 협박이나 금융 사기에 이용될 수 있다.
최근 보이스피싱 범죄에서
가족 정보를 이용한 신종 수법이 등장하면서
피해 사례가 급증하고 있다.
4. AI 데이터 학습으로 인한 개인정보 남용 가능성
딥시크와 같은 생성형 AI는
이용자의 입력 데이터를 학습하여
성능을 개선하는 방식으로 운영된다.
하지만 보안 조치 없이 수집된 데이터는
제3자에게 공유되거나 해킹될 가능성이 있다.
특히, AI가 학습한 정보가
외부로 유출될 경우 사생활 침해가 발생할 수 있다.
5. 검열 및 정보 조작 가능성
중국에서 운영되는 AI 서비스는
정부의 규제 및 검열을 받을 가능성이 크다.
이로 인해 특정 정보가 조작되거나
이용자들에게 편향된 정보가 제공될 위험이 있다.
이는 AI가 올바른 정보를 전달하는 데
중대한 문제를 일으킬 수 있다.
6. 해킹 및 악성코드 감염 위험
딥시크와 같은 AI 서비스는
데이터를 인터넷을 통해 주고받기 때문에
해커들의 주요 공격 대상이 될 수 있다.
만약 서버가 해킹되거나 보안이 뚫리면,
사용자의 개인정보와 대화 내용이 유출될 수 있다.
또한, 악성코드가 포함된 링크를
다운로드하도록 유도하는 공격이 발생할 위험도 있다.
7. 정보 왜곡 및 판단 능력 저하
생성형 AI가 제공하는 정보는
반드시 정확한 것은 아니다.
잘못된 정보를 사실로 믿게 되면
사회적으로 큰 혼란을 초래할 수 있다.
또한, AI 의존도가 높아질수록
자기 판단 능력이 저하될 가능성이 크다.
8. 불법 활동 및 범죄 도구로 악용될 가능성
딥시크와 같은 AI 기술은
사이버 범죄, 금융 사기, 불법 도박 등
다양한 불법 활동에 악용될 수 있다.
예를 들어, AI가 가짜 신분을 생성하거나
조작된 문서를 만들어내는 방식으로
범죄에 이용될 위험이 존재한다.