AI 기반 이미지 변환 서비스가 인기를 끌고 있는 가운데, 이용자들이 생성형 AI에 입력한 ‘원본 사진’의 활용 여부를 둘러싼 개인정보 유출 우려가 확산되고 있다. 특히 AI 서비스가 기존 개인정보보호법의 사각지대에 있다는 지적도 제기된다.
최근 각종 소셜미디어에서는 이용자의 얼굴 사진을 일본 애니메이션 제작사 지브리 스타일로 변환해주는 AI 기능이 유행처럼 번지고 있다. 그러나 이 서비스가 인기를 얻는 만큼, 원본 사진이 어떻게 처리되는지에 대해 불안감을 호소하는 이용자도 늘고 있다. 직장인 이수연 씨는 “챗GPT 같은 AI에 넣은 사진이 어디에 남아 있는지 몰라 불안하다”며 “지인들 사이에서는 ‘지브리풍 그림 금지령’까지 돌고 있다”고 말했다.
현행 개인정보보호법상 기업이 수집한 개인정보를 당초 동의받은 목적 외에 활용하는 것은 엄격히 금지되어 있다. 그러나 AI 서비스를 통한 개인정보 수집과 활용은 법적 규제의 공백지대로 지목된다. 생성형 AI가 원본 데이터를 기반으로 새로운 이미지를 만드는 경우, 이 정보가 추후 어떤 용도로 쓰이는지에 대한 기준과 감시 체계가 부재하기 때문이다.
민병덕 더불어민주당 의원실이 개인정보보호위원회로부터 제출받은 자료에 따르면, 민간 기업의 개인정보보호법 위반에 따른 과징금 규모는 2020년 67억 원에서 2023년 604억 원으로 9배 가까이 증가했다. 우리카드는 가맹점주 약 20만 명의 개인정보를 무단 취합해 마케팅에 활용하다 134억 원의 과징금을 부과받았고, 메타는 국내 이용자 330만 명의 정보를 동의 없이 제3자에게 제공해 67억 원의 제재를 받은 바 있다.
법조계와 전문가들은 생성형 AI의 개인정보 위험성에 대한 규율 마련이 시급하다고 강조한다. 김정환 변호사(법무법인 충정)는 “AI가 딥러닝 과정을 통해 만들어낸 결과물에도 이용자의 의도치 않은 개인정보가 포함될 수 있다”며 “법률적 사각지대에 방치되어선 안 된다”고 말했다.
개인정보보호위원회의 조사에 따르면 응답자의 76.1%가 AI와 관련된 개인정보 유출 가능성에 대해 ‘심각하다’고 응답했다. 이송희 한국폴리텍대 교수는 “생성형 AI의 개인정보 활용을 명확히 규제할 수 있는 조항을 개인정보보호법에 반영해야 한다”고 조언했다.
개보위 측은 “AI 정보처리의 투명성을 확보할 수 있도록 가이드라인을 마련해 기업들에 권고하고 있다”며 “지속적인 점검과 함께 제도 개선도 추진 중”이라고 밝혔다.