구글, AI 생성 "동의 없는 딥페이크 이미지" 삭제 조치

2024. 8. 5.

구글이 최근 도입한 검색 결과 순위 조정 덕분에 특정 인물에 대한 가짜 명시적 이미지에 대한 노출이 70% 이상 줄었습니다. 몇 주 전만 해도 "deepfake nudes 제니퍼 애니스턴(Jennifer Aniston)"을 검색하면 관련 결과가 여럿 나왔지만, 이제는 모두 사라졌습니다. 새로운 알고리즘은 문제의 결과 대신 뉴스 기사와 같은 비명시적 콘텐츠를 우선적으로 보여줍니다.

구글, AI 생성 "동의 없는 딥페이크 이미지" 삭제 조치

 

검색 결과 순위 조정의 효과

구글 제품 매니저 엠마 하이엄(Emma Higham)은 최근 블로그 게시물에서 “이러한 변화로 인해 사람들은 실제 비동의 가짜 이미지를 보지 않고 딥페이크가 사회에 미치는 영향에 대해 읽을 수 있게 되었습니다.”라고 밝혔습니다. 예를 들어, 현재 애니스턴 검색 결과는 테일러 스위프트의 딥페이크 AI 포르노에 대한 기사나 딥페이크 사기에 대한 경고와 같은 링크를 보여줍니다.

 

NCEI 피해자 대응 강화 요구

이번 조치는 WIRED의 조사에 따른 것으로, 구글 경영진이 최근 몇 년 동안 직원과 외부 전문가들이 제안한 여러 아이디어를 거부해 왔음을 밝혔습니다. 구글은 원치 않는 명시적 콘텐츠 제거 요청을 더 쉽게 만들었지만, 피해자와 옹호자들은 더 적극적인 조치를 요구하고 있습니다. 구글 대변인은 여러 팀이 비동의 명시적 이미지(NCEI*, 이하 NCEI)에 대한 보호를 강화하기 위해 노력하고 있다고 밝혔습니다.

 

AI 이미지 생성기의 확산

피해자 옹호자들에 따르면, 사용 제한이 거의 없는 AI 이미지 생성기의 확산으로 인해 NCEI의 증가가 나타났습니다. 이 도구들은 누구나 쉽게 명시적 이미지로 변조할 수 있게 했습니다. 3월 WIRED 분석에 따르면, 구글은 가장 인기 있는 명시적 딥페이크를 호스팅하는 12개 웹사이트에 대한 링크 제거 요구를 13,000건 이상 받았으며, 약 82%의 경우에 결과를 제거했습니다.

 

NCEI에 대한 구글의 조치

구글의 새로운 단속의 일환으로, 하이엄은 회사가 원치 않는 NCEI 이미지의 발견 가능성을 줄이기 위한 세 가지 조치를 합성 및 원치 않는 이미지에도 적용할 것이라고 말했습니다. 하이엄은 “이러한 노력은 사람들이 자신에 대한 유사한 콘텐츠가 미래에 다시 나타날 것을 우려할 때 추가적인 안심을 제공하기 위해 설계되었습니다.”라고 밝혔습니다.

1. 성적 딥페이크에 대한 제거 요청을 수락한 후 중복된 결과가 나타나지 않도록 한다.

2. 유사한 검색어 결과에서 명시적 이미지를 필터링한다.

3. 많은 양의 성공적인 제거 요청을 받은 웹사이트를 검색 결과에서 강등시킨다.

 

NCEI 뜻

NCEI(Non-Consensual Explicit Imagery)는 비동의 명시적 이미지로, 피해자의 동의 없이 유포된 성적인 이미지를 의미합니다. 이는 주로 인터넷과 소셜 미디어를 통해 확산되며, 피해자에게 심각한 정신적, 사회적, 경제적 피해를 줄 수 있습니다. NCEI는 실제 이미지뿐만 아니라 AI 기술을 이용해 생성된 가짜 이미지도 포함됩니다. 이러한 이미지는 피해자의 허락 없이 제작되고 배포되며, 이는 법적으로도 큰 문제가 될 수 있습니다. NCEI의 확산을 막기 위해 여러 인터넷 플랫폼과 법 집행 기관이 대응책을 마련하고 있지만, 기술의 발달로 인해 문제는 계속해서 증가하고 있습니다.

 

해당 글은 Wired기사를 바탕으로 Ai가 작성한 글입니다.
원본 기사와 사진 출처는 해당 링크에서 확인할 수 있습니다.