챗GPT 사용자 대화, 구글 색인으로 유출
컨텐츠 정보
- 조회 537
본문
챗GPT 공유 기능을 통해 사용자 간 링크로 전달된 대화 중 일부가 외부 웹에서 손쉽게 검색 가능하다는 사실이 알려지자, 오픈AI가 즉각적인 대응에 나섰다.
생성형 AI 기반 서비스에서는 검색이나 질의에 민감한 개인정보를 사용하는 것이 위험하다는 사실을 다시 한번 확인하게 됐다. 일반 검색보다 보안이 취약한 데다, 수집된 데이터가 학습에 재활용될 가능성도 높기 때문이다. 수많은 챗GPT 사용자가 2025년 8월 3일 밤 실제로 이를 체감하는 상황을 겪었다. 단순한 구글 명령어인 “site:chatgpt.com/share”만으로 대량의 개인 대화 내용이 검색 가능했던 것이다.
상황을 정리하면 다음과 같다. 챗GPT는 대화 내용을 링크 형태로 다른 사용자에게 쉽게 전달할 수 있는 공유 기능을 제공하고 있다. 문제는 이 공유 링크를 통해 어느 정도 사적인 챗봇 대화가 외부에 게시되어, 구글 등 검색 엔진이 대화를 색인하고 노출시킬 수 있었다는 점이다. 앞서 언급한 검색어를 사용하면 이처럼 색인된 대화에 쉽게 접근할 수 있었다. 검색 가능한 대화는 전체 중 극히 일부에 불과했지만, 내용은 상당히 민감했다.
오픈AI는 이러한 상황에 크게 우려를 표했다. 물론 해당 기능은 사용자가 직접 공유를 선택해야 했고, “URL을 가진 사람은 누구나 대화를 볼 수 있습니다”라는 경고 문구도 매번 표시되었으며, 검색 엔진 색인을 허용하려면 추가적으로 동의해야 했다. 그럼에도 오픈AI는 이 기능을 즉시 비활성화했다.
오픈AI의 공동 최고 정보 보안 책임자 데인 스터키는 X(구 트위터)를 통해 “검색 엔진이 공유 게시물을 색인할 수 있는 기능을 제거했다”라고 밝혔다. 스터키는 “민감한 정보가 사용자 의도와 달리 공유될 가능성이 높다고 판단해 완전히 삭제하기로 했다”라며 “현재 검색 엔진에 색인된 콘텐츠를 제거하는 작업도 진행 중”이라고 전했다.
이 사태가 널리 알려진 짧은 시간 동안, 건강, 성생활, 약물 사용 등 민감한 주제를 포함한 대화 내용이 웹을 통해 퍼졌다. 다행히 그리 많이 확산되지 않은 시점에서 대화 내용 공개가 차단되었지만, 개인정보가 얼마나 쉽게 통제 불능 상태가 될 수 있는지를 보여주는 뼈아픈 교훈이 되었다.
dl-itworldkorea@foundryco.com
관련자료
-
링크
-
이전
-
다음





