포브스 선정 AI 50 기업 65%서 비밀정보 유출 “혁신 속도에 보안 무너졌다”
컨텐츠 정보
- 조회 376
본문
클라우드 보안 업체 위즈(Wiz)의 최신 조사에 따르면, 전 세계 주요 민간 AI 기업의 약 2/3가 깃허브에 API 키와 접근 토큰을 노출한 것으로 나타났다. 급속한 성장세에 비해 보안 관리 수준이 뒤처지고 있다는 우려가 커지고 있다. 위즈는 포브스가 선정한 ‘AI 50’ 기업의 65%에서 실제로 검증된 비밀정보(secret) 유출이 발생한 것을 확인했다고 밝혔다. 해당 기업들의 총 기업 가치는 4000억 달러에 달한다.
문제의 심각성에도 불구하고, 위즈가 관련 사실을 통보한 시도 중 절반 가까이는 해당 기업에 전달되지 않았거나 아무런 응답을 받지 못한 것으로 나타났다. 이는 다수의 AI 기업이 보안 보고에 대응할 체계조차 제대로 갖추지 못했음을 시사한다.
이번에 확인된 유출 정보에는 비공개 AI 모델, 학습 데이터, 내부 조직 구조 등 민감한 정보에 접근할 수 있는 자격 증명이 포함돼 있었다. 이는 AI 업계에서 시장 출시 속도에 대한 압박이 여전히 안전한 개발 관행보다 앞서고 있음을 보여주는 사례로 풀이된다.
위즈는 블로그를 통해 “API 키, 토큰, 민감한 인증 정보 등이 삭제된 분기(fork) 리포지토리, 지스트, 개발자 리포지토리 깊숙한 곳에 숨겨져 있어 대부분 보안 스캐너가 탐지하지 못한다. 이들 중 일부는 조직 구조나 학습 데이터, 심지어 비공개 AI 모델까지 노출시킬 수 있었다”라고 밝혔다.
위즈에 따르면, 유출된 자격 증명 중 일부는 허깅페이스, 웨이츠앤드바이어시스(Weights & Biases), 랭체인 등 주요 AI 플랫폼과 관련된 것으로 확인됐다. 이런 정보가 악용될 경우, 공격자는 민감한 학습 데이터나 비공개 모델에 접근할 수 있는 권한을 얻을 가능성이 있다.
광범위한 파장
전문가들은 이번 비밀정보 유출이 AWS S3 버킷 노출 사례 등 10년 넘게 반복돼 온 클라우드 저장소 구성 오류 문제와 같은 맥락에 있다고 지적했다.
그러나 이번 사태는 단순한 과거의 반복이 아니다. 노출된 자산의 범위가 이제는 AI 모델, 학습 데이터, 그리고 복잡한 개발 파이프라인까지 확장되면서, 잠재적 피해 규모가 훨씬 커졌다는 점에서 그 의미가 다르다.
사이버보안 전문가 수닐 바르키는 “속도와 보안의 불균형이 클라우드 구성 오류, 비밀정보 관리 부실, 보안·프라이버시 설계 부재, 그리고 보안 도구 격차 등의 근본적인 원인으로 작용하고 있다. AI 관련 유출은 단순한 데이터 노출에 그치지 않고, 기술·비즈니스·법률·윤리·경쟁력 등 조직의 여러 층위를 동시에 흔들 수 있는 심각한 영향을 초래할 수 있다”라고 덧붙였다.
보안 업체 수어쉴드(SureShield)의 최고기술책임자 찬드라셰카르 빌루구는 “이번 유출 규모는 AI 스타트업과 성숙한 SaaS·클라우드 기업 간 데브섹옵스(DevSecOps) 격차를 여실히 보여준다. AI 팀은 빠른 프로토타입 개발에 몰두한 나머지 구성 파일 등 비밀정보를 공개 리포지토리에 보관하는 경우가 많고, 삭제된 분기 리포지토리나 코드 조각 저장소조차 기본적인 보안 점검 없이 방치하는 사례가 적지 않다”라고 지적했다.
빌루구는 “기업이 깃허브에 API 키와 토큰을 노출하는 것은 치명적인 현실적 위험으로 이어질 수 있다. 공격자는 이를 악용해 기업의 독점 모델을 탈취하거나 경쟁사 방해를 시도하고, 고객의 개인식별정보(PII)를 빼돌려 신원 도용에 이용할 수 있다. 이는 잠재적으로 수십억 달러 규모의 GDPR 벌금으로 이어질 수도 있다”라고 경고했다.
이어 “AI 산업에서는 학습 데이터가 핵심 자산이기 때문에 토큰 하나만 유출돼도 수천 개의 비공개 모델이 침해되거나 데이터 오염 공격으로 이어질 수 있다”라고 덧붙였다.
이번 조사 결과는 AI 도입이 가속화될수록 개발자와 CISO 모두가 개발 파이프라인과 비밀정보 관리 체계를 한층 강화해야 함을 보여준다.
컴플라이언스와 거버넌스
IDC 아시아태평양 사이버보안 서비스의 선임 리서치 매니저 삭시 그로버는 “위즈의 조사 결과는 노출된 API 키가 AI 생태계 전반의 대규모 보안 침해로 확대될 수 있음을 보여준다. 탈취된 자격 증명은 모델의 동작을 조작하거나 학습 데이터를 추출하는 데 악용될 수 있어 배포된 시스템에 대한 신뢰를 근본적으로 훼손할 수 있다”라고 설명했다.
그로버는 또 “이 같은 노출은 AI 개발 환경의 특성과도 밀접하게 관련돼 있다. AI 프로젝트는 일반적으로 통제보다는 실험 중심으로 운영되는 느슨한 환경에서 진행되기 때문에 노트북·사전 학습 모델·리포지토리 등이 자주 공유되며 비밀정보가 제대로 점검되거나 주기적으로 교체되지 않는 경우가 많다”라고 덧붙였다.
그로버는 IDC의 ‘아시아·태평양 보안 보고서(Asia/Pacific Security Study)’ 데이터를 인용하며 “아태지역 기업의 절반 이상(50%)이 이미 CNAPP(Cloud-Native Application Protection Platform) 업체를 선택할 때 API 보안을 핵심 투자 항목으로 고려하고 있다”라고 전했다. 이는 노출된 API가 이제 주요 공격 경로로 자리 잡았음을 보여주는 결과다.
이어 그로버는 “AI 안전성과 데이터 보호에 대한 규제 당국의 관심이 높아지면서 비밀정보 관리와 API 거버넌스가 향후 AI 컴플라이언스 프레임워크의 감사 항목으로 포함될 가능성이 크다”라고 전망했다.
dl-itworldkorea@foundryco.com
관련자료
-
링크
-
이전
-
다음





