LLM 보안, 과장된 위협보다 기본에 집중하라
컨텐츠 정보
- 조회 462
본문
대규모 언어 모델(LLM)이 초래할 보안 위협에 시장이 과도하게 반응하고 있는 가운데, 기업 CISO가 공황 상태에 빠질 필요가 없다는 조언이 나왔다. 실제로 AI를 활용한 업무가 확산되면서 독이 든 학습 데이터, AI의 환각, 딥페이크, 사용자 오류, 새로운 AI 기반 공격 기법 등으로 인해 사이버 보안 업계는 연일 우려의 목소리를 높이고 있다.
2025년 4월 개최된 RSA 콘퍼런스 전후로 참석자는 IT 업체의 지나친 공포·불확실성·의심(FUD) 조장에 피로감을 드러냈다. 넷플릭스 정보 리스크 엔지니어 토니 마틴-베그는 AI 열차는 멈추지 않을 것이라며 “과장된 기대를 걷어내고, 통제해야 할 핵심에 집중하는 것이 중요하다”라고 강조했다.
마틴-베그는 “AI를 도입하지 않는 리스크도 존재한다”면서, 사용 여부 자체가 리스크가 되는 시대라고 지적했다. 클라우드, BYOD, 기타 신기술을 도입할 때처럼, AI 도입에도 반복 가능한 프로세스를 적용하라고 조언했다. AI가 어디에서, 어떻게, 누구에 의해, 어떤 목적으로 사용되는지를 파악한 뒤, 툴에 공유되는 데이터를 보호하는 데 주력해야 한다고 설명했다.
조직 전체에 침투하는 AI, 위험 구간을 먼저 파악하라
SANS 인스티튜트 AI 및 신흥 위협 리서치 총괄 롭 T. 리는 “AI는 인터넷을 능가할 정도로 사회 전반에 큰 변화를 불러올 기술”이라고 평가했다. 변화의 속도가 워낙 빨라 많은 이가 혼란을 느낀다면서도 “각 부서가 어떻게 AI를 활용하는지 비즈니스 맥락에서 파악하는 것이 위험 최소화의 출발점”이라고 설명했다.
SANS는 현재 AI 보안 지침 체크리스트를 커뮤니티 기반으로 만들고 있다. 리는 매일 30분씩 AI 에이전트를 업무에 활용하고 있으며, 보안 리더 역시 직접 써보며 기능을 이해해야 적절한 통제를 설계할 수 있다고 전했다.
리는 2025년 5월, 모더나(Moderna)가 인사와 IT 부서를 통합해 ‘Chief People and Digital Technology Officer’ 직책을 신설한 사례도 언급했다. “이제 조직 관리의 대상은 사람뿐만 아니라 AI 에이전트까지 포함된다”라며 HR과 IT 간 새로운 협업이 필요해졌다고 분석했다.
최신 기술도 보안의 본질에서 벗어나지 않는다
미국 기업 이사회 협회(NACD)의 사이버 리스크 고문 크리스 헤트너는 “사이버 보안 업계는 에이전트형 AI, AI 드리프트 등 새로운 용어로 과도하게 반응하는 경향이 있다”라며, “AI는 기존 기술의 확장일 뿐, 우리가 기본으로 돌아가야 할 계기가 되어야 한다”라고 강조했다.
헤트너는 ‘기본’의 핵심으로 ▲비즈니스 프로파일 파악 ▲디지털 환경 내 위협 식별 ▲부서 간 상호작용 이해를 꼽았다. 이를 바탕으로 보안 리더는 운영·법률·규제·재무적 리스크를 평가하고, 이를 집계해 경영진과 이사회에 제시할 수 있는 리스크 프로파일을 수립해야 한다고 설명했다.
데이터 보호가 리스크 통제의 출발점
마틴-베그는 AI가 인사, 재무, 영업, 고객 데이터 등 민감 정보를 분석하는 데 쓰이는 만큼, 데이터 보호가 가장 우선적인 통제 수단이라고 설명했다. 어떤 부서가 어떤 데이터를 AI에 입력하는지 사용 실태를 정확히 파악해야 한다는 의미다.
이는 2025년 5월, 호주·뉴질랜드·영국·미국의 보안 기관이 공동 발행한 AI 데이터 보안 메모에서도 강조된 내용이다. “데이터가 무엇인지, 어디에 있고 어디로 이동하는지 알아야 한다”는 것이다.
하지만 현실적으로 기업들은 대부분 자사 민감 데이터의 위치조차 파악하지 못하는 경우가 많다. 마틴-베그는 이 문제를 해결하려면 사용자 교육과 데이터 거버넌스, 그리고 스캐닝·암호화 같은 전통적 통제 기술의 재정비가 필수적이라고 강조했다.
프로텍트 AI(Protect AI) CISO 다이애나 켈리는 “직원이 AI 툴을 올바르게 사용하는 방법을 모를 수 있다”라며, 보안 및 거버넌스 리더가 구체적인 AI 활용 사례를 설계하고 이를 중심으로 리스크 관리를 구축해야 한다고 제안했다.
AI 모델 자체도 보호해야 할 자산
켈리는 AI 도입 및 배포 방식에 따라 리스크 수준이 달라진다고 경고했다. 예컨대, 웹 기반의 무료 공개형 AI는 데이터 보호 통제가 거의 불가능하다. 반면, 유료 버전 도입이나 사내 직접 운영은 더 많은 통제가 가능하지만 중소기업에는 부담이 될 수 있다. 또 하나의 대안은 아마존 베드록(Amazon Bedrock)처럼 관리형 클라우드 기반에서 기초 모델을 실행하는 방식이다.
켈리는 “AI는 소프트웨어일 뿐이고, 수학적 구조 위에 세워진 것이다. 다만 기존과 다른 형태의 소프트웨어이기에 새로운 보안 방식과 도구가 필요하다”라고 말했다. 특히 모델 파일은 특수한 구조를 가지므로 전용 스캐너가 필요하다고 강조했다.
또한 모델 파일을 “가중치와 바이어스로 구성된 파일”이라고 설명하며, 이 파일이 역직렬화될 때 신뢰할 수 없는 코드가 실행될 수 있어 모델 직렬화 공격(MSA)의 표적이 된다고 경고했다.한편, 오픈소스 기반 모델은 유사 이름을 가진 악성 파일(타이포스쿼팅), 신경 백도어, 기타 공급망 취약성에도 노출될 수 있다고 전했다. 따라서 모델 배포 전 철저한 검증과 스캐닝이 필요하다는 것이다.
실제로 AI 애플리케이션 기반의 LLM 보안 요구사항은 기존 소프트웨어와 다르기에, 이를 위한 전용 보안 솔루션 시장이 급증하고 있다. 하지만 이 시장은 팔로알토네트웍스(Palo Alto Networks)가 프로텍스 AI 인수를 추진하는 사례처럼, 기존 보안 업체가 전용 기술을 흡수하면서 재편될 가능성도 있다.
켈리는 “AI 기술이 어떻게 작동하는지 이해하고, 직원들이 어떻게 사용하는지 파악하며, 그에 맞는 통제를 설계하는 것이 핵심”이라며 “물론 많은 작업이 필요하지만, 두려워할 필요는 없다. 이것이 바로 우리가 늘 해오던 리스크 관리 방식”이라고 강조했다.
dl-itworldkorea@foundryco.com
관련자료
-
링크
-
이전
-
다음






