News Feed

AI 모델도 ‘출처’가 중요하다…마이크로소프트 레드팀의 조언

컨텐츠 정보

  • 조회 119

본문

웹 초창기, 파일 다운로드는 신기하고 즐거운 경험이었다. 좋아하는 노래의 MIDI 버전처럼 희귀하고 흥미로운 것들이 넘쳐났다. 하지만 인터넷에 자유롭게 접근하는 즐거움만큼이나 위험도 도사리고 있었다. 특히 유료 소프트웨어의 ‘무료’ 버전으로 둔갑한 파일들이 그랬다. 마이크로소프트는 AI에도 똑같은 논리가 적용된다고 말한다.

필자는 올해 RSAC 사이버보안 컨퍼런스에서 마이크로소프트의 데이터 카우보이이자 AI 레드팀 리드인 람 샨카르 시바 쿠마르와 대화를 나눴다. AI 보안의 이면에서 이뤄지는 작업에 대한 다양한 사실과 함께, 빠르게 성장하는 AI 기술을 안전하게 탐색하기 위한 핵심 조언을 들을 수 있었다. 쿠마르의 조언은 간단했다. 출처를 알 수 없는 독립 AI 모델을 조심하라는 것이다.

이 조언이 대형 IT 기업이 신생 경쟁자를 견제하려는 시도처럼 들릴 수도 있다. 지난해 마이크로소프트의 지나친 코파일럿 공세를 떠올리면 그런 의심도 무리는 아니다. 그러나 쿠마르의 경고는 1990년대 말에서 2000년대 초에 전문가와 언론이 내놓기 시작한 조언과 같은 맥락이었다. 규모가 작고 덜 알려진 개발자의 AI 모델을 다운로드할 때는 누구에게서 무엇을 받는지 신중하게 따져보라는 것이다.

공유를 원하는 선의의 개발자 뒤에는 정보를 넘겨주거나 PC 접근 권한을 부여해서는 안 될 누군가가 있을 수 있기 때문이다. 악의적인 행위자일 수도 있고, 그런 권한을 안전하게 다룰 역량이 아직 없는 사람일 수도 있다.

전통적인 소프트웨어도 같은 과정을 거쳤다. 악성 앱을 걸러내는 앱스토어가 등장한 이후에도, 파일을 어디서 내려받는지 주의하는 습관은 오늘날까지 유효한 보안 수칙으로 남아 있다. 이제 그 접근 방식을 AI로 확장해야 할 때다. AI 생태계는 아직 무법지대다. 아무리 세련된 패키지로 포장돼 있어도, 그렇게 대해야 한다.

이 조언은 오픈소스 AI 모델의 급증과 맞닿아 있다. 허깅페이스 같은 플랫폼에는 수십만 개의 모델이 올라와 있고, 누구나 손쉽게 내려받아 로컬 환경에서 실행할 수 있다. 검증된 기업의 모델과 달리 보안 감사나 안전성 평가를 거치지 않은 모델도 상당수 섞여 있다. 악의적으로 조작된 가중치 파일이나 악성코드가 숨어 있을 가능성도 배제할 수 없다.

결국 AI 시대의 디지털 위생은 인터넷 초창기의 교훈을 그대로 계승한다. 출처를 확인하고, 개발자의 신뢰도를 따져보고, 지나치게 좋아 보이는 무료 모델은 한 번 더 의심해볼 필요가 있다. 기술이 바뀌어도 사람을 노리는 방식은 크게 달라지지 않는다.
dl-itworldkorea@foundryco.com

관련자료

댓글 0
등록된 댓글이 없습니다.