News Feed

미국 정부, 생성형 AI 모델 출시 전 안전 테스트 실시

컨텐츠 정보

  • 조회 21

본문

CAISI가 구글, 마이크로소프트, xAI와 협약을 체결하면서 백악관의 자체 AI 검증 시스템 구축 추진 계획 보도에 앞서 움직임을 보였다.

미국 상무부 산하 AI 표준 및 혁신 센터(CAISI)는 구글 딥마인드, 마이크로소프트, xAI와 협약을 체결했다. 이 협약을 통해 CAISI는 이들 기업이 개발한 AI 모델을 공개 출시 전에 검증할 수 있는 권한이 생긴다.

CAISI는 국립표준기술연구소(NIST) 산하 기관으로, 성명을 통해 “배포 전 평가와 표적화된 연구를 실시하여 프론티어 AI의 역량을 더욱 정확하게 평가하고 AI 보안 기술 수준을 향상시킬 것”이라고 밝혔다.

구글 딥마인드, 마이크로소프트, xAI는 앤트로픽과 오픈AI에 이어 CAISI와 협약을 체결했다. 앤트로픽과 오픈AI는 약 2년 전 바이든 행정부 시절, 당시 이름이 미국 AI 안전 연구소(AISI)였던 CAISI와 유사한 협약을 체결했다.

2024년 8월 발표된 당시 협약 관련 보도에 따르면 연구소는 두 기업에 대해 “영국 AI 안전 연구소(AISI)와의 긴밀한 협력 속에서 모델의 잠재적 보안 개선 방안에 대한 피드백을 제공할 계획”이라고 명시했다.

마이크로소프트는 화요일 공식 블로그를 통해 이번 협약이 고도화된 AI 시스템에 대한 신뢰와 확신을 구축하는 데 필수적이라고 밝혔다. AI 역량이 발전함에 따라 검증과 보안 조치의 엄격성도 함께 강화되어야 한다는 입장이다.

선제적 보안으로의 전환

정보기술 연구 그룹(Info-Tech Research Group)의 사이버 보안 주요 자문관 프리츠 장루이는 CAISI 협약이 배포 전후 정부 주도 고급 모델 테스트를 통해 에이전트형 AI에 대한 선제적 보안으로의 전환을 신호한다고 지적했다.

장루이는 “이 조치는 자율 행동에 대한 가시성을 강화하고 위험 완화를 위한 표준 개발을 가속화하는 데 도움이 될 것”이라며 “조기 접근, 지속적 평가, 부문 간 협력을 결합하면서 업계가 점점 더 자율적인 AI 시스템을 위한 설계 단계의 보안을 향하도록 추진할 것”이라고 평가했다.

다만 장루이는 “이런 접근 방식 하에서 지적 재산권이 어떻게 보호될 것인가 등 몇 가지 잠재적 장애물을 고려해야 한다”면서도 “전반적으로 업계를 위한 긍정적 진전이라고 본다”라고 덧붙였다.

행정명령 ‘구체화 중’

CAISI 발표 이후 수요일 공개된 보도에 따르면 백악관이 모든 새로운 AI 모델에 대한 검증 시스템 구축을 골자로 하는 행정명령 준비에 임박해 있는 것으로 나타났다. 앤트로픽의 마이토스 모델이 주요 대상 중 하나다.

블룸버그는 “이 지침은 앤트로픽이 자사의 획기적 마이토스 모델이 네트워크 취약점 발견에 뛰어나며 글로벌 사이버 보안 위험을 초래할 수 있다는 점을 공개한 지 몇 주 후에 구체화되고 있다”라고 보도했다.

정책 방향의 중대한 변화

독립 기술 애널리스트 카르미 레비는 “이번 주 AI 표준 및 혁신 센터를 프론티어 AI 모델의 테스트 기구로 규정하는 발표는 AI 모델 검증 시스템으로 이어질 잠재적 행정명령과 직접 연계되어 있다는 것이 명백하다”라고 지적했다.

레비는 “두 발표가 연달아 이루어진 것은 우연이 아니며, 미국을 비롯한 세계 각국의 정부가 AI 관련 보안을 최대한 강화하고 시스템적 위험을 최소화하기 위해 주요 AI 업체와의 협력을 강화해야 한다는 긴박한 필요성을 반영한다”라고 말했다.

또한, 워싱턴의 최근 이런 활동은 규제에 대해 상대적으로 자유방임적 접근을 유지해온 미국 행정부의 정책 방향에 있어 중대한 변화를 의미한다고 지적했다.

레비는 클로드 마이토스 모델이 디지털 시스템의 취약점을 쉽게 발견하고 악용할 수 있다는 우려가 연방 정부의 AI 규제 정책 전환을 촉발했을 수 있으며, 정부 인프라 전역의 AI 배포 표준 강제 이행을 새롭게 추진하는 계기가 되었을 것으로 평가했다.

레비는 구글, 마이크로소프트, xAI 같은 AI 업체가 시장 출시의 시의성과 비용 효율성을 유지하면서도 점점 더 명확하게 정의되는 AI 관련 사이버 보안 및 보안 규칙 사이에서 정치적 줄타기를 해야 한다며, 업계가 임의로 규칙을 정하는 시나리오는 업계가 감당할 수 없다고 강조했다. 동시에 최근 앤트로픽과 펜타곤 간의 갈등이 업체가 정부의 AI 테스트 및 규제 확대에 대해 어느 정도 조심스러운 태도를 취할 수 있는 이유를 보여준다고 지적했다.

레비에 따르면 행정부의 테스트와 감시 중앙화 노력이 업체의 시장 진입 절차를 간소화하고 프론티어 모델 개발 관련 모범 사례 개발을 가속화할 수 있지만, 최근 정부와 업계 파트너십에 담긴 정치적 함의는 간과할 수 없다.
dl-itworldkorea@foundryco.com

관련자료

댓글 0
등록된 댓글이 없습니다.