미 국방부 계약 둘러싼 논쟁 확산…”AI 가드레일 강제력 시험대 올라”
컨텐츠 정보
- 조회 507
본문
오픈AI가 미 정부에 인공지능 서비스를 공급하는 계약을 체결했다. 발표는 도널드 트럼프 미국 대통령이 금요일 인공지능 경쟁사 앤트로픽을 모든 미 정부 계약에서 배제하기로 결정한 지 수시간 만에 이뤄졌다.
오픈AI 최고경영자 샘 올트먼은 일요일 X에 올린 글에서 해당 협상에 대해 “분명히 서둘러 진행됐고 외형상 좋아 보이지 않는다”라고 밝혔다.
앤트로픽은 자사 제품을 미국 시민에 대한 대규모 감시나 완전 자율 무기 체계에 사용하도록 허용하지 않겠다는 입장을 고수하다 계약에서 배제됐다. 반면, 오픈AI는 자사 계약에도 동일한 제한이 포함됐다고 설명했다. 짧은 시간 안에 같은 수준의 양보를 이끌어냈는지, 실제로 그런 제한이 확보됐는지를 둘러싸고 의문이 제기된다.
미 정부는 앤트로픽에 기술을 모든 합법적 목적에 사용할 수 있도록 허용할 것을 요구했다. 앤트로픽은 두 가지 예외를 제외하고는 동의했으며, 이런 거부 입장이 결국 금요일 계약 배제로 이어졌다.
토요일, 오픈AI는 자사와 동일한 조건으로 다른 인공지능 기업에도 계약 기회를 제공해야 한다고 미국 정부에 촉구했다. 블로그 게시글에서는 “자사 계약은 기밀 인공지능 배치와 관련해 과거 어떤 계약보다 더 많은 안전장치를 포함한다. 앤트로픽 계약도 예외가 아니다”라고 주장했다.
3가지 한계 기준선
오픈AI는 국방부와 협력하는 과정에서 반드시 넘지 않겠다는 세 가지 기준선을 설정해 두었으며, 이런 원칙은 자사뿐 아니라 여러 최첨단 인공지능 연구 기관도 대체로 공유하고 있다고 설명했다. 여기서 국방부는 ‘전쟁부’라는 보조 명칭을 함께 언급했다.
여기서 말하는 세 가지 기준은 미국 내 대규모 국내 감시에 기술을 사용하지 않는 것, 자율 무기 체계를 직접 통제하는 데 기술을 사용하지 않는 것, 그리고 ‘사회 신용’ 시스템과 같은 중대한 자동화 의사결정에 기술을 활용하지 않는 것이다.
그렇다면 오픈AI는 앤트로픽이 실패한 지점에서 실제로 성과를 거둔 것인지, 그렇다면 어떤 방식이었는지 의문이 제기된다.
오픈AI는 레드라인을 “더 광범위하고 다층적인 접근”으로 보호한다고 밝혔다. 블로그 글에서 자사가 안전 스택 전반에 대한 완전한 재량권을 유지하고, 클라우드 방식으로 배치하며, 보안 인가를 받은 오픈AI 인력이 운영 과정에 참여하고, 강력한 계약상 보호 조항을 마련했다고 설명했다. 또한 미국 법체계에 이미 존재하는 보호 장치도 추가로 적용된다고 덧붙였다.
오픈AI는 계약 조항 일부를 인용했다. “전쟁부는 관련 법률, 작전 요구 사항, 확립된 안전 및 감독 절차에 부합하는 범위 내에서 인공지능 시스템을 모든 합법적 목적에 사용할 수 있다. 법률·규정·부서 정책이 인간 통제를 요구하는 경우 자율 무기를 독립적으로 지휘하는 데 인공지능 시스템을 사용하지 않는다. 동일한 권한 아래 인간 의사결정자의 승인이 필요한 기타 중대한 결정도 인공지능 시스템이 대신하지 않는다.”
해당 조항은 법률이나 규정이 자율 무기 통제를 금지하는 경우에만 제한을 두고 있다. 관련 법이 침묵하는 영역에서는 별도의 보호 장치가 작동하지 않는다.
독립 싱크탱크 법과 인공지능 연구소의 선임 연구원 찰리 불록은 X 게시물에서 “오픈AI가 전쟁부가 원하는 조건을 수용한 점은 놀랍지 않다. 그러나 공개된 계약 일부가 ‘모든 합법적 사용’과 실질적으로 다른 내용을 보장한다고 여기는 관측이 많다는 점은 다소 의외”라고 적었다.
국내 대규모 감시와 관련해 오픈AI가 인용한 계약 문구는 다음과 같다. “정보 활동과 관련해 사적 정보 처리는 수정헌법 제4조, 1947년 국가안보법, 1978년 해외정보감시법, 행정명령 12333호, 명확한 해외 정보 목적을 요구하는 국방부 지침을 준수한다. 이런 권한 범위 내에서 미국인의 사적 정보를 무제한적으로 모니터링하는 데 인공지능 시스템을 사용하지 않는다. 또한 포세 코미타투스 법 및 기타 관련 법률이 허용하는 경우를 제외하고 국내 법 집행 활동에 사용하지 않는다.”
오픈AI의 안전장치가 충분치 않을 가능성
그러나 일부 법률 전문가는 블로그에 인용된 계약 문구만으로 국방부가 실제로 미국 내 대규모 감시를 수행하는 것을 막기에는 부족하다고 바라봤다.
법률·정책 자문사 아네칸타의 수석 컨설턴트 프라네시 프라카시는 공개된 계약 문구가 국방부 산하 기관인 국가안보국과 같은 기업이 기존 법적 권한에 따라 국내 메타데이터를 대량 수집하는 행위를 허용할 수 있다고 설명했다.
불록은 대규모 국내 감시에 대한 명확한 법적 정의를 알지 못한다고 밝혔다. 충분히 고도화된 인공지능 시스템이 수행할 수 있는 일부 행위는 합법일 수 있으나, 합리적 정의에 따르면 대규모 국내 감시에 해당할 가능성도 있다고 지적했다.
오픈AI가 계약 전체를 공개하지 않아 법적 구도가 여전히 불분명하다는 점도 문제로 거론됐다.
인공지능 규제 정보와 데이터 보호를 전문으로 하는 로펌 앰리걸스의 설립자 아난다데이 미슈라는 계약이 감시나 무기 배치를 명시적으로 제한한다면 당사자 간에는 표준 계약법 원칙에 따라 해당 제한을 집행할 수 있다고 설명했다.
그러나 미 정부, 특히 국방부가 관여하는 경우 상황은 달라진다. 미슈라는 “국가 안보 예외, 기밀 프로그램, 주권 면책 원칙은 정부 사용을 윤리적 근거만으로 문제 삼으려는 시도를 크게 약화시킨다. 법원은 국가 안보가 제기되면 민간 계약자의 반대가 있더라도 정부에 폭넓은 재량을 인정해 왔다”라고 말했다.
과거 통신 감시나 방위 계약 분쟁에서도 기업이 계약 문구와 내부 거버넌스에 의존했지만, 연방 당국이 법적 권한을 행사하면 실질적 영향력은 제한적이었다는 점을 미슈라는 언급했다.
미슈라는 기술 제공자가 접근 권한을 계약으로 부여한 이후 연방 정부의 안보·국방 목적 사용을 성공적으로 차단한 명확한 선례는 없다고 설명했다. 직접적 충돌이 발생할 경우 국가 안보 예외가 윤리적 인공지능 사용에 관한 완화된 약속을 우선할 가능성이 높다고 덧붙였다.
현재 미국의 데이터 보호 규제 환경도 오픈AI에 유리하지 않다.
미슈라는 “유럽과 달리 미국에는 군사 또는 정보 분야 활용을 명확히 금지하는 연방 차원의 구속력 있는 인공지능 법이 아직 없다. 오픈AI는 법적 보호보다는 자율적 정책에 더 많이 의존하는 상황”이라고 분석했다.
클라우드 배치가 갖는 제한적 완충 효과
일부 기술적 안전장치는 존재한다는 것이 오픈AI의 설명이다. 오픈AI는 블로그에서 “클라우드 전용 배치 방식이며, 해당 원칙을 포함한 안전 스택을 직접 운영한다. 안전장치가 제거된 모델이나 안전 학습이 이뤄지지 않은 모델을 제공하지 않는다. 엣지 기기에 모델을 배치하지도 않는다”라고 밝혔다. 또한 배치 아키텍처를 통해 레드라인이 침해되지 않는지 독립적으로 검증하고 분류기를 실행·업데이트할 수 있다고 설명했다.
불록은 기술적·운영적 보호 장치에 대한 오픈AI의 강조를 언급하며, 공개된 두 개 단락의 계약 문구보다는 기업 자체와 기술적 안전장치, 운영 인력에 대한 신뢰 수준에 따라 판단이 갈릴 것이라고 분석했다.
미슈라는 이번 사안이 인공지능 기업과 미 정부 간 관계 설정의 기준점이 될 가능성이 있다고 내다봤다. 저항의 선례라기보다는 안전장치를 어떤 방식으로 계약에 반영하고 협상할 것인지에 대한 방향성을 제시하는 사례에 가깝다는 분석이다.
또한, 향후 계약에서는 허용된 사용 범위, 감사 권한, 모델 버전 관리, 책임 배분 등이 더욱 구체적으로 명시될 가능성이 크다고 설명했다. 윤리적 약속 역시 도덕적 거부권이라기보다 계약상 위험을 관리하는 장치로 점차 구조화될 것이라는 전망이다.
dl-itworldkorea@foundryco.com
관련자료
-
링크
-
이전
-
다음





