미 국방부는 AI가 ‘킬 체인’ 속도를 높이고 있다고 밝혔습니다.

미 국방부는 AI가 ‘킬 체인’ 속도를 높이고 있다고 밝혔습니다.

OpenAI 및 Anthropic과 같은 주요 AI 개발자는 미군에 소프트웨어를 판매하기 위해 섬세한 바늘을 꿰고 있습니다. AI가 사람을 죽이지 않고 국방부를 더 효율적으로 만드는 것입니다.

오늘날 그들의 도구는 무기로 사용되지 않지만 AI는 국방부에 위협을 식별, 추적 및 평가하는 데 “상당한 이점”을 제공한다고 국방부의 최고 디지털 및 AI 책임자인 Radha Plumb 박사가 TechCrunch에 말했습니다. 전화 인터뷰.

Plumb은 “우리는 지휘관이 적시에 대응하여 우리 군대를 보호할 수 있도록 킬 체인 실행 속도를 높일 수 있는 방법을 분명히 늘리고 있습니다.”라고 말했습니다.

킬체인(kill chain)이란 센서, 플랫폼, 무기 등 복잡한 시스템을 활용해 위협을 식별, 추적, 제거하는 군의 프로세스를 말한다. Plumb에 따르면 생성 AI는 킬 체인의 계획 및 전략 단계에서 도움이 되는 것으로 입증되었습니다.

국방부와 AI 개발자의 관계는 비교적 새로운 관계입니다. OpenAI, Anthropic 및 Meta는 미국 정보 및 국방 기관이 AI 시스템을 사용할 수 있도록 2024년에 사용 정책을 철회했습니다. 그러나 그들은 여전히 ​​AI가 인간에게 해를 끼치는 것을 허용하지 않습니다.

국방부가 AI 모델 제공업체와 어떻게 협력하는지 묻는 질문에 Plumb은 “우리는 그들의 기술을 무엇에 사용할 것인지, 사용하지 않을 것인지에 대해 매우 명확했습니다.”라고 말했습니다.

그럼에도 불구하고 이는 AI 기업과 방산업체를 위한 스피드 데이트 라운드를 시작했습니다.

메타 록히드 마틴(Lockheed Martin), 부즈 앨런(Booz Allen)과 제휴특히 11월에 Llama AI 모델을 국방 기관에 제공할 예정입니다. 같은 달에 Anthropic은 Palantir와 협력했습니다. 12월에는 OpenAI도 비슷한 거래를 성사시켰습니다 안두릴과 함께. 좀 더 조용히 Cohere는 Palantir와 함께 자사 모델을 배포해 왔습니다.

생성적 AI가 미 국방부에서 그 유용성을 입증함에 따라 실리콘 밸리가 AI 사용 정책을 완화하고 더 많은 군사적 응용을 허용하도록 압력을 가할 수 있습니다.

“다양한 시나리오를 플레이하는 것은 생성 AI가 도움이 될 수 있는 것입니다.”라고 Plumb은 말했습니다. “이를 통해 우리 지휘관이 사용할 수 있는 모든 도구를 활용할 수 있을 뿐만 아니라 기소해야 할 잠재적 위협 또는 일련의 위협이 있는 환경에서 다양한 대응 옵션과 잠재적인 균형에 대해 창의적으로 생각할 수도 있습니다. ”

국방부가 이 작업에 누구의 기술을 사용하고 있는지는 확실하지 않습니다. 킬 체인에서 생성 AI를 사용하는 것은(초기 계획 단계에서도) 몇몇 주요 모델 개발자의 사용 정책을 위반하는 것으로 보입니다. Anthropic의 정책예를 들어, “인명에 해를 끼치거나 손실을 입히도록 설계된 시스템”을 생산하거나 수정하기 위해 해당 모델을 사용하는 것을 금지합니다.

우리의 질문에 대한 응답으로 Anthropic은 CEO Dario Amodei의 TechCrunch를 지적했습니다. 최근 파이낸셜타임스와의 인터뷰그는 자신의 군사 활동을 옹호했습니다.

국방과 정보 분야에서 AI를 절대 사용해서는 안 된다는 입장은 제게는 이해가 되지 않습니다. 우리가 폭동을 일으키고 그것을 사용하여 우리가 원하는 모든 것(최후의 종말 무기까지 포함)을 만들어야 한다는 입장도 분명히 미친 짓입니다. 우리는 책임감 있게 일을 처리하기 위해 중간 지점을 찾으려고 노력하고 있습니다.

OpenAI, Meta 및 Cohere는 TechCrunch의 논평 요청에 응답하지 않았습니다.

삶과 죽음, 그리고 AI 무기

최근 몇 달 동안 AI 무기가 실제로 생사 결정을 내릴 수 있도록 허용해야 하는지에 대한 국방 기술 논쟁이 벌어졌습니다. 어떤 사람들은 미군이 이미 그런 무기를 갖고 있다고 주장합니다.

Anduril CEO 팔머 럭키(Palmer Luckey)는 최근 X에 언급됨 미군은 오랫동안 자율무기 시스템을 구매하고 사용해 왔다는 것이다. CIWS 포탑.

“국방부는 수십 년 동안 자율 무기 시스템을 구매하고 사용해 왔습니다. 이들의 사용(및 수출!)은 잘 이해되고 엄격하게 정의되며 전혀 자발적이지 않은 규칙에 의해 명시적으로 규제됩니다.”라고 Luckey는 말했습니다.

그러나 TechCrunch가 미 국방부가 루프에 인간이 없는 완전 자율 무기를 구입하고 운영하는지 물었을 때 Plumb은 원칙적으로 그 아이디어를 거부했습니다.

“아니요. 짧은 대답이에요.” Plumb이 말했습니다. “신뢰성과 윤리의 문제로 우리는 무력 사용 결정에 항상 인간을 참여시킬 것이며 여기에는 무기 시스템도 포함됩니다.”

“자율성”이라는 단어는 다소 모호하며, AI 코딩 에이전트, 자율 주행 자동차 또는 자체 발사 무기와 같은 자동화 시스템이 언제 진정으로 독립적이 될지에 대한 기술 업계 전반의 논쟁을 불러일으켰습니다.

Plumb은 자동화된 시스템이 독립적으로 삶과 죽음의 결정을 내린다는 생각은 “너무 이분법적”이며 현실은 덜 “공상 과학”이라고 말했습니다. 오히려 그녀는 국방부의 AI 시스템 사용이 실제로는 고위 지도자들이 전체 프로세스에 걸쳐 적극적인 결정을 내리는 인간과 기계 간의 협력이라고 제안했습니다.

“사람들은 이것을 어딘가에 로봇이 있고 곤큘레이터가 있는 것처럼 생각하는 경향이 있습니다. [a fictional autonomous machine] 종이 한 장을 뱉어내면 인간은 상자에 체크만 하면 됩니다.”라고 Plumb은 말했습니다. “이것은 인간-기계 팀 구성이 작동하는 방식이 아니며 이러한 유형의 AI 시스템을 사용하는 효과적인 방법도 아닙니다.”

국방부의 AI 안전

군사 파트너십이 실리콘밸리 직원들 사이에서 항상 잘 진행된 것은 아닙니다. 작년에 수십 명의 Amazon과 Google 직원이 이스라엘과의 군사 계약에 항의한 뒤 해고되고 체포됐다.코드명 “Project Nimbus”에 해당하는 클라우드 거래입니다.

이에 비해 AI 커뮤니티에서는 상당히 냉담한 반응을 보이고 있습니다. Anthropic의 Evan Hubinger와 같은 일부 AI 연구자들은 군대에서 AI를 사용하는 것은 불가피하며, AI가 올바르게 사용되도록 하려면 군대와 직접 협력하는 것이 중요하다고 말합니다.

Hubinger는 “AI로 인한 치명적인 위험을 심각하게 받아들인다면 미국 정부는 참여해야 할 매우 중요한 행위자이며 미국 정부의 AI 사용을 막으려는 것은 실행 가능한 전략이 아닙니다.”라고 Hubinger는 말했습니다. 온라인 포럼에 게시하세요 LessWrong. “재앙적인 위험에만 초점을 맞추는 것만으로는 충분하지 않습니다. 정부가 모델을 오용할 수 있는 모든 방법도 방지해야 합니다.”

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다