Anthropic의 Daniela Amodei는 시장이 안전한 AI에 보상할 것이라고 믿습니다.

Anthropic의 Daniela Amodei는 시장이 안전한 AI에 보상할 것이라고 믿습니다.

트럼프 행정부 규제라고 생각할 수도 있다 불구가 되는 하지만 업계 최대 기업 중 하나는 이에 동의하지 않습니다.

목요일 WIRED의 대규모 인터뷰 행사에서 Anthropic 사장이자 공동 창업자인 Daniela Amodei는 편집장 Steven Levy에게 트럼프의 AI 및 암호화폐 황제 David Sacks가 트윗했다 그녀는 자신의 회사가 “공포 조장에 기초한 정교한 규제 포착 전략을 실행”하고 있다고 말하면서 AI의 잠재적인 위험을 지적하려는 회사의 노력이 업계를 더 강하게 만들고 있다고 확신합니다.

“우리는 첫날부터 이 놀라운 잠재력이 있다고 느꼈습니다. [for AI]Amodei는 “우리는 AI가 가져올 수 있는 잠재력, 긍정적인 이점, 장점을 전 세계가 깨닫게 되기를 진심으로 원하며, 그러기 위해서는 어려운 일을 바로잡아야 합니다. 우리는 위험을 관리 가능하게 만들어야 합니다. 이것이 바로 우리가 그것에 대해 그렇게 많이 이야기하는 이유입니다.”

300,000개 이상의 스타트업, 개발자 및 회사가 Anthropolic의 Claude 모델의 일부 버전을 사용하고 있으며 Amodei는 회사와 해당 브랜드와의 거래를 통해 고객이 AI가 훌륭한 일을 할 수 있기를 원하지만 AI가 안정적이고 안전하기를 원한다는 사실을 배웠다고 말했습니다.

“아무도 ‘우리는 덜 안전한 제품을 원한다’고 말하지 않습니다.”라고 Amodei는 Anthropolic이 자사 모델의 한계와 탈옥에 대해 보고한 것을 자동차 회사가 안전 문제를 어떻게 해결하는지 보여주기 위해 충돌 테스트 연구를 발표한 것에 비유했습니다. 비디오에서 충돌 테스트용 더미가 자동차 창문을 통해 날아다니는 모습을 보는 것은 충격적으로 보일 수 있지만, 자동차 제조업체가 해당 테스트의 결과로 차량의 안전 기능을 업데이트했다는 사실을 알게 되면 구매자에게 자동차를 팔 수 있습니다. Amodei는 Anthropic의 AI 제품을 사용하는 기업도 마찬가지이며 어느 정도 자율 규제되는 시장을 만든다고 말했습니다.

“우리는 경제에 투입하는 것만으로도 최소한의 안전 기준이라고 생각할 수 있는 수준을 설정하고 있습니다.”라고 그녀는 말했습니다. “[Companies] 이제 AI를 중심으로 많은 워크플로와 일상적인 도구 작업을 구축하고 있으며 ‘글쎄, 우리는 이 제품이 환각을 많이 일으키지 않고 유해한 콘텐츠를 생성하지 않으며 이러한 나쁜 일을 모두 수행하지 않는다는 것을 알고 있습니다.’ 왜 그 점에서 더 낮은 점수를 받을 경쟁자를 선택하겠습니까?”

다니엘라 아모데이(Daniela Amodei)가 WIRED 빅 인터뷰 행사에 참석했습니다.

사진: 애니 노엘커

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다