AI 안전에 대한 싱가포르의 비전은 US-China Divide를 연결합니다

AI 안전에 대한 싱가포르의 비전은 US-China Divide를 연결합니다

정부의 정부 싱가포르 출시 청사진 오늘날 미국, 중국 및 유럽의 AI 연구원 회의에 이어 인공 지능 안전에 대한 글로벌 협업을 위해. 이 문서는 경쟁보다는 국제 협력을 통해 AI 안전에 대한 작업에 대한 공유 비전을 제시합니다.

MIT의 과학자 인 Max Tegmark는 지난 달 AI 조명 회의를 소집하는 데 도움을 준 MIT의 과학자 인 Max Tegmark는“싱가포르는 지구상의 소수 국가 중 하나입니다. “그들은 그들이 건설하지 않을 것이라는 것을 알고 있습니다 [artificial general intelligence] 그들은 그들 자신 – 그들에게 그것을 행할 것입니다. 그래서 그것을 건설 할 국가들이 서로 이야기하도록하는 것은 매우 관심이 있습니다. “

국가들은 물론 AGI를 건설 할 가능성이 가장 높다고 생각했지만, 미국과 중국은 물론 미국과 중국이라고 생각했지만 그 국가들은 함께 일하는 것보다 서로를 능가하는 것 같습니다. 1 월, 중국의 스타트 업 후 Deepseek은 최첨단 모델을 발표 한 후, 트럼프 대통령은이를“우리 산업을위한 모닝콜”이라고 불렀으며 미국은“이기기 위해 경쟁에 중점을 두어야한다”고 말했다.

글로벌 AI 안전 연구 우선 순위에 대한 싱가포르 합의는 연구원들이 세 가지 주요 영역에서 협력 할 것을 요구합니다. 프론티어 AI 모델이 제기 한 위험 연구, 해당 모델 구축 방법 탐색 및 가장 진보 된 AI 시스템의 동작을 제어하는 ​​방법을 개발합니다.

이 합의는 4 월 26 일에 개최 된 회의에서 올해 싱가포르에서 열린 Premier AI 행사 인 ICLR (International Conference on Learning Representations)과 함께 개발되었습니다.

Openai, Anthropic, Google Deepmind, Xai 및 Meta의 연구원들은 모두 MIT, Stanford, Tsinghua 및 중국 과학 아카데미를 포함한 기관의 학자들과 마찬가지로 AI 안전 행사에 참석했습니다. 미국, 영국, 프랑스, ​​캐나다, 중국, 일본 및 한국의 AI Safety Institutes의 전문가들도 참여했습니다.

Tsinghua University의 Xue Lan은“지정 학적 조각화 시대에 AI 안전에 대한 최첨단 연구의 포괄적 인 합성은 더 안전한 AI 미래를 형성하려는 공동의 약속과 함께오고 있다는 유망한 신호입니다.

점점 더 유능한 AI 모델의 개발은 놀라운 능력을 가지고 있으며 연구자들은 다양한 위험에 대해 걱정하게 만들었습니다. 바이어스 된 AI 시스템으로 인한 문제 또는 기술을 활용하는 범죄자상당수는 AI가 더 많은 영역에 걸쳐 인간을 능가하기 시작하면서 인류에게 실존 적 위협을 가할 수 있다고 생각합니다. 때때로“AI Doomers”라고도하는이 연구자들은 모델이 자신의 목표를 추구하기 위해 인간을 속이고 조작 할 수 있다고 걱정합니다.

AI의 잠재력은 또한 미국, 중국 및 기타 강력한 국가들 사이의 무기 경쟁에 대한 이야기를 불러 일으켰다. 이 기술은 정책 분야에서 경제 번영과 군사적 지배에 중요한 것으로 간주되며, 많은 정부가 자신의 비전과 규제가 어떻게 개발되어야하는지에 대한 규제를 제시하려고 노력했습니다.

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다