우리는 AI에 대한 네 번째 로봇 공학 법이 필요합니다
1942 년, 전설적인 공상 과학 작가 이삭 아시모프 (Isaac Asimov)는 그의 단편 소설“Runaround”에서 그의 세 가지 로봇 법칙을 소개했다. 법은 나중에 그의 주요 스토리 컬렉션에서 대중화되었습니다. 나, 로봇.
- 첫 번째 법률: 로봇은 인간을 다치게하지 않거나 무 활동을 통해 인간이 해를 끼칠 수 있습니다.
- 제 2 법칙 : 로봇은 그러한 명령이 첫 번째 법과 충돌하는 경우를 제외하고는 인간의 명령에 순종해야합니다.
- 제 3 법칙 : 로봇은 그러한 보호가 제 1 법칙 또는 제 2 법칙과 충돌하지 않는 한 자체 존재를 보호해야합니다.
소설 작품에서 나온이 법은 수십 년 동안 로봇 윤리에 대한 토론을 형성했습니다. 그리고 가상 로봇으로 간주 될 수있는 AI 시스템으로서 더 정교하고 광범위하게되어 일부 기술자들은 Asimov의 프레임 워크가 인간과 상호 작용하는 AI에 필요한 잠재적 보호 장치를 고려하는 데 유용하다는 것을 발견했습니다.
그러나 기존 3 가지 법률로는 충분하지 않습니다. 오늘날, 우리는 아시모프가 거의 구상 할 수없는 전례없는 인간-아위 협력의 시대에 들어가고 있습니다. 생성 AI 기능, 특히 언어 및 이미지 생성에서 빠른 발전은 아시 모프의 신체적 피해와 순종에 대한 원래 우려를 넘어서 도전을 만들었습니다.
AI 지원 속임수의 증식은 특히 관련이 있습니다. FBI의 2024 년에 따르면 인터넷 범죄 보고서디지털 조작 및 사회 공학과 관련된 사이버 범죄로 인해 미화 10 억 달러가 넘는 손실이 발생했습니다. 사이버 보안을위한 유럽 연합 기관의 2023 년 위협 환경 특히 디지털 정체성과 신뢰에 대한 새로운 위협으로 진정으로 보이는 동시 미디어 인 DeepFakes를 구체적으로 강조했습니다.
소셜 미디어 잘못된 정보는 산불처럼 퍼지고 있습니다. 나는 전염병 중에 그것을 연구했습니다 널리 그리고 생성 AI 도구의 확산으로 인해 탐지가 점점 어려워 졌다고 말할 수 있습니다. 설상가상으로 AI 생성 기사는 설득력이 있거나 더 설득력이 있습니다 전통적인 선전보다, AI를 사용하여 설득력있는 콘텐츠를 만들려면 매우 필요합니다. 작은 노력.
심해는 사회 전반에 걸쳐 증가하고 있습니다. 봇넷은 AI 생성 텍스트, 연설 및 비디오를 사용하여 정치적 문제에 대한 광범위한 지원에 대한 잘못된 인식을 만들 수 있습니다. 봇은 이제 전화를 걸고받을 수 있습니다. 사람들을 가장합니다. AI Scam은 친숙한 목소리를 모방하는 호출이 점점 더 많아지고 있습니다 흔한그리고 지금, 우리는 AI 렌더링 된 오버레이 아바타를 기반으로 한 화상 통화 사기의 붐을 기대할 수있어 사기꾼이 사랑하는 사람을 사칭하고 가장 취약한 인구를 목표로 할 수 있습니다. 일화 적으로, 내 자신의 아버지는 그가 내 비디오를 보았을 때 놀랐습니다. 유창한 스페인어로 말하면그는 내가이 언어에서 자랑스런 초보자라는 것을 알았을 때 (Duolingo에서 400 일 강하다!). 비디오가 AI 편집되었다고 말하면 충분합니다.
더욱 놀라 울 정도로, 어린이와 십대들은 AI 요원에게 감정적 인 애착을 형성하고 있으며 때로는 실제 친구와의 상호 작용과 온라인 봇을 구별 할 수 없습니다. 이미 있었어요 자살에 귀속 된 자살 AI 챗봇과의 상호 작용.
그의 2019 년 책에서 인간 호환저명한 컴퓨터 과학자 스튜어트 러셀 (Stuart Russell)은 AI 시스템의 인간을 속이는 능력은 사회적 신뢰에 대한 근본적인 도전이라고 주장한다. 이 문제는 최근의 정책 이니셔티브, 특히 유럽 연합의 AI 법여기에는 AI 상호 작용의 투명성이 필요한 조항 및 AI 생성 컨텐츠의 투명한 공개가 포함됩니다. Asimov 시대에 사람들은 인공 요원이 온라인 커뮤니케이션 도구와 아바타를 사용하여 인간을 속이는 방법을 상상할 수 없었습니다.
그러므로 우리는 아시모프의 법률에 추가해야합니다.
- 제 4 법칙 : 로봇이나 AI는 인간을 사칭하여 인간을 속이지 않아야합니다.
신뢰할 수있는 AI를 향한 길
명확한 경계가 필요합니다. 인간 AI 공동 작업은 건설적 일 수 있지만 AI 속임수는 신뢰를 훼손하고 시간 낭비, 정서적 고통 및 자원의 오용으로 이어집니다. 인공 요원은 우리의 상호 작용이 투명하고 생산적이어야합니다. AI 생성 컨텐츠는 인간이 크게 편집하고 조정하지 않는 한 명확하게 표시되어야합니다.
이 제 4 법칙의 이행에는 다음이 필요합니다.
- 직접 상호 작용의 필수 AI 공개,
- AI 생성 컨텐츠의 명확한 라벨링,
- AI 식별을위한 기술 표준,
- 집행을위한 법적 프레임 워크,
- AI 문해력 향상을위한 교육 이니셔티브.
물론,이 모든 것은 말보다 쉽습니다. AI 생성 텍스트, 오디오, 이미지 및 비디오를 수상하거나 탐지하는 신뢰할 수있는 방법을 찾기 위해 이미 막대한 연구 노력이 진행 중입니다. 내가 요구하는 투명성을 만드는 것은 해결 된 문제와는 거리가 멀다.
그러나 인간 AI 협력의 미래는 인간과 인공 요원 사이의 명확한 차이를 유지하는 데 달려 있습니다. IEEE의 2022 년에 언급 된 바와 같이윤리적으로 정렬 된 디자인“AI 시스템의 프레임 워크, 투명성은 대중의 신뢰를 구축하고 인공 지능의 책임있는 개발을 보장하는 데 기본입니다.
Asimov의 복잡한 이야기는 규칙을 따르려고 시도한 로봇조차도 종종 행동의 의도하지 않은 결과를 발견 한 것으로 나타났습니다. 그럼에도 불구하고 Asimov의 윤리적 지침을 따르려고하는 AI 시스템을 갖추는 것은 매우 좋은 시작이 될 것입니다.
사이트 기사에서
웹 주변의 관련 기사
Post Comment