과학자들은 책임감 있는 AI를 향해 AI를 추진해야 합니다.

과학자들은 책임감 있는 AI를 향해 AI를 추진해야 합니다.

연구 커뮤니티의 많은 사람들에게 인공 지능의 영향에 대해 낙관하기가 점점 더 어려워지고 있습니다.

전 세계적으로 권위주의가 부상하면서 AI가 생성한 ‘슬롭’이 합법적인 미디어를 압도하고 있는 반면, AI가 생성한 딥페이크는 잘못된 정보를 퍼뜨리고 극단주의 메시지를 앵무새처럼 흉내내고 있습니다. AI는 비타협적인 갈등 속에서 전쟁을 더욱 정확하고 치명적으로 만들고 있습니다. AI 회사는 데이터 라벨러로 일하는 남반구의 사람들을 착취하고 있으며 라이선스나 보상 없이 그들의 작업을 사용하여 전 세계 콘텐츠 제작자로부터 이익을 얻고 있습니다. 업계는 또한 막대한 에너지 수요로 인해 이미 불안정한 기후에 영향을 미치고 있습니다.

한편, 특히 미국에서는 과학에 대한 공공 투자가 리디렉션됨 다른 학문을 희생하면서 AI에 집중했습니다. 그리고 빅테크 기업들은 AI 생태계에 대한 통제력을 강화하고 있습니다. 이런저런 면에서 AI는 모든 것을 더욱 악화시키고 있는 것 같습니다.

이것이 전부가 아닙니다. 우리는 AI가 인류에게 해롭다고 체념해서는 안 됩니다. 우리 중 누구도 이것을 불가피한 것으로 받아들여서는 안 됩니다. 특히 과학, 정부, 사회에 영향을 미치는 위치에 있는 사람들은 더욱 그렇습니다. 과학자와 엔지니어는 AI를 유익한 방향으로 추진할 수 있습니다. 방법은 다음과 같습니다.

AI에 대한 아카데미의 견해

에이 퓨 스터디 지난 4월에는 AI 전문가(AI 관련 학회 논문의 저자 및 발표자) 중 56%가 AI가 사회에 긍정적인 영향을 미칠 것이라고 예측한 것으로 나타났습니다. 그러나 그러한 낙관주의는 과학계 전체로 확대되지는 않습니다. 애리조나 주립대학교 과학, 기술 및 환경 정책 연구 센터가 232명의 과학자를 대상으로 실시한 2023년 설문 조사에 따르면 일상 생활에서 생성 AI를 사용하는 것에 대해 기대보다는 우려가 거의 3:1 비율로 더 많은 것으로 나타났습니다.

우리는 이런 감정을 반복해서 접해왔습니다. 다양한 응용 작업 경력을 통해 우리는 개인 정보 보호, 사이버 보안, 물리 과학, 약물 발견, 공중 보건, 공익 기술 및 민주적 혁신 등 많은 연구 커뮤니티와 접촉하게 되었습니다. 이 모든 분야에서 우리는 AI의 영향에 대해 매우 부정적인 감정을 발견했습니다. AI 개발 구조를 개혁해야 할 필요성에 대해 글을 쓰는 데 대부분의 시간을 할애하지만 AI 낙관주의자의 목소리를 대변해 달라는 요청을 자주 받을 만큼 그 느낌이 너무 뚜렷합니다.

우리는 이러한 청중이 AI를 파괴적인 힘으로 보는 이유를 이해하지만 이러한 부정성은 AI의 발전을 이끌고 사회에 대한 영향력을 조종할 잠재력을 가진 사람들이 AI를 잃어버린 원인으로 보고 그 과정에 참여하지 않을 것이라는 다른 우려를 불러일으킵니다.

AI에 대한 긍정적인 비전의 요소

많은 기후 행동의 흐름을 바꾸려면 긍정적인 결과를 향한 길을 명확하게 표현해야 한다고 주장했습니다. 마찬가지로, 과학자와 기술자는 AI의 잠재적인 피해를 예측하고, 경고하고, 완화하는 데 도움을 주어야 하지만, 기술이 선의를 위해 활용될 수 있는 방법을 강조하고 그러한 목적을 향한 대중의 행동을 활성화해야 합니다.

AI를 활용하고 재구성하여 사람들의 삶을 개선하고, 권력을 집중하기보다는 분배하고, 심지어 민주적 프로세스를 강화하는 방법은 무수히 많습니다. 많은 사례가 과학계에서 나타났으며 축하받을 가치가 있습니다.

몇 가지 예: AI는 다음과 같은 자원이 부족한 상황을 포함하여 언어 간 의사소통 장벽을 제거하고 있습니다. 소외된 수화 그리고 원주민 아프리카 언어. AI 지원 심의 및 입법 참여를 통해 정책 입안자가 많은 구성원의 관점을 통합하도록 돕고 있습니다. 대규모 언어 모델은 개별 대화를 확장하여 기후 변화 회의론을 해결하고 중요한 순간에 정확한 정보를 전파할 수 있습니다. 국립 연구소에서는 과학 연구를 가속화하기 위해 AI 기반 모델을 구축하고 있습니다. 그리고 의학 및 생물학 분야 전반에 걸쳐 머신러닝은 약물 발견을 지원하는 단백질 구조 예측과 같은 과학적 문제를 해결하고 있으며, 이는 2024년 노벨상을 수상했습니다.

이러한 각 애플리케이션은 초기 단계이고 확실히 불완전하지만, 모두 AI가 공익을 증진하기 위해 활용될 수 있음을 보여줍니다. 과학자들은 그러한 노력을 수용하고, 옹호하고, 확장해야 합니다.

과학자들을 위한 행동 촉구

우리의 새 책에서는 민주주의 재배선: AI가 어떻게 우리의 정치, 정부, 시민권을 변화시킬 것인가우리는 AI를 공익을 위해 추진하기 위해 노력하는 정책 입안자를 위한 네 가지 주요 조치를 설명합니다.

이는 과학자들에게도 적용됩니다. 연구자들은 다음을 위해 노력해야 한다. 개정 AI 산업을 더욱 윤리적이고 공평하며 신뢰할 수 있게 만드는 것입니다. 우리는 집단적으로 해야 한다 개발하다 AI를 발전시키고 적용하는 연구에 대한 윤리적 규범을 준수해야 하며, 이러한 규범을 준수하는 AI 개발자를 활용하고 관심을 기울여야 합니다.

둘째, 우리는 저항하다 AI의 부정적인 적용을 문서화하고 부적절한 사용을 조명함으로써 AI의 유해한 사용.

셋째, 우리는 책임감있게 사용 AI는 사회와 사람들의 삶을 더 좋게 만들고, AI의 역량을 활용하여 그들이 봉사하는 지역 사회를 돕습니다.

그리고 마지막으로, 우리는 다음을 옹호해야 합니다. 혁신 AI의 영향에 대비하는 기관 대학, 전문 사회, 민주적 조직은 모두 혼란에 취약합니다.

과학자에게는 특별한 특권과 책임이 있습니다. 우리는 기술 자체에 가까이 있으므로 기술의 궤적에 영향을 미칠 수 있는 좋은 위치에 있습니다. 우리는 AI가 주입된 우리가 살고 싶은 세상을 만들기 위해 노력해야 합니다. 역사학자로서의 기술 멜빈 크란츠버그(Melvin Kranzberg)가 관찰했습니다.“좋지도 나쁘지도 않고 중립도 아니다.” 우리가 만드는 AI가 사회에 해롭거나 유익한지는 오늘날 우리가 내리는 선택에 달려 있습니다. 그러나 우리는 그것이 어떤 모습인지에 대한 비전 없이는 긍정적인 미래를 창조할 수 없습니다.

귀하의 사이트 기사에서

웹상의 관련 기사

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다