Wikipedia가 AI Slop 콘텐츠와 싸우는 방법
AI 쓰기 도구가 부상함에 따라 Wikipedia 편집자들은 허위 정보와 가짜 인용으로 가득 찬 AI 생성 컨텐츠의 맹공격을 다루어야했습니다. 이미 Wikipedia 자원 봉사자 커뮤니티는 Wikimedia Foundation 제품 디렉터 Marshall Miller가 일종의 “면역 체계”응답에 비슷한 AI Slop과 싸우기 위해 동원했습니다.
Miller는“콘텐츠가 중립적이고 신뢰할 수 있도록 경계합니다. “인터넷이 바뀌면서 AI와 같은 것들이 나타날 때, 그것은 일종의 새로운 도전에 적응하고 그것을 처리하는 방법을 알아내는 면역 체계입니다.”
Wikipedians가 멍을 뚫고있는 한 가지 방법 404 미디어. 이 규칙에 대한지지를 표명 한 Wikipedia Reviewer는“끔찍한 초안으로 홍수가 쏟아져 나갔다”고 말했다. 그들은 빠른 제거가“그것을 싸우기위한 노력에 큰 도움이 될 것이며 정크 AI 잎을 집어 들기 위해 수많은 시간을 절약 할 수있을 것”이라고 덧붙였다. 또 다른 사람은 AI 출력 내부의“거짓말과 가짜 참조”는“엄청난 양의 경험이 풍부한 편집자 시간을 정리할 수 있습니다”라고 말합니다.
일반적으로 Wikipedia에서 제거를 위해 표시된 기사는 7 일간의 토론 기간을 입력하여 지역 사회 구성원이 사이트가 기사를 삭제 해야하는지 여부를 결정합니다. 새로 채택 된 규칙을 통해 Wikipedia 관리자는 기사가 명확하게 생성되어 있고 제출 한 사람이 검토하지 않은 경우 이러한 토론을 우회 할 수 있습니다. 그것은 세 가지 주요 징후를 찾는 것을 의미합니다.
- “여기에 Wikipedia 기사가 있습니다.”또는“도움이되기를 바랍니다!”
- 저자 나 출판물에 대한 언급이 잘못된 사람들을 포함하여 “무의미한”인용.
- 죽은 링크와 같은 존재하지 않는 참고 문헌, 유효하지 않은 체크섬이있는 ISBN 또는 해결할 수없는 DOI.
그러나 AI Wikipedians가 찾고있는 유일한 징후는 아닙니다. Wikiproject AI Cleanup의 일환으로,“소싱되지 않고 제대로 작성되지 않은 AI 생성 컨텐츠의 증가하는 문제를 해결하기위한”편집자들은 챗봇 작성 기사가 일반적으로 전시하는 문구 및 서식 특성의 목록을 작성했습니다.
이 목록은 AI 챗봇과 관련이있는 EM Dashes (“ -”)의 과도한 사용을 부르는 것 이상이며,“더 많은 것”과 같은 특정 연결과“숨막히는”것으로 묘사하는 것과 같은 홍보 언어를 과도하게 사용하는 것도 포함됩니다. 위키 백과의 조언은 곱슬 인용 자국과 직선 대신 apostrophes를 포함하여 위키피디언들에게 조언하는 다른 형식의 문제가 있습니다.
그러나 Wikipedia의 빠른 제거 페이지는 이러한 특성이 AI에 의해 작성된 것을 결정하는 데있어“그 자체로 유일한 근거가되어서는 안된다”고 지적합니다. 빠른 삭제 정책은 아닙니다 단지 AI 생성 슬로프 컨텐츠의 경우. 온라인 백과 사전은 또한 주제를 괴롭 히거나 사기 또는 기물 파손을 포함하는 페이지를 빠르게 제거 할 수있게하거나, “일관성이없는 텍스트 또는 횡설수설”을 아프게 할 수 있습니다.
백과 사전을 주최하지만 웹 사이트 정책을 만드는 데 손이없는 Wikimedia Foundation은 AI에 대한 자원 봉사자 커뮤니티와 항상 눈을 보지 못했습니다. 6 월, Wikimedia Foundation은 지역 사회의 반발에 직면 한 후 AI 생성 요약을 기사 상단에 두는 실험을 일시 중지했습니다.
Wikipedia 커뮤니티 전체의 AI에 대한 다양한 견해에도 불구하고 Wikimedia Foundation은 정확하고 고품질의 글쓰기를 초래하는 한이를 사용하지 않습니다.
Miller는“이로 인해 양날의 검입니다. “사람들이 더 높은 양으로 품질이 낮은 콘텐츠를 생성 할 수있게되지만 AI는 자원 봉사자가 일을 할 수 있도록 도와주는 도구가 될 수 있습니다. 예를 들어, Wikimedia Foundation은 이미 AI를 사용하여 기물 파손이 포함 된 기사 개정을 식별하는 데 도움이되며 최근에 출판 된 AI 전략에는 “반복적 인 작업”및 번역을 자동화하는 데 도움이되는 AI 도구가 포함 된 지원 편집자가 포함되어 있습니다.
Wikimedia Foundation은 또한 새로운 기고자들이 정책 및 서면 지침에 부응하는 데 도움이되는 Edit Check라는 비 AI 기반 도구를 적극적으로 개발하고 있습니다. 결국, 그것은보고되지 않은 AI 생성 된 제출물의 부담을 완화하는 데 도움이 될 수 있습니다. 현재, 편집 확인은 작가가 하나없이 많은 양의 텍스트를 작성한 경우 인용을 추가하고 작가가 중립적 인 상태를 유지할 수 있도록 톤을 확인할 수있는 인용을 추가하도록 상기시킬 수 있습니다.
Wikimedia Foundation은 또한 도구에 “페이스트 점검”을 추가하기 위해 노력하고 있습니다. 기고자들은 Wikimedia Foundation 이이 도구를 구축하는 데 도움이되는 몇 가지 아이디어를 제출했으며, 한 사용자는 의심되는 AI 저자에게 챗봇에 의해 생성 된 양을 지정할 것을 제안했습니다.
Miller는“우리는 지역 사회와 함께 그들이하는 일과 생산적 인 일에 대해 추적하고 있습니다. “현재 편집 컨텍스트에서 머신 러닝을 사용하는 데 중점을 두는 것은 사람들이 건설적인 편집을하도록 돕고, 순찰하는 사람들이 올바른 편집에주의를 기울이는 데 도움이됩니다.”
Post Comment