AI 실수는 인간의 실수보다 더 이상합니다

AI 실수는 인간의 실수보다 더 이상합니다

인간은 항상 실수를합니다. 우리 모두는 매일 새롭고 일상적인 작업을 수행합니다. 우리의 실수 중 일부는 미미하고 일부는 치명적입니다. 실수는 친구들과의 신뢰를 깨뜨리고 상사의 자신감을 잃고 때로는 삶과 죽음의 차이가 될 수 있습니다.

수천 년 동안, 우리는 인간이 일반적으로하는 실수의 종류를 다루기 위해 보안 시스템을 만들었습니다. 요즘 카지노는 딜러를 정기적으로 회전시킵니다. 너무 오랫동안 같은 작업을 수행하면 실수를 저지르기 때문입니다. 병원 직원은 수술 전에 사지에 글을 쓰고 의사가 올바른 신체 부위에서 작동하도록하고, 수술기구를 계산하여 신체 안에 아무도 남지 않았는지 확인합니다. 카피 편집에서 이중 입구 부기까지, 항소 법원에 이르기까지, 우리 인간은 인간의 실수를 바로 잡는 데 정말 능숙 해졌습니다.

인류는 이제 완전히 다른 종류의 실수 제작자를 사회에 빠르게 통합하고 있습니다. LLM (Largin Language Model)과 같은 기술은 전통적으로 인간이 충족하는 많은인지 과제를 수행 할 수 있지만 많은 실수를합니다. 그것은 것 같습니다 말도 안 되는 챗봇이 바위를 먹거나 피자에 접착제를 추가하라고 말할 때. 그러나 인간의 실수와 차별화하는 것은 AI 시스템의 실수의 빈도 나 심각성이 아닙니다. 그것은 그들의 이상함입니다. AI 시스템은 인간과 같은 방식으로 실수를하지 않습니다.

AI 사용과 관련된 대부분의 마찰과 위험은 그 차이에서 발생합니다. 이러한 차이에 적응하고 AI 실수로 인한 피해를 방지하는 새로운 보안 시스템을 발명해야합니다.

인간의 실수 대 AI 실수

인생의 경험은 우리 각자가 인간이 언제, 어디서 실수를할지 추측하기 쉽습니다. 인간의 오류는 누군가의 지식의 가장자리에 오는 경향이 있습니다. 우리 대부분은 미적분학 문제를 해결하는 실수를 저지 릅니다. 우리는 인간의 실수가 클러스터 될 것으로 기대합니다. 단일 미적분학 실수는 다른 사람과 동반 될 가능성이 높습니다. 우리는 피로와 산만과 같은 요인에 따라 실수가 왁스와 쇠약으로 예상됩니다. 그리고 실수는 종종 무지를 동반합니다. 미적분학 실수를하는 사람은 미적분학 관련 질문에“모르겠다”고 응답 할 가능성이 높습니다.

AI 시스템이 이러한 인간과 같은 실수를 저지르는 한, 우리는 모든 실수 수정 시스템을 출력에 포함시킬 수 있습니다. 그러나 현재 AI 모델, 특히 LLM의 작물은 실수를 다르게 발생시킵니다.

AI 오류는 특정 주제를 중심으로 클러스터링하지 않고 무작위로 겉보기에 발생합니다. LLM 실수는 지식 공간을 통해 더 고르게 분포되는 경향이 있습니다. 모델은 양배추 염소를 먹어라.

그리고 AI 실수는 무지를 동반하지 않습니다. LLM은 진실한 말을 할 때와 마찬가지로 완전히 잘못된 것을 말할 때 자신감이있을 것입니다. 겉보기에 무작위 불일치 LLM의 경우 복잡한 다단계 문제에서 추론을 신뢰하기가 어렵습니다. 비즈니스 문제에 도움을주기 위해 AI 모델을 사용하려면 제품의 수익성을 높이는 요인을 이해하는 것만으로는 충분하지 않습니다. 돈이 무엇인지 잊지 않을 것입니다.

AI 실수를 다루는 방법

이 상황은 두 가지 가능한 연구 영역을 나타냅니다. 첫 번째는 인간과 같은 실수를 저지르는 LLM을 엔지니어링하는 것입니다. 두 번째는 LLM이하는 특정한 종류의 실수를 다루는 새로운 실수 조정 시스템을 구축하는 것입니다.

우리는 이미 LLM이 인간과 같은 방식으로 행동하도록 이끌 수있는 몇 가지 도구를 가지고 있습니다. 이들 중 다수는“분야에서 발생합니다.조정”모델을 만드는 것을 목표로하는 연구는 인간 개발자의 목표와 동기에 따라 작용합니다. 한 가지 예는 Chatgpt의 획기적인 성공에 책임이있는 기술 : 인간의 피드백을 통한 강화 학습을 담당합니다. 이 방법에서, AI 모델은 (비 유적으로) 인간 평가자로부터 엄지 손가락을 부여하는 응답을 생성하는 데 보상을받습니다. 비슷한 접근법은 AI 시스템이 더 인간과 같은 실수를 저지르도록 유도하는 데 사용될 수 있습니다.

AI 실수를 잡을 때 인간의 실수를 방지하는 데 사용하는 일부 시스템이 도움이 될 것입니다. 어느 정도까지, llms를 강요합니다 이중 확인 그들 자신의 작업은 오류를 예방하는 데 도움이 될 수 있습니다. 그러나 LLMS는 또한 그럴듯 해 보이지만 이성에서 비행기 비행에 대한 설명을 구성 할 수 있습니다.

AI에 대한 다른 실수 완화 시스템은 우리가 인간에게 사용하는 것과는 다릅니다. 기계는 인간이하는 방식으로 피곤하거나 좌절 할 수 없기 때문에 LLM에 동일한 질문을 약간 다른 방식으로 반복적으로 요청하는 데 도움이 될 수 있습니다. 합성 다중 응답. 인간은 그런 성가신 반복을 참지는 않지만 기계는 그럴 것입니다.

유사점과 차이점을 이해합니다

연구자들은 여전히 ​​LLM 실수가 인간과의 오해가 어디로 분기되는지 이해하기 위해 고군분투하고 있습니다. AI의 이상 함 중 일부는 실제로 처음 보이는 것보다 더 인간과 비슷합니다. LLM으로의 쿼리를 작은 변경하면 응답이 크게 다른 것으로 알려져 있습니다. 신속한 감도. 그러나 설문 조사원이 말할 수 있듯이 인간도 이런 식으로 행동합니다. 의견 여론 조사에서 질문의 문구는 과감할 수 있습니다. 영향 답에.

LLM은 또한 편견이있는 것 같습니다 반복 교육 데이터에서 가장 흔한 단어; 예를 들어, 더 이국적인 위치에 대해 물었을 때에도“America”와 같은 친숙한 장소 이름을 추측합니다. 아마도 이것은 인간의 예일 것입니다.가용성 휴리스틱“LLMS로 나타나고, 기계가 질문을 통해 추론하기보다는 가장 먼저 떠오르는 것을 뱉어냅니다. 그리고 아마도 인간처럼, 아마도 일부 LLM은 얻는 것 같습니다 빗나간 긴 문서의 중간에; 그들은 처음과 끝에서 사실을 더 잘 기억할 수 있습니다. 연구자들이 LLM이 더 많은 예 긴 텍스트에서 정보를 검색하는 것은 정보를 균일하게 검색하는 데 더 잘하는 것 같습니다.

어떤 경우에는 LLM에 대한 기괴한 점은 그들이 생각하는 것보다 인간처럼 행동한다는 것입니다. 예를 들어, 일부 연구원들은이를 테스트했습니다 가설 그 LLM은 현금 보상을 제공하거나 사망으로 위협 할 때 더 잘 수행됩니다. 또한 LLM을“탈옥”하는 가장 좋은 방법 중 일부는 (제작자의 명시 적 지시에 불순종하게하는) 인간이 서로에게 사용하는 사회 공학 트릭의 종류와 비슷하게 보인다는 것이 밝혀졌습니다. 그렇지 않으면 또는 요청은 단지 농담 일뿐입니다. 그러나 다른 효과적인 탈옥 기술은 인간이 결코 떨어지지 않을 것입니다. 한 그룹은 ASCII 아트 (단어 나 그림처럼 보이는 상징의 구성)를 사용하여 폭탄을 짓는 방법과 같은 위험한 질문을 제기한다면 LLM은 기꺼이 대답 할 것임을 발견했습니다.

인간은 때때로 무작위로 무작위로, 이해할 수 없으며 일관되지 않은 실수를 할 수 있지만, 그러한 사건은 드물고 종종 더 심각한 문제를 나타냅니다. 우리는 또한 이러한 행동을 전시하는 사람들을 의사 결정 위치에 두지 않는 경향이 있습니다. 마찬가지로, 우리는 AI 의사 결정 시스템을 실제 능력에 맞는 응용 프로그램에 제한하면서 실수의 잠재적 인 영향을 간절히 염두에 두어야합니다.

사이트 기사에서

웹 주변의 관련 기사

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다