사람들은 우리가 믿게하는 것보다 훨씬 적은 동반자를 위해 AI를 사용합니다.

사람들은 우리가 믿게하는 것보다 훨씬 적은 동반자를 위해 AI를 사용합니다.

사람들이 정서적 지원을 위해 AI 챗봇으로 향하는 방법에 대한 과잉주의가 많은 관계를 맺고, 때로는 관계를 맺는 경우도 종종 그러한 행동이 평범하다고 ​​생각하게됩니다.

인기있는 AI Chatbot Claude를 만드는 Anthropic의 새로운 보고서는 다른 현실을 드러냅니다. 실제로 사람들은 Claude의 동반자를 거의 찾지 않고 정서적 지원과 개인의 조언을 위해 봇으로 돌아갑니다.

이 회사는“동반자와 역할 플레이는 대화의 0.5% 미만으로 구성되어있다”고 보고서에서 강조했다.

Anthropic은 그 연구가“정서적 대화”에 AI의 사용에 대한 통찰력을 발굴하려고했으며, 이는 사람들이 코칭, 상담, 동반자, 역할극 또는 관계에 대한 조언을 위해 Claude와 대화 한 개인 교류로 정의한다고 말했다. 이 회사는 사용자가 Claude Free 및 Pro Tiers에 대해 450 만 개의 대화를 분석하면서 대부분의 Claude 사용량은 업무 또는 생산성과 관련이 있으며 사람들은 대부분 콘텐츠 생성을 위해 챗봇을 사용하고 있다고 말했습니다.

이미지 크레딧 :인류

즉, Anthropic은 사람들이 대인 관계 조언, 코칭 및 상담을 위해 클로드를 더 자주 사용한다는 사실을 발견했습니다. 사용자는 종종 정신 건강, 개인 및 전문성 개발 개선, 의사 소통 및 대인 관계 기술 연구에 대한 조언을 요구합니다.

그러나이 회사는 도움을 구하는 대화가 때때로 사용자가 실존 적 공포 나 외로움과 같은 감정적 또는 개인적인 고통에 직면하거나 실제 생활에서 의미있는 관계를 맺기가 어렵다는 경우 때때로 교제를 찾는 것으로 바뀔 수 있다고 지적합니다.

“우리는 또한 더 긴 대화에서 상담 또는 코칭 대화가 때때로 동반자로 변모한다는 것을 알게되었습니다.

Anthropic은 또한 Claude 자체가 프로그래밍이 위험한 조언을 제공하거나 자조를 지원하는 것과 같은 안전 경계를 방해하는 것을 방지하는 경우를 제외하고는 Claude 자체가 사용자의 요청에 거의 저항하는 방식과 같은 다른 통찰력을 강조했습니다. 사람들이 봇의 코칭이나 조언을 구할 때 대화는 시간이 지남에 따라 더 긍정적 인 경향이 있다고 회사는 말했다.

이 보고서는 확실히 흥미 롭습니다. 이는 AI 도구가 작업을 넘어서 얼마나 자주 사용되는지를 다시 한 번 상기시켜줍니다. 그럼에도 불구하고, AI 챗봇은 전반적으로 전반적으로 많은 노력을 기울이고 있음을 기억하는 것이 중요합니다. 그들은 환각을 느끼고, 잘못된 정보 나 위험한 조언을 쉽게 제공하는 것으로 알려져 있으며, 인정 자체가 인정했듯이 협박에 의지 할 수도 있습니다.

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다