알고리즘 투명성에 대한 수요가 증가함에 따라 설명 가능한 AI가 근거가됩니다.
Smarter AI는 훌륭하지만 AI 실제로 신뢰할 수 있습니까? 그것이 진짜 게임 체인저입니다.
AI는 이제 은행 대출에서 구직 신청에 이르기까지 모든 영향을 미치는 결정을 내리고 있습니다. 그러나 하나의 큰 캐치가 있습니다. 대부분의 경우, 그것이 왜 그러한 결정을 내린지 알려주지 않습니다.
그게 어디에 있습니다 설명 가능한 ai (xai) 단계적으로. 단일 기술이 아니라 기계 학습 모델을보다 투명하고 해석 가능하며 결정적으로 신뢰할 수있게하는 데 중점을 둔 분야가 증가하고 있습니다.
설명이 중요한 이유
현대 AI 모델, 특히 딥 러닝 시스템은 엄청나게 강력합니다. 그러나 그들은 또한 엄청나게 불투명합니다. 우리는 결과를 얻지 만 종종 모델이 어떻게 도착했는지 전혀 알 수 없습니다.
그리고 그것은 진정한 문제입니다. 특히 고위용 분야에서 :
- Healthcare
- 💳 금융
- 🚗 자율 주행
- ⚖️ 법률 시스템
AI 추론에 대한 가시성이 없으면 실수를 저지르거나 불공정 한 결과에 도전하거나 사용자 신뢰를 구축하기가 어렵습니다. 경우에 따라 GDPR의 “설명에 대한 권리”와 같은 규정을 위반할 수도 있습니다.
Xai는 모델 결정을보다 이해하기위한 몇 가지 전략을 제공합니다. 다음은 가장 널리 사용되는 것의 고장입니다.
1. 기능 속성
“어떤 입력 기능이 모델의 결정에 가장 큰 영향을 미쳤습니까?”
-
Shap (Shapley addititive 설명)
게임 이론에 따라 SHAP는 각 입력에 점수를 할당하여 예측에 얼마나 많은 기여를했는지를 보여줍니다.
-
라임 (로컬 해석 가능한 모델 공유 설명)
로컬에서 무슨 일이 일어나고 있는지 설명하기 위해 하나의 구체적인 예측에 대해 간단한 모델을 구축합니다.
-
졸업식 / 졸업식 ++
CNN이 예측할 때 중점을 둔 이미지에서 중요한 영역을 강조합니다. 의료 영상 또는 객체 탐지와 같은 작업에 매우 유용합니다.
2. 개념 기반 설명
“모델은 어떤 고급 아이디어를 감지 했습니까?”
-
Cavs (개념 활성화 벡터)
신경 네트워크 계층을 “스트라이프 텍스처”또는 “도시 장면”과 같은 인간 이해할 수있는 개념에 연결합니다.
-
개념 관련성 전파 (CRP)
낮은 수준의 입력 데이터 대신 추상 개념으로 결정을 추적합니다.
이러한 접근법은 인간의 사고와 기계 추론 사이의 격차를 해소하는 것을 목표로합니다.
3. 반 사실
“결과를 바꾸었던 것은 무엇입니까?”
대출 신청이 거부되었다고 상상해보십시오. 반 사실적 설명에 다음과 같이 말할 수 있습니다.“연간 소득이 5,000 파운드 더 높았다면 승인되었을 것입니다.”
그것은 단지 도움이되지 않습니다. 실행 가능합니다. 반 인상은 사용자에게 모델 결과를 이해하고 잠재적으로 영향을 줄 수있는 방법을 제공합니다.
4. 인간 중심 디자인
Xai는 영리한 알고리즘에 관한 것이 아니라 사람들에 관한 것입니다. 인간 중심의 Xai는 다음에 중점을 둡니다.
- 비 기술적 사용자가 이해할 수있는 설명을 설계합니다
- 시각, 자연어 또는 스토리와 같은 출력을 사용합니다
- 청중에게 설명 적응 (데이터 과학자 ≠ 환자 ≠ 규정 자)
좋은 설명은 자신이있는 사람들을 만납니다.
Xai가 그렇게 어려운 이유는 무엇입니까?
이러한 모든 도구를 사용하더라도 Xai는 여전히 쉽게 얻을 수 없습니다.
도전 |
왜 중요한가 |
---|---|
블랙 박스 복잡성 |
딥 모델은 거대하고 비선형입니다. 깨끗하게 요약하기 어렵습니다. |
단순성 대 세부 사항 |
너무 간단하고 뉘앙스를 잃습니다. 너무 상세하고 아무도 그것을 이해하지 못합니다 |
프라이버시 위험 |
더 많은 투명성은 민감한 정보를 노출시킬 수 있습니다 |
사용자 신뢰 |
설명이 인공적이거나 일관성이 없다고 느끼면 신뢰가 무너집니다 |
모든 곳이 어디로 가고 있는지
차세대 XAI는인지 과학, UX 디자인 및 윤리를 혼합하고 있습니다. 목표는 모델이 무엇을하고 있는지 설명하는 것이 아니라 방법과 더 밀접하게 조정하는 것입니다. 인간 생각하고 결정하십시오.
앞으로 AI가 정확할 것으로 기대하지는 않습니다. 우리는 그것을 기대할 것입니다 책임이 있습니다.
“알고리즘이 그렇게 말했기 때문에”더 이상 잘라 내지 않습니다.
Post Comment