알고리즘 투명성에 대한 수요가 증가함에 따라 설명 가능한 AI가 근거가됩니다.

알고리즘 투명성에 대한 수요가 증가함에 따라 설명 가능한 AI가 근거가됩니다.

Smarter AI는 훌륭하지만 AI 실제로 신뢰할 수 있습니까? 그것이 진짜 게임 체인저입니다.

AI는 이제 은행 대출에서 구직 신청에 이르기까지 모든 영향을 미치는 결정을 내리고 있습니다. 그러나 하나의 큰 캐치가 있습니다. 대부분의 경우, 그것이 왜 그러한 결정을 내린지 알려주지 않습니다.

그게 어디에 있습니다 설명 가능한 ai (xai) 단계적으로. 단일 기술이 아니라 기계 학습 모델을보다 투명하고 해석 가능하며 결정적으로 신뢰할 수있게하는 데 중점을 둔 분야가 증가하고 있습니다.


설명이 중요한 이유

현대 AI 모델, 특히 딥 러닝 시스템은 엄청나게 강력합니다. 그러나 그들은 또한 엄청나게 불투명합니다. 우리는 결과를 얻지 만 종종 모델이 어떻게 도착했는지 전혀 알 수 없습니다.

그리고 그것은 진정한 문제입니다. 특히 고위용 분야에서 :

  • Healthcare
  • 💳 금융
  • 🚗 자율 주행
  • ⚖️ 법률 시스템

AI 추론에 대한 가시성이 없으면 실수를 저지르거나 불공정 한 결과에 도전하거나 사용자 신뢰를 구축하기가 어렵습니다. 경우에 따라 GDPR의 “설명에 대한 권리”와 같은 규정을 위반할 수도 있습니다.


Xai는 모델 결정을보다 이해하기위한 몇 가지 전략을 제공합니다. 다음은 가장 널리 사용되는 것의 고장입니다.

1. 기능 속성

“어떤 입력 기능이 모델의 결정에 가장 큰 영향을 미쳤습니까?”

  • Shap (Shapley addititive 설명)

    게임 이론에 따라 SHAP는 각 입력에 점수를 할당하여 예측에 얼마나 많은 기여를했는지를 보여줍니다.

  • 라임 (로컬 해석 가능한 모델 공유 설명)

    로컬에서 무슨 일이 일어나고 있는지 설명하기 위해 하나의 구체적인 예측에 대해 간단한 모델을 구축합니다.

  • 졸업식 / 졸업식 ++

    CNN이 예측할 때 중점을 둔 이미지에서 중요한 영역을 강조합니다. 의료 영상 또는 객체 탐지와 같은 작업에 매우 유용합니다.


2. 개념 기반 설명

“모델은 어떤 고급 아이디어를 감지 했습니까?”

  • Cavs (개념 활성화 벡터)

    신경 네트워크 계층을 “스트라이프 텍스처”또는 “도시 장면”과 같은 인간 이해할 수있는 개념에 연결합니다.

  • 개념 관련성 전파 (CRP)

    낮은 수준의 입력 데이터 대신 추상 개념으로 결정을 추적합니다.

이러한 접근법은 인간의 사고와 기계 추론 사이의 격차를 해소하는 것을 목표로합니다.


3. 반 사실

“결과를 바꾸었던 것은 무엇입니까?”

대출 신청이 거부되었다고 상상해보십시오. 반 사실적 설명에 다음과 같이 말할 수 있습니다.“연간 소득이 5,000 파운드 더 높았다면 승인되었을 것입니다.”

그것은 단지 도움이되지 않습니다. 실행 가능합니다. 반 인상은 사용자에게 모델 결과를 이해하고 잠재적으로 영향을 줄 수있는 방법을 제공합니다.


4. 인간 중심 디자인

Xai는 영리한 알고리즘에 관한 것이 아니라 사람들에 관한 것입니다. 인간 중심의 Xai는 다음에 중점을 둡니다.

  • 비 기술적 사용자가 이해할 수있는 설명을 설계합니다
  • 시각, 자연어 또는 스토리와 같은 출력을 사용합니다
  • 청중에게 설명 적응 (데이터 과학자 ≠ 환자 ≠ 규정 자)

좋은 설명은 자신이있는 사람들을 만납니다.


Xai가 그렇게 어려운 이유는 무엇입니까?

이러한 모든 도구를 사용하더라도 Xai는 여전히 쉽게 얻을 수 없습니다.

도전

왜 중요한가

블랙 박스 복잡성

딥 모델은 거대하고 비선형입니다. 깨끗하게 요약하기 어렵습니다.

단순성 대 세부 사항

너무 간단하고 뉘앙스를 잃습니다. 너무 상세하고 아무도 그것을 이해하지 못합니다

프라이버시 위험

더 많은 투명성은 민감한 정보를 노출시킬 수 있습니다

사용자 신뢰

설명이 인공적이거나 일관성이 없다고 느끼면 신뢰가 무너집니다


모든 곳이 어디로 가고 있는지

차세대 XAI는인지 과학, UX 디자인 및 윤리를 혼합하고 있습니다. 목표는 모델이 무엇을하고 있는지 설명하는 것이 아니라 방법과 더 밀접하게 조정하는 것입니다. 인간 생각하고 결정하십시오.

앞으로 AI가 정확할 것으로 기대하지는 않습니다. 우리는 그것을 기대할 것입니다 책임이 있습니다.

“알고리즘이 그렇게 말했기 때문에”더 이상 잘라 내지 않습니다.

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다