AI 윤리에 관한 IBM의 Francesca Rossi : 엔지니어를위한 통찰력

AI 윤리에 관한 IBM의 Francesca Rossi : 엔지니어를위한 통찰력

약 10 년 동안 AI 윤리에 몰두 한 컴퓨터 과학자로서, 나는 분야가 어떻게 진화했는지 직접 목격했습니다. 오늘날, 점점 더 많은 엔지니어들이 복잡한 윤리적 고려 사항을 탐색하면서 AI 솔루션을 개발하고 있습니다. 기술 전문 지식 외에도 책임있는 AI 배포에는 윤리적 영향에 대한 미묘한 이해가 필요합니다.

IBM의 AI 윤리 글로벌 리더로서의 역할에서 AI 엔지니어가 어떻게 운영 해야하는지에 대한 상당한 변화를 관찰했습니다. 그들은 더 이상 다른 AI 엔지니어들과 기술 구축 방법에 대해 이야기하지 않습니다. 이제 그들은 그들의 창조물이 이러한 서비스를 사용하여 커뮤니티에 어떤 영향을 미치는지 이해하는 사람들과 교류해야합니다. 몇 년 전 IBM에서 우리는 AI 엔지니어가 기술 및 관리 모두의 개발 프로세스에 추가 단계를 통합해야한다는 것을 인식했습니다. 편견 및 개인 정보와 같은 문제를 테스트하기위한 올바른 도구를 제공하는 플레이 북을 만들었습니다. 그러나 이러한 도구를 올바르게 사용하는 방법을 이해하는 것이 중요합니다. 예를 들어, AI에는 공정성에 대한 여러 가지 정의가 있습니다. 적용되는 정의를 결정하려면 영향을받는 커뮤니티, 고객 및 최종 사용자와 상담해야합니다.

어두운 셔츠와 매듭이 많은 스카프를 입고 길고 붉은 갈색 머리를 가진 여성.Francesca Rossi Cochairs IBM에서 그녀의 역할에서 회사의 AI 윤리위원회는 핵심 원칙과 내부 프로세스를 결정하는 데 도움을줍니다. 프란체스카 로시

교육은이 과정에서 중요한 역할을합니다. AI 윤리 플레이 북을 AI 엔지니어링 팀과 조종 할 때 한 팀은 프로젝트가 인종이나 성별과 같은 보호 된 변수를 포함하지 않았기 때문에 편견 문제가 없다고 생각했습니다. 그들은 우편 번호와 같은 다른 기능이 보호 변수와 관련된 프록시 역할을 할 수 있다는 것을 몰랐습니다. 엔지니어들은 때때로 기술 솔루션으로 기술 문제를 해결할 수 있다고 생각합니다. 소프트웨어 도구는 유용하지만 시작에 불과합니다. 더 큰 도전은 다양한 이해 관계자와 효과적으로 의사 소통하고 협력하는 법을 배우는 데 있습니다.

새로운 AI 제품 및 도구를 빠르게 방출하라는 압력은 철저한 윤리적 평가로 긴장을 일으킬 수 있습니다. 이것이 우리가 IBM의 AI 윤리위원회를 통해 중앙 집중식 AI 윤리 거버넌스를 설립 한 이유입니다. 종종 개별 프로젝트 팀은 마감일과 분기 별 결과에 직면하여 명성이나 고객 신뢰에 대한 광범위한 영향을 완전히 고려하기가 어렵습니다. 원칙과 내부 프로세스는 중앙 집중화되어야합니다. 우리의 고객 (다른 회사)은 특정 가치를 존중하는 솔루션을 크게 요구합니다. 또한 일부 지역의 규정은 이제 윤리적 고려 사항을 요구합니다. 주요 AI 회의조차도 연구의 윤리적 영향에 대해 논의하기 위해 논문이 필요하며, AI 연구원들은 자신의 작업의 영향을 고려하도록 강요합니다.

IBM에서 우리는 개인 정보 보호, 설명, 공정성 및 투명성과 같은 주요 문제에 중점을 둔 도구를 개발하여 시작했습니다. 각각의 문제에 대해, 우리는 엔지니어가 효과적으로 구현할 수 있도록 코드 가이드 라인 및 튜토리얼이있는 오픈 소스 도구 키트를 만들었습니다. 그러나 기술이 발전함에 따라 윤리적 도전도 발전합니다. 예를 들어, 생성 AI를 통해, 우리는 환각뿐만 아니라 잠재적으로 공격적이거나 폭력적인 콘텐츠 생성에 대한 새로운 우려에 직면 해 있습니다. IBM의 화강암 모델 패밀리의 일환으로 사실 성 및 유해한 컨텐츠와 같은 문제에 대한 입력 프롬프트 및 출력을 모두 평가하는 보호 모델을 개발했습니다. 이러한 모델 기능은 우리의 내부 요구와 고객의 요구에 모두 도움이됩니다.

소프트웨어 도구는 유용하지만 시작에 불과합니다. 더 큰 도전은 효과적으로 의사 소통하고 협력하는 법을 배우는 데 있습니다.

회사 거버넌스 구조는 기술 진화에 적응할 수있을 정도로 민첩해야합니다. 우리는 생성 AI 및 에이전트 AI와 같은 새로운 개발이 특정 위험을 증폭 시키거나 줄일 수있는 방법을 지속적으로 평가합니다. 오픈 소스로 모델을 공개 할 때, 우리는 이것이 새로운 위험을 도입하는지 여부와 필요한 보호 장치를 평가합니다.

윤리적 적기 깃발을 제기하는 AI 솔루션의 경우 수정으로 이어질 수있는 내부 검토 프로세스가 있습니다. 우리의 평가는 기술의 속성 (공정성, 설명, 개인 정보)을 넘어 배치 방식으로 확장됩니다. 배치는 인간의 존엄성과 선택 의지를 존중하거나 훼손 할 수 있습니다. 우리는 각 기술 사용 사례에 대한 위험 평가를 수행하여 위험을 이해하려면 기술이 운영 될 맥락에 대한 지식이 필요하다는 것을 인식합니다. 이 접근법은 유럽 AI Act의 프레임 워크와 일치합니다. 생성 AI 또는 기계 학습이 본질적으로 위험하지만 특정 시나리오가 높거나 낮을 수 있습니다. 고위험 사용 사례는 추가 조사가 필요합니다.

이 빠르게 진화하는 환경에서 책임있는 AI 엔지니어링은 지속적인 경계, 적응성 및 기술 혁신의 중심에 인간의 복지를 배치하는 윤리적 원칙에 대한 헌신이 필요합니다.

사이트 기사에서

웹 주변의 관련 기사

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다