2020 년 12 월 15 일- 지금까지 많은 사람들이 Google에서 Timnit Gebru 박사의 해고에 대해 들었을 것입니다. 그녀는 얼굴 인식 바카라 사이트 쿠폰에서 인종 및 성 편견을 노출시키는 획기적인 연구로 유명한 AI 편견 및 윤리 연구원입니다.

공정성은 개인 정보 보호, 보안 및 투명성/ 설명과 마찬가지로 책임있는 AI의 주요 기둥 중 하나입니다. 우리가 AI 모델의 사용을보다 중요한 산업으로 확장함에 따라, 그들은 임시 인간 판단의 결정보다 공정 할 가능성이 있습니다.

공정성 부족은 귀중한 AI의 채택을 방해 할 수 있습니다
COMPAS는 여러 미국 주에서 재범을 예측하기 위해 사용한 AI 도구 인 Compas는 백인보다 아프리카 계 미국인에 대한 허위 긍정의 두 배가있는 것으로 밝혀졌습니다. 바카라 사이트 쿠폰이 배치되기 전에이 암시 적 편견이 잡히지 않았기 때문에 많은 아프리카 계 미국인들이 재구성 될 것으로 잘못 예측되었습니다.

얼굴 인식은 또 다른 논쟁적인 기술입니다. 이 바카라 사이트 쿠폰에서 편견의 증거는 잘 튀어 나왔습니다.

AI 모델이 적극적으로 편견을 완화시키고 공정성을 보장하기 위해 노력할 때 수익 기회 손실 또는 평판 히트의 일부 예일뿐입니다.

편견이 처음에 어떻게 소개됩니까?

바이어스가 세 가지 주요 길을 통해 모델에 도입됩니다 :
1) 문제의 프레임
바이어스가 문제를 처음 정의 할 때 바이어스를 도입 할 수 있습니다. 사용할 대상 변수와 최소화 할 비용 기능을 결정합니다. 신용도를 예측할 때 은행의 AI 모델의 목표는 대출 상환율을 극대화하거나 이익을 극대화해야합니까?

2) 바이어스 데이터 세트

왜곡 된 샘플
과거 데이터 세트에 특정 바이어스가 포함되어 있으면 모델이 이러한 바이어스를 복제합니다. 범죄 위험 평가 도구에서 경찰이 처음에 범죄율이 높은 지역을 순찰하는 경향이 있다면 범죄 위험 평가 모델은 같은 지역에서 더 많은 범죄 사례를 기록 할 가능성이 높습니다..
비 대표 교육 데이터 또는 클래스 불균형

Buolamwini와 Gebru (Gender Shades) 의이 연구에서 얼굴 인식 기술에서 여성과 소수 민족의 높은 오류율은 대표적인 교육 데이터로 추적 될 수 있습니다. 두 개의 얼굴 분석 벤치 마크에서 사용되는 데이터 세트는 흰색 얼굴 (~ 80%)으로 압도적으로 구성되었습니다.

프록시
모델이 보호 된 속성에 대한 통계 프록시를 사용하면 바이어스가 발생할 수 있습니다.
2015 년 Amazon은 고용 결정을위한 이력서 선별 검사를 자동화하는 ML 도구를 개발했습니다. 이 모델은 성별 중립적 인 방식으로 기술 직업 후보를 심사하지 않았다는 것을 발견했다.

이 연구 논문에서 연구원들은 지역 사회 및 범죄 데이터 세트 (미국 인구 조사, 법 집행 및 FBI의 범죄 데이터로 구성)를 기반으로 지역 사회 당 범죄율을 예측하려고 시도했습니다. 122 개의 변수에서 인종과 명시 적으로 연결된 32 개의 기능을 제거했습니다.

3) 데이터 준비
마지막으로, 어떤 기능을 포함 시키거나 제거 할 기능이 문제에 고유합니다. 나이는 고용 소프트웨어에서는 차별적 일 수 있지만 의료 모델에서는 예측할 수 있습니다.

완화 전략
공정성의 정의는 간단한 것이 아닙니다. 공정성에 대한 표준 정의는 실제로 없습니다.

1. 다양한 데이터 과학 팀
이것이 다양한 데이터 과학 팀을 갖는 것이 중요합니다. 경험이 다른 배경의 다른 구성원은 실험 설계 및 실행에서 사각 지대를 감지하는 데 도움이 될 수 있습니다.

2. 레드 팀
사이버 보안의 빨간 팀과 유사하게, 엔지니어, 데이터 과학자 및 비즈니스 사람들이 함께 생각하는 것과 관련이 있습니다. 이것은 합성 데이터 세트 (Edge Case를 통합하기에 충분히 광범위한)의 설계에 관여하는 사람들과 동일한 그룹 일 수 있거나 드리프트를 감지하거나 의미가없는 예측을 발견하는 데 관여하는 사람들과 동일 할 수 있습니다..

3. 프로세스를 설정하고 도구를 활용하여 AI 편향을 테스트하고 완화하십시오
편견 및 윤리적 문제를 완화하는 데 도움이되는 일부 도구 :

  • IBM은 AI Fairness 360이라는 감독되지 않은 학습 알고리즘의 편견을 감지하고 완화 할 수있는 오픈 소스 라이브러리가 있습니다. 현재 이진 분류 모델을 위해 설계되었으며 멀티 클래스 및 기타 ML 문제로 확장해야합니다.
  • IBM Watson의 OpenScale은 편견 검사 및 실시간 완화를 수행합니다
  • 식품의 영양 레이블과 유사한 모델 카드는 ML 모델의 의도 된 사용, 제한, 편향 검사 및 성능 평가를 명확하게합니다. 이것은 Google에서 Gebru에 의해 개발되었습니다.
  • 알고리즘 감사를위한 프레임 워크
  • Alan Turing Institute for Fairness, Transparency and Privacy and Partnership on AI를 통한 그러한 연구와 함께 유지

AI의 윤리적 및 공정성은 사례 별 접근이 필요합니다. 그러나 신뢰할 수있는 바카라 사이트 쿠폰을 구축하는 데 점점 더 중요한 기둥입니다.