AI가 사진에서 성적 취향을 감지 할 수 있습니까?

Wikimedia Commons
출처 : 위키 미디어 커먼즈

스탠포드 (Stanford)의 새로운 연구에 따르면, 당신의 얼굴 사진을 분석하는 것만으로 게이인지 스트레이트인지를 확인할 수 있다고합니다. 뿐만 아니라 사람들보다 성적 지향을 더 정확하게 결정한다고 주장합니다.

한편으로 이것은 온라인 데이터로부터 개인의 속성을 탐지 할 수있는 AI (Artificial Intelligence)의 발전과 일치합니다. 반면에, 그것은 불편한 프라이버시 함축성과 골상학에 대한 후퇴를 가지고 있습니다.

먼저, 연구를 관찰합시다. 그것은 하나의 데이트 사이트에서 사진을 분석했다. 게이와 똑같은 백인 남성과 여성들을 바라 보았습니다. 이것은 색, 양성애자, 트랜스 젠더 (transgender) 사람, 그리고 사이트에없는 사람을 제외 시켰습니다. 알고리즘은 안면 특징과 사진 특징을 검사했다 :

연구 결과에 따르면 동성애 남성과 여성은 "성 – 비정형"특징, 표현 및 "그루밍 스타일"을 갖는 경향이 있으며, 본질적으로 동성애 남성은 여성이 더 많이 등장하고 그 반대도 마찬가지입니다. 이 데이터는 또한 동성애 남자들이 곧은 여자들과 비교하여 더 큰 턱, 더 긴 코, 그리고 더 큰 이마를 가지고 있고 게이 여자들이 더 큰 턱과 더 작은 이마를 가지고 있다는 것을 포함하여 특정 경향을 확인했다. (The Guardian의 요약)

동성 연애자가 직설적 인 사람들과 육체적으로 다른 것처럼 보이게하는 유전자 연결 고리가 있습니까? 일부 인공 지능 연구자들은 알고리즘이 제안했기 때문에 그렇게 생각하기를 원할 수도 있지만이 연구가 그 결론에 가까워지는 방법은 없습니다. 많은 사람들이이 연구에서 제외되었습니다. 그것이 실제로 캡처 한 것은이 특정 온라인 데이트 사이트의 뷰티 표준입니다.

그러나 사람들이 알고리즘 성적 취향을 감지 할 수 있다고 생각하면 감시 및 잘못된 가정에 대한 문호를 열어줍니다. 우리는 알고리즘을 통해 사람들을 실행시키고 그들에 대한 결론을 내릴 수 있습니까? 게이가 적극적으로 처형되거나 수감되는 체첸 같은 곳에서이 작업이 수행된다면 어떨까요?

이 프로젝트가 강조하는 것은 인공 지능 연구원들이 밟고있는 불안정한 윤리적 근거입니다. 나는 컴퓨터 과학자로 인공 지능을 만들어 사람들에 관한 것들을 발견합니다. 그러나 저는 개인적으로 이런 연구를하지는 않을 것입니다. 연구자가 연구 한 특성보다는 연구자가 가지고있는 데이터 세트에 대해 실제로 말하고 있지만 사람들이 결과를 믿는다면 광범위한 사회적 함의가 있습니다. 인공 지능에 대한 진정한 걱정은 우리가 Skynet 스타일의 인수에 직면했을 정도로 좋지는 않습니다. 오히려 권력을 가진 사람들은 AI가 할 수있는 것에 대해 틀린 가정을 할 것이고, 그들은 의지가없고 사용에 결코 동의하지 않은 사람들에 대해 생명을 바꾸는 결정을 내리기 위해 그것을 사용할 것입니다.