[01/07] 페이스북 자살 측정 AI 알고리즘

2017년 3월부터 AI를 이용하여 자살을 막으려는 프로젝트를 시작

ㆍ페이스북은 게시물을 스캔하여 AI가 점수를 매김

ㆍ점수의 범위는 0~1까지이며, 1은 위험징후가 높다고 판단

ㆍ잠재적 자살 위험 게시물이 게시되면, 페이스북 콘텐츠담당팀으로 전달됨

ㆍ검토 이후 경찰서로 넘겨지게 되면, 경찰은 병원에 데려감
– 경찰은 자살 위험에 있는 사람의 개인정보를 뉴욕타임즈에 공개한 적도 있음

ㆍ자살 측정 알고리즘 검색 대상 : 영어, 스페인어, 포르투갈어, 아랍어
ㆍ자살 측정 알고리즘 검색 제외 대상 : 유럽연합 게시물(EU는 GDPR에 따라 중단됨)

ㆍ페이스북은 사용자에 대한 건강 정보를 생성하지만 의료기관에 적용되는 법을 지킬 의무가 없음
– 미국에서는 개인의 건강정보가 암호화 및 공유제한을 포함한 개인정보보호법(HIPAA)로 보호됨

ㆍ페이스북은 낮은 자살 위험 점수는 30일이후 삭제된다고 답했지만, 높은 자살 위험 점수는 얼마나 오래 저장되는지 답하지 않음

ㆍ페이스북은 2018년 9월 대규모 자료유출로 3천만명의 프로필이 노출되었고, 그 중 40만명의 게시물과 사진이 공개되었음
– 페이스북은 자살 예방 알고리즘 데이터가 데이터유출 대상이었는지 언급하지 않음

ㆍ전문가들은 자살 측정 알고리즘이 좋은 효과를 낼 수 있다고 동의

ㆍ페이스북은 민감한 문제라고 인식하고 있고, 많은 프라이버시 보호장치를 갖추고 있다고 답함

[출처 : businessinsider.com.au]