인권해설: 프리크라임

인권해설

알고리즘에 대해 싸움을 시작할 때다.
그간 우리는 개인정보 유출의 문제를 ‘약간’ 걱정해 왔다. 개인정보 유출은 어차피 다들 겪는 일이라고, 허탈함을 섞어 말했다. 보이스피싱만 조심하면 된다고. 내가 조심하면 되는 문제라고.
박근혜 정부의 전문가들과 기업들은 한목소리로 말했다. 개인정보 가지고 큰일은 없지 않았냐고. 그러니 이제 개인정보에 대한 권리에 연연하지 말라고. 개인정보는 인권의 문제가 아니다. 미국은 개인정보를 재산으로 취급한다. 우리도 개인정보 판매를 자유롭게 하자고, 목소리를 높였었다. 개인정보 규제를 완화하면 돈 벌 기회가 널려 있다고.
그러나 그들은 말하지 않았다. 누가 개인정보를 가지고 돈을 버는가를. 누가 개인정보를 사고 싶어 하는가를.
그들이 말하지 않은 것이 더 있다. 알고리즘은 눈에 보이지 않는다는 것을. 저들의 인공지능이 조용하게 어떤 일을 하고 있는지를.

우리가 생각하는 것보다 우리의 개인정보는 비싸다. 홈플러스가 보험사에 판매한 온라인 회원 정보는 건당 2,800원이었고 경품응모자의 정보는 건당 1,980원이었다. 2천4백만 건의 개인정보 엑셀을 열 군데의 보험회사에 팔면서 홈플러스가 벌어들인 돈이 231억 원이었다.
보험사는 이 정보를 왜 비싸게 사들였을까? 돈을 벌 수 있기 때문이다. 우선 광고에 썼다. 가족 중에 아이가 있는 이에게는 어린이보험을 팔고, 차가 있는 집에는 자동차보험을 팔았다. 맞춤 광고라서 내가 필요한 부분을 알아주니 편리하다고 볼 일일까? 보험이 필요치 않으면 광고 전화를 무시하고 말 일일까?

최근 진화한 알고리즘은 여기서 멈추지 않는다. 보험에 가입하면 인공지능이 당신을 판단한다. 스스로 학습하는 인공지능은 빅데이터를 이용해 당신을 공부한다. 트위터와 페이스북에 공개된 정보, 마트에서 사 온 정보, 그 밖에도 온갖 곳에서 사 온 정보들로 당신의 등급을 매긴다. 알고리즘이 “보험금을 제때 내지 않을 것 같다”고 판단한 이들에게는 보험료가 높게 책정된다. 보험료 지급을 요청할 때도 마찬가지다. 인공지능은 이미 당신의 트위터를 읽어 두었고, 마트에서 무엇을 샀는지 알고 있다. 휴대전화 회사에서 사 온 위치정보도 가지고 있다. 심지어 어떤 병으로 병원을 다녀왔는지도 알 수 있다. 이런 방식으로 당신이 보험 약관을 위반한 일을 한 적은 없는지 ‘자동으로’ 판단한다.

유럽 개인정보 담당자들은 “우리가 했던 행동이 아니라 장차 우리가 할 법한 행동이라고, 데이터가 말하는 대로 평가받는” 세상이 되었다고 개탄한다. 그리고 빅데이터로 인한 인권침해를 걱정할 때라고 경고한다. 알고리즘은 사회적으로 불공정하고 차별적인 의사결정을 야기할 수 있다. 차별받아온 이들에 대한 편견을 강화할 수 있다. 병이 있는 이들, 이주민들, 그리고 가난한 자들은 믿을 수 없다고. 이들에게는 기회를 주지 않거나 더 비싼 대가를 치르게 하거나.

구매 정보는 경찰에도 팔린다. 미국 경찰이나 정보기관은 신용카드사 정보도 구입한다. 이런 정보가 경찰에 왜 필요할까? 그들은 범죄예방을 위해서라고 말한다. 당신이 범죄율이 높은 동네에서 무기류를 구입했는지 알아두고 당신의 등급을 매겨 두겠다는 것이다. 트위터에 위험한 이야기를 쓰고 평소 불량한 친구들과 어울렸다가 경찰서에 들른 적이 있다면 빼박이다. 이 기록은 당신이 죽을 때까지 삭제되지 않을 것이다. 어쩌면 당신 사후까지도.

이 영화가 다루고 있는 미국, 영국, 독일 경찰의 알고리즘을, 한국 경찰도 도입하려고 한다. 지금 국회에 발의되어 있는 ‘범죄예방 기반 조성에 관한 법률안’은 인공지능으로 ‘범죄예방시스템’을 구축하겠다고 한다. 범죄를 미리 예방하겠다는 좋은 취지다. 그러나 우리는 미국, 영국, 독일 시민들의 경고에 귀를 기울여야 한다. 경찰의 인공지능은 차별적으로 작동하고 있다. 알고리즘은 범죄자를 친구로 둔 흑인을 감시하고, 이주민이 많이 살고 있는 낙후된 동네를 주목한다. 여기서 불심검문을 많이 하다 보면 성과도 있게 마련이다. 더 높은 검거율은 확신을 강화한다. 역시, 인공지능이 옳았어. 이 동네가 문제였어. 유색인종이 문제였어. 하지만 기업 범죄는 경찰 범죄예방시스템의 관심 밖이다.

홈플러스 소비자들은 자신도 모르는 새 개인정보가 팔렸다는 사실에 화를 냈다. ‘내가 모르는 새’라는 점이 중요하다. 개인정보 처리에 대해 알 권리는 정보인권의 출발점이다. 보험사의 알고리즘이, 경찰의 알고리즘이 어떻게 구동하는지 알 수 있어야 한다. 그리고 여기서 한발 더 나가 보자. 보험사나 경찰의 인공지능이 나에 대해 의사결정 하는 것을 거부할 수 있어야 한다.

알고리즘은 양심이 없다. 저들이 우리의 미래를 조종하지 못하도록 해야 한다. 편견과 차별에 저항해야 한다는 인권의 가치를 위해서이다. 알고리즘에 관한 싸움은 개인정보에 대한 더 강한 통제권을 주장하는 데서 시작한다. 내 개인정보가 어디에 쓰이는지 나는 알 수 있어야하고, 내가 통제할 수 있어야한다. 인공지능이 나를 평가하고 의사결정 하는 것을 거부하겠다. 이것이 정보 인권이다. 개인정보 문제를 인권 문제로 접근해온 유럽은, 최근 발효된 유럽 개인정보보호법(GDPR)에 알고리즘 통제 규정을 포함하였다. 우리에게도 할 일이 있다.

장여경 (정보인권연구소 상임이사)

11인권해설

댓글

타인을 비방하거나 혐오가 담긴 글은 예고 없이 삭제합니다.

댓글

*