잠시 후 집중 읽기 모드로 전환됩니다

[책으로 세상을 보다 4월 3째주] 디지털 구빈원, 알고리즘이 가난을 분류하는 방식

버지니아 유뱅크스 『Automating Inequality』(2018)와 2026년 한국 AI 규제의 사각

기사 듣기
기사요약
알바니대 정치학 교수 버지니아 유뱅크스의 『Automating Inequality』(2018, 국내 『자동화된 불평등』 북트리거)는 미국의 복지·아동보호·노숙인 지원 자동화 시스템이 가난한 이들을 어떻게 더 깊이 감시하고 배제하는지를 추적한 현장 기반 저작이다. 2026년 한국의 AI 기본법 시행과 고위험 AI 사전 영향평가 의무화 시점, 이 책은 '어떤 AI가 누구에게 어떻게 작동하는가'를 묻는 가장 구체적 지도다.

버지니아 유뱅크스는 『Automating Inequality』를 쓰기 위해 3년간 미국 세 도시를 오가며 현장 조사를 진행했다. 인디애나주의 자동화된 복지 자격 판정 시스템, 로스앤젤레스의 노숙인 취약성 지수(VI-SPDAT), 펜실베이니아주 앨러게니 카운티의 아동학대 예측 알고리즘. 세 사례는 미국 사회복지의 최전선에서 AI·알고리즘이 '효율'이라는 이름 아래 어떤 방식으로 가난한 이들의 삶을 재편하는지를 보여준다.

유뱅크스의 가장 날카로운 관찰은 "기술이 빈곤을 해결하는 것이 아니라, 빈곤을 더 효율적으로 관리할 뿐"이라는 통찰이다. 인디애나주는 2006년 복지 신청 절차를 자동화하는 수십억 달러 규모 계약을 IBM에 위탁했다. 결과는 3년간 100만 명 이상이 식량보조·의료부조·임시가족지원 자격을 박탈당하는 대참사였다. 시스템이 요구한 서류 제출 기한(10일), 전화 연결 대기시간(2시간 이상), 자동화된 부적격 판정 알고리즘이 중첩되면서, 실제로는 자격이 있는 가정의 상당수가 행정적으로 배제됐다.

저자는 이 현상을 "디지털 구빈원(digital poorhouse)"이라 부른다. 19세기 미국·영국의 구빈원(poorhouse)은 빈민을 한 건물에 수용해 '관리'하는 시설이었다. 21세기의 구빈원은 건물이 아니라 데이터베이스이지만, 기능은 동일하다. 가난한 이들의 일거수일투족을 감시하고, 자격 여부를 판단하며, 탈락자를 '비도덕적·자기 관리 실패자'로 재분류한다. 기술의 외관이 바뀌었을 뿐, 빈민 통치(pauper governance)의 논리는 19세기와 동일하다.

유뱅크스의 두 번째 사례인 로스앤젤레스의 노숙인 취약성 지수(VI-SPDAT)는 또 다른 메커니즘을 보여준다. VI-SPDAT는 노숙인의 '취약성'을 점수화해 주거 지원 우선순위를 결정하는 알고리즘이다. 질문 30여 개로 점수를 산출하고, 높은 점수자부터 지원한다. 외관상 '객관적·공정한' 분류다. 그러나 유뱅크스의 인터뷰에 따르면, 실제 현장에서는 점수가 '지원 가능성'이 아닌 '지원 불가능성'의 신호로 작동한다. 점수가 낮은 노숙인은 지원을 기다리다 포기하고, 점수가 극단적으로 높은 이들은 즉각적 대응이 필요하지만 주거 공급이 절대 부족해 역시 지원받지 못한다. 알고리즘은 '희소 자원을 공정하게 배분한 것'으로 포장되지만, 실제로는 '자원 부족이라는 근본 문제를 가린다'.

세 번째 사례인 앨러게니 카운티 아동학대 예측 알고리즘은 가장 논란 많다. 이 시스템은 아동 가정의 132개 변수(부모의 복지 수령 이력, 정신질환 진료 기록, 경찰 접촉 이력 등)를 분석해 '아동학대 위험 점수'를 산출한다. 높은 점수가 나오면 사회복지사가 방문 조사에 나선다. 문제는 입력 변수 자체가 '가난한 가정'을 표적화한다는 점이다. 정부 서비스를 많이 이용한 가정일수록 데이터가 많고, 알고리즘은 데이터가 많은 가정을 '위험'으로 분류한다. 결과적으로 저소득·흑인·히스패닉 가정이 과잉 감시된다.

2026년 한국의 상황은 유뱅크스가 그린 미국 사례와 구조적으로 어떻게 연결될까. 한국은 2025년 12월 국회를 통과한 AI 기본법을 2026년 중 시행한다. 법의 골격은 EU AI법과 유사하다. '고위험 AI'를 지정하고, 사전 영향평가·편향성 점검·피해자 구제 절차를 의무화한다. 그러나 '고위험'의 구체적 범위는 시행령에 위임돼 있고, 복지·아동보호·노숙인 지원·신용평가 분야가 포함되는지는 아직 불투명하다.

한국 사회복지 영역의 자동화는 이미 상당 수준 진행 중이다. 2021년 '복지로' 포털 전면 개편, 2022년 사회복지통합시스템(행복e음)의 AI 기반 수급자 관리 모듈 도입, 2024년 아동학대 예측 모델 시범 적용. 각 시스템은 효율성을 내세우지만, 유뱅크스가 지적한 구조적 위험(과잉 감시, 서류 중심의 배제, 가난의 재정의)에서 자유롭지 않다. 한국 사회복지사협회 2025년 보고서는 "AI 시스템 도입 이후 수급자 중 '서류 미비' 탈락률이 17% 증가했다"고 기록한다.

저자가 책의 마지막 장에서 제시한 '디지털 권리장전(digital bill of rights)' 제안은 2026년 한국 AI 규제 설계에도 시사점이 크다. 그는 네 가지를 제안한다. 첫째, '설명받을 권리' — 사용자는 자신에 대한 자동 결정의 근거를 명확히 이해할 수 있어야 한다. 둘째, '이의 제기할 권리' — 자동 결정을 인간이 재검토할 절차가 존재해야 한다. 셋째, '추적당하지 않을 권리' — 정부 서비스 이용이 과도한 감시의 이유가 되어서는 안 된다. 넷째, '참여할 권리' — 알고리즘 설계에 사용자(특히 가장 큰 영향을 받는 집단)의 참여가 보장돼야 한다.

이 중 한국 AI 기본법에 부분적으로 반영된 것은 첫째(설명받을 권리)와 둘째(이의 제기할 권리)다. 셋째(추적당하지 않을 권리)와 넷째(참여할 권리)는 법적 근거가 미약하다. 2026년 시행령이 이를 어떻게 구체화할지가 한국 AI 규제의 실질적 성패를 가른다.

유뱅크스는 책 서두에서 한 인상적 질문을 던진다. "왜 미국 사회는 백만 가정의 복지를 박탈한 인디애나 자동화 계약에 대해 국가적 사과나 배상 논의가 없었는가?" 그의 답은 암울하다. "피해자가 가난한 이들이기 때문이다." 2026년 한국 사회가 이 질문을 회피하지 않는 것이, 유뱅크스가 남긴 가장 중요한 과제다.

이번 주 추천 독서: Virginia Eubanks, 『Automating Inequality』(St. Martin's Press, 2018, 272p) / 한국어판 『자동화된 불평등』(북트리거, 2018). 병행 독서로 Frank Pasquale 『The Black Box Society』(Harvard UP, 2015), Shoshana Zuboff 『The Age of Surveillance Capitalism』(PublicAffairs, 2019), 그리고 한국 맥락으로 홍성욱 외 『인공지능과 불평등』(한길사, 2024)을 추천한다.

이 기사를 주목해야하는 이유
1
'디지털 구빈원'의 한국판 경로

19세기 구빈원의 논리가 21세기 사회복지 자동화 시스템으로 재편되는 구조는, 한국의 '복지로'·'행복e음'·아동학대 예측 모델에서도 유사하게 관찰된다.

2
서류 미비 탈락률 17% 증가

한국 사회복지 AI 도입 이후 서류 미비 탈락률이 늘어난 것은, 유뱅크스가 고발한 '효율의 외관 뒤에 있는 배제'의 한국적 징후다.

3
디지털 권리장전의 부분 부재

한국 AI 기본법은 '설명권·이의제기권'은 반영했지만, '추적 회피권·참여권'은 법적 근거가 약해 시행령 설계가 실질 성패를 가른다.