잠시 후 집중 읽기 모드로 전환됩니다

[책으로 세상을 보다 6월 1째주] AI 규제의 딜레마

기술의 속도와 규범의 시차 사이에서

기사 듣기
기사요약

당신은 오늘도 AI가 생성한 콘텐츠를 몇 개나 접했을까. 뉴스 요약, 검색 결과, 심지어 누군가의 SNS 게시물까지. 이미 일상 곳곳에 스며든 AI를 이제 와서 규제한다는 말이 공허하게 들릴지도 모른다.

경기도가 전국 최초로 'AI 가이드라인'을 만들겠다고 나섰다. 딥페이크 범죄가 급증하고, AI 음성 사기가 기승을 부리는 상황에서 나온 대응책이다. 하지만 기술은 이미 저만치 앞서가고 있다. 규제가 만들어질 때쯤이면 또 다른 형태의 AI가 등장해 있을 것이다.

20세기 초, 자동차가 막 등장했을 때를 떠올려보자. 영국은 1865년 '적기조례'를 만들어 자동차 앞에 붉은 깃발을 든 사람이 걸어가도록 했다. 시속 6.4킬로미터를 넘지 못하게 한 것이다. 마차를 보호하려던 이 법은 결국 영국 자동차 산업의 발전을 30년이나 늦췄다.

오늘날 AI 규제 논의가 당시와 다른 점이 있을까? 일론 머스크와 마크 저커버그 같은 기술 거물들조차 AI 규제의 필요성에 공감한다고 한다. 그들이 진정 두려워하는 것은 무엇일까. 통제 불가능한 기술일까, 아니면 그 기술을 먼저 손에 넣을 경쟁자일까.

미래학자 케빈 켈리는 『통제 불능』에서 기술 시스템이 일정 규모를 넘어서면 인간의 통제를 벗어난다고 했다. 복잡계는 예측할 수 없는 창발적 특성을 보인다. 개미 한 마리의 행동은 단순하지만, 군집은 놀라운 지능을 보여준다. AI도 마찬가지다. 개별 알고리즘은 이해할 수 있지만, 그것들이 연결되고 학습하면서 만들어내는 결과는 누구도 예측하지 못한다.

켈리는 묻는다. 우리가 정말로 통제해야 하는 것은 기술일까, 아니면 기술을 대하는 우리의 태도일까? 규제는 늘 사후적이다. 문제가 터진 다음에야 움직인다. 하지만 진짜 문제는 기술 자체가 아니라 그것을 사용하는 방식, 그것에 부여하는 권력에 있지 않을까.

한국의 AI 규제 움직임을 보면 묘한 기시감이 든다. 게임 셧다운제를 만들었다가 폐지했고, 암호화폐를 막았다가 다시 허용했다. 그때마다 우리는 무엇을 놓쳤는가. 기술의 위험을 막으려다 기회까지 함께 잃어버린 건 아니었나.

당신의 일터에서도 비슷한 일이 일어나고 있을 것이다. AI 도입을 두고 벌어지는 갑론을박. 효율성과 일자리, 혁신과 안전 사이에서 줄타기하는 경영진. 하지만 논의하는 사이에도 AI는 이미 당신의 업무 곳곳에 스며들고 있다.

통제의 욕망은 불안에서 나온다. 하지만 켈리가 말했듯이, 진정한 통제는 놓아주는 데서 시작된다. 물론 이것이 무책임한 방임을 의미하는 건 아니다. 다만 우리가 정말로 물어야 할 질문은 'AI를 어떻게 막을까'가 아니라 'AI와 어떻게 함께 살아갈까'가 아닐까.

경기도의 가이드라인이 첫걸음이 될 수는 있다. 하지만 진짜 답은 규제 조항에 있지 않다. 기술과 인간, 통제와 자유 사이의 균형점을 찾아가는 지난한 과정에 있다. 당신은 그 과정에서 어디쯤 서 있는가.

경기도의 AI 가이드라인 추진을 계기로 AI 규제의 딜레마를 조명하는 기사로, 기술 발전 속도를 따라잡지 못하는 규제 한계와 사후적 대응의 문제점을 지적한다. 저자는 기술 자체를 통제하려는 노력보다 기술을 사용하는 방식과 태도의 변화가 필요하며, '막을까'가 아닌 '함께 살아갈까'라는 질문으로 전환할 것을 제안한다.

2024년 1월, 한국 정부가 전국 최초로 AI 가이드라인을 발표했다. 딥페이크를 비롯한 악용 사례를 막겠다는 취지였다. 그런데 같은 시기 글로벌 AI 투자액은 673억 달러를 돌파했다. 규제와 투자가 동시에 늘어나는 이 현상을 어떻게 이해해야 할까.

기술에 대한 인류의 태도는 늘 양가적이었다. 19세기 러다이트 운동부터 21세기 AI 규제론까지, 우리는 새로운 도구 앞에서 매번 같은 고민을 반복한다. 통제할 수 있을까. 통제해야 하는가. 아니면 이미 늦었나.

질 들뢰즈와 펠릭스 가타리의 『천 개의 고원』은 기계와 인간의 관계를 다르게 본다. 그들에게 기계는 단순한 도구가 아니다. 욕망을 생산하는 장치다. AI가 만드는 가짜 얼굴, 가짜 목소리는 단지 기술적 산물이 아니라 우리가 원하는 무언가의 투영이라는 것이다.

통제하려는 시도가 오히려 욕망을 증폭시킨다고 저자들은 말한다. 금지는 새로운 우회로를 만들고, 규제는 더 정교한 위반을 낳는다. 마치 물을 막으려 쌓은 둑이 물의 힘을 더 강하게 만드는 것처럼.

실제로 한국의 AI 규제 논의가 본격화된 2023년 이후, 딥페이크 관련 범죄는 오히려 증가했다. 2023년 1월 대비 2024년 1월의 디지털 성범죄 신고 건수는 47퍼센트 늘었다. 규제가 범죄를 막지 못했다는 의미일까. 아니면 규제 덕분에 신고가 늘어난 것일까.

들뢰즈와 가타리라면 이렇게 물었을 것이다. 우리가 정말로 통제하고 싶은 것은 AI인가, 아니면 AI가 드러내는 우리 자신의 욕망인가. 가짜를 만드는 기술이 문제인가, 가짜를 원하는 마음이 문제인가.

일론 머스크가 AI 규제에 찬성하면서도 동시에 AI 기업에 투자하는 모순은 어쩌면 모순이 아닐지도 모른다. 통제와 확산은 동전의 양면이다. 우리는 위험하다고 생각하는 것일수록 더 가까이 두려 한다.

AI 가이드라인을 만든다고 해서 기술의 진화가 멈추지는 않는다. 오히려 규제는 기술에 정당성을 부여한다. 위험하니까 관리해야 한다는 논리는, 역설적으로 그것이 이미 우리 삶의 일부가 되었음을 인정하는 것이다.

『통제 불능』이 AI 규제의 딜레마을 바라보는 시선은 표면적 현상 너머의 구조를 향한다. 케빈 켈리은 개별 사건의 원인을 개인에게 돌리는 대신, 그 사건을 가능하게 만든 사회적 조건을 추적한다. 이런 관점은 반복되는 문제의 근본 원인을 이해하는 데 필수적이다.

AI 규제의 딜레마 문제의 핵심은 제도와 현실 사이의 괴리에 있다. 법과 정책은 존재하지만 현장에서 작동하지 않거나, 작동하더라도 의도와 다른 결과를 낳는 경우가 빈번하다. 케빈 켈리이 주목하는 것도 바로 이 간극이다. 설계된 세계와 살아가는 세계 사이의 거리.

한국 사회에서 AI 규제의 딜레마은 단독으로 존재하지 않는다. 경제 구조, 인구 변화, 기술 발전, 세대 갈등 등 복합적인 요인과 얽혀 있다. 한 가지 변수만으로는 설명할 수 없는 복잡성이 정책 입안자들을 곤혹스럽게 만든다.

한국의 압축적 근대화는 AI 규제의 딜레마 분야에서도 독특한 양상을 만들어냈다. 선진국이 수십 년에 걸쳐 겪은 변화를 불과 한 세대 만에 경험하면서, 제도적 성숙 없이 양적 팽창만 이뤄진 측면이 있다.

673억 달러. 이 숫자는 두려움의 크기일까, 욕망의 크기일까. 어쩌면 둘 다일 것이다. 우리는 통제할 수 없는 것을 통제하려 하고, 그 시도 자체가 새로운 현실을 만든다. AI 시대의 규제란 결국 우리가 어떤 미래를 욕망하는지에 대한 고백인지도 모른다.

📊숫자로 보는 이 기사
0
국내 AI 산업 시장 규모 최근값
2024년 과학기술정보통신부·SPRi '2023년 인공지능산업 실태조사'
0
2019-2023 증감
2024년 과학기술정보통신부·SPRi '인공지능산업 실태조사'
0
2019 기준
2020년 과학기술정보통신부·SPRi '2020 인공지능산업 실태조사'
이 기사를 주목해야하는 이유
1
기술 변화 속도 파악

빠르게 변화하는 기술 발전을 따라잡지 못하는 규제 한계를 보여주고 있어 주목할 필요가 있다.

2
실효성 있는 대응법 모색

사후적 대응의 문제점을 지적하며, 기술 자체를 통제하는 것이 아닌 기술 사용 방식과 태도의 변화가 필요함을 제안한다.

3
AI 활용과 윤리의 균형

일상에 깊이 스며든 AI 기술을 '막을까'가 아닌 '함께 살아갈까'라는 질문으로 접근해야 함을 강조한다.

국내 AI 산업 시장 규모
출처: 과학기술정보통신부