[읽고쓰기 1234] 인공지능은 왜 정치적일 수밖에 없는가 - 마크 코켈버그
가마솥
2023-11-26 20:45
234
AI 시대가 열렸다
인공지능(AI)이 인류의 삶에 침투하기 시작했다. 상상 속의 우려가 현실화 된다. 러시아가 올해 초 우크라이나를 상대로 사람의 개입 없이 스스로 적을 식별해 전투하는 AI 기반의 무인전투차량 ‘마르케르’(Marker)를 투입하며 AI의 판단이 인간의 목숨을 앗아가는 시대가 열렸다. 우려하였던 것처럼 AI 알고리즘의 활동반경이 챗GPT로 지식을 공유하는 수준을 넘어섰다는 것이다. 이제 고도화된 AI는 자유와 정의 같은 보편적 가치들과도 좋든 나쁘든 간에 상호작용을 시작했다. AI를 더는 기술과 편리의 영역으로만 설명할 수 없게 된 것이다.
AI를 바라보는 인간의 인식은 어떤가. 기술 자체는 중립적이고 결과는 인간의 의지에 좌우된다는 낙관론이 여전히 과학계를 지배한다. ‘AI 윤리’는 (인간의, 프로그래머의) 의도와 무관하게 나타나는 영향은 아직 다루지 않는다. 이 책은 AI를 상대하는 이런 인류의 안일함에 반기를 든다. 저명한 기술철학자인 저자는 “AI는 하나부터 열까지 정치적”이라고 지적한다. AI 알고리즘을 정치적 맥락에서 개념화하는 골든타임을 놓치면 인간이 AI에 권력을 뺏기고 종속되는 시대가 올 수 있다는 경고를 날린다.
이 책은 프란츠 카프카가 100여 년 전 쓴 소설 『소송』에서 영문도 모른 채 체포돼 재판에 넘겨졌던 요제프 K를 소환하면서 시작한다. 그와 비슷하게 최근 미국의 평범한 흑인 남성이 고급 의류 매장에서 물건을 훔쳤단 혐의로 가족 앞에서 강압적으로 경찰에게 체포됐다 풀려난 사건을 환기시킨다. 안면인식 알고리즘 시스템의 결함 때문에 생긴 일인데, 이를 두고 형사는 “컴퓨터가 틀렸나 봅니다”라고 말하는 게 고작이다. 여러 인구 집단 중 백인 남성의 얼굴을 더 정확하게 인식하는 알고리즘 편향성이 개인의 자유를 박탈하고 인종차별을 비롯한 구조적 불평등을 악화시킨 사례이다. 저자는 인공지능은 알고리즘과 데이터는 중립적이라는 프로그래머들의 주장과 달리 여러 형태의 편향이 내재되었고 정치적이라고 잘라 말한다.
인공지능은 정치적이다.
이 책은 분량은 적은데(293쪽), 책의 마지막 참고문헌이 22쪽에 달할 정도로 수많은 철학자, 사상가들이 등장한다(대략 400여명). 그 내용은 자유, 인종차별, 노예상태, 정의, 불평등, 민주주의, 권력, 기후변화, 동물권 등 오늘날 정치적으로 쟁점이 되는 가장 중요한 문제를 인공지능과 로봇에 제기되는 문제와 관련지어 다루면서 그 위험성과 가능성을 제기한다. 시종일관 ‘디스토피아적 서사’를 유지하는 저자는 AI 알고리즘과 빅데이터가 우리에게 주는 편리에 대해 비판적, 성찰적 거리를 확보해야 한다고 당부한다. 수많은 철학자와 사상가들의 주장을 인용하면서 전개하는 저자의 초점은 인공지능에 대해서 윤리적 논의만으로 부족하며, 기술철학과 정치철학적 관점에서 광범위한 논의가 시작되어야 하고, 지금 바로 적용되어야 한다는 것이다.
“이 책은 정치와 기술을 함께 사고하는 이것이야말로 목숨이 달린 위험을 감수하고서라도, 내가 사는 지역사회와 전 세계에 일어나고 있는 일에 행동하고 대응하라는 요청이다. 이제는 그렇게 할 때이며, 꼭 필요한 일이다. 만일 이 길을 택하지 않는다면, 우리는 인공지능 같은 기술이 이미 인간에게, 그리고 정치에 대하여 하고 있는 일로부터 비판적, 성찰적 거리를 충분히 확보하지 못할 것이다. 또 우리는 인공지능 및 인공 권력에 무력한 피해자가 될 것이다(p.291)".
1장은 자유라는 정치원리와 관련된 문제를 다룬다. 인공지능은 인간의 행동을 조종하고 자율성을 기만하면서 개인의 자유를 침범한다. 인공지능이 소비자의 선택을 유도하는 부드러운 개입을 의미하는 자유주의적 ‘넛지(nudging)’가 개인의 자유를 어떻게 조종하는 지 보여준다.
2장에서는 평등과 정의 측면에서 인공지능과 데이터 과학, 로봇의 정치적 영향력과 자동화 및 디지털화가 불러일으킬 수 있는 인공지능을 통한 불평등과 불공정 문제, 성차별, 인종차별 등 편향과 차별을 다룬다. 인터넷 상에서 majority가 생산한 대량의 데이터를 처리하여 얻는 인공지능은 minority의 의사/지식을 반영할 수는 없을 것이다.
3장에서는 인공지능의 민주주의를 위협하는 측면을 이야기한다. “우리는 이미 인공지능을 이용하여 우리를 조종하는 거대 기업에 의해 지배되고 있다고 할 수 있는데, 이런 상황은 주보프가 지적했듯이 민주적 통제를 완전히 벗어나 있다. 이미 우리가 구글, 아마존, 그리고 또 다른 거대 기업의 지배를 받고 있다면 누가 지배해야 하는지는 이론적인 질문일 뿐이다. 이 점에서 인공지능에는 본질적으로 반민주적인 것이 있다(p.159).”
4장에서는 규율과 감시, 지식, 권력관계에 관한 푸코 이론을 가져와, 인공지능과 관련지어 그 영향을 살펴본다. 인공지능이 유도하는 조작 등을 살펴보고 자본주의 맥락에서 사람들을 평가·분류·감시하는 데이터 과학을 재조명한다. AI는 죄수들을 감시하는 파놉티콘처럼 인간들의 활동과 생각을 조종할 수 있는데, 자기 스스로 자신을 감시하고 규율하게 하는 인간을 보여 준다. CCTV에서 시작한 안면인식기술, 인터넷에서 봇(bot)을 만들어 여론몰이를 하는 사례 등을 든다.
5장에서는 AI세상에서 비인간은 어떻게 되는가? 하고 질문을 던진다. 인간만이 정치적으로 중요한 것은 아니다. 동물, 환경, 인공지능의 정치적 지위에 관해 논하고, 동물권과 환경이론, 인공지능과 로봇 윤리, 전통적 인간 중심의 정치적 관점에 문제를 제기하는 포스트휴머니즘, 인공적인 초지능자들이 인간을 대체할 거라고 주장하는 트랜스휴머니즘이 제기하는 주장들을 연관 지어 논한다. 저자의 이 부분에 대한 주장은 앞장들에 비해서 나에게는 다소 실감이 나지는 않는다.
AI의 어떤 점이 이런 문제를 야기할까? - 블랙박스모델과 데이터 편향
AI가 정치적일 수밖에 없는 이유를 기술적인 측면에서 생각해 보았다. 두어 가지 정도의 기술적 이유를 들 수 있겠다.
인공지능은 믿을 수 있는 기관의 감독하에 뚜렷한 목적과 방향성을 가지고 발전해 온 것이 아니다. 소위 기계가 스스로 학습할 수 있는 기계학습의 알고리즘을 경쟁적으로 찾아 발전하였다. 이러한 발전과정에서 훈련 데이터를 활용한 지도학습(Supervised Learning)뿐 아니라 대량의 빅데이터(Big Data) 속에서 인간이 발견해 내지 못한 특성과 패턴을 찾아내는 비지도 학습(Unsupervised Learning)과 보상을 통해 스스로 패턴을 찾아내게 유도하는 강화학습(Reinforce Learning)에 이르기까지 다양한 테크닉이 등장한다. 문제는 이러한 인공지능 기술의 발전이 ‘스스로 학습하고 판단하는 기계’를 만들고 활용하고자 하는 인간의 욕망을 반영할 뿐, 작동 프로세스와 그것이 초래할 영향력에 대한 충분한 숙고 없이 이루어져 왔다는 점이다.
인공지능은 인간과는 비교가 되지 않는 방대한 양의 데이터를 학습하고 그 속에서 스스로 패턴을 찾아낸다. 생물학계에서 수십 년에 걸쳐 연구해온 난제인 단백질 분자구조에 대해서도 인공지능은 분석과 예측이 가능하다. 다만, 우리는 그러한 결과가 어떠한 프로세스를 걸쳐서 도출되었는지 알 방법이 없다. 인공지능이 수억 개의 매개변수와 인공신경망(ANN)을 거쳐서 만들어낸 프로세스는 인간의 이해범위를 넘어서기 때문이다. 이처럼 프로세스가 철저히 베일에 쌓인 인공지능 모델을 블랙박스 모델(Blackbox Model)이라고 한다. 데이터가 기하급수적으로 늘어나고 컴퓨팅 파워가 과거와 비교도 되지 않게 발전한 요즘, 우리가 일상에서 마주하는 모델은 대부분 이 블랙박스 모델에 해당한다.
대부분의 인공지능 모델 개발은 훈련과 검증 그리고 테스트라는 과정을 거친다. 방대한 데이터 속에서 인간의 개입없이 인공지능이 스스로 패턴과 유사성을 찾아내는 비지도학습 모델도 존재하지만, 지도학습과 강화학습에는 여전히 인간의 개입이 필요하다. 이는 훈련 데이터의 레이블링(Labeling)과 선정이라는 면에서 인간의 편향(Human Bias)이 인공지능에 반영될 위험이 여전히 존재함을 뜻한다. 예를들어 미국과 같은 다인종, 다문화 국가에서는 필연적으로 한 사회의 대다수를 차지하는 주류인종(Majority) 에 대한 데이터가 소수인종(Minority)에 대한 데이터보다 많을 수밖에 없다. 이러한 편향은 고스란히 인공지능의 학습결과에 반영되어, 주류인종에 유리한 결과만을 도출하게 될 수 있다. 즉 우리는 또 다른 인공지능 인종차별자(AI Racist)를 탄생시킬 수 있는 위험을 가지게 되는 것이다.
그럼 어쩌라고......
저자는 인공지능의 출현으로 예상되는 위험한 세상을 말하고 있지만, 나는 그 것의 근본은 현대를 살고 있는 인간들이 축적한 폐해가 인공지능으로 일부 드러나고 있다고 본다. 범위가 광범위하고 깊이가 깊을 뿐더러 신속히 전개되는 것이 문제이다. 따라서 인공지능에 대한 기술/정치 철학적 접근으로 현대 자본주의의 폐해를 치유하는 것은 역부족일 듯하다. 다만, 이러한 접근으로 현대 인간의 삶에 대하여 주위를 환기시키고 방향성을 잡기에는 유의미하다는 생각이다. 일반적으로 인공지능의 우려를 윤리적 문제로 접근하는데, 이렇게 광범위한 철학적 접근을 가능케 하는 소개서를 접할 수 있어서 만족한다.
문탁에서 우리 집까지 가려면 30km 속도제한 CCTV가 4개, 속도 방지턱 32개에서 잠재적 범죄자 취급을 받아야 한다. 그 중 14개는 가짜 방지턱으로 속아 주어야 한다. 컴퓨터를 켜서 인터넷이라도 볼라 치면 수시로 내가 좋아할만한 상품이 뜬다. 이제는 어떻게 알았지?하고 놀랍지도 않는다. 인공지능은 이미 우리 삶에 광범위하게 들어 와 있고, 우리의 삶에 깊숙이 들어와 있다. 기술철학과 정치철학의 접목과 같은 거대 담론은 내 역량 밖일 것인데, 어쩌란 말인가?
저자는 푸코의 ‘자아에 대한 기술‘을 꺼내어 기술철학과 접목한 한 가지 tip을 보여 준다.
“개인들이 자신만의 수단으로 또는 다른 사람의 도움을 받아 자신의 몸과 영혼, 생각, 행위, 존재 방식에 일정 수로 작동하게 해서 영향을 미치게 허용하여 특정한 행복, 순수함, 지혜, 완벽함, 즉 불멸의 상태를 얻기 위해 스스로 변화시키려는 것이다(푸코 1988)”
저자는 현대 기술철학의 관점에서 인공지능에서는 못하는 ‘성찰’의 능력을 정치철학적 관점에서의 인공지능의 극복방안으로 가져온다. 푸코의 주장으로부터, 자기를 돌보고 구성하면서 미덕을 갖게 하는 ‘글쓰기’를 인간 자아에 대한 물질적 기술로 제안한다. ‘공부’와 ‘글쓰기’.
이런 의미에서 이번 1234에서, “1박2일3달4번이 좀 적은 거 아닌가요?”라고 발표하면......
댓글 0
토용의 서경리뷰
토용
2024.02.29 |
조회
299
영화대로 42길
띠우
2024.02.19 |
조회
317
영화대로 42길
청량리
2024.02.19 |
조회
186
논어 카메오 열전
진달래
2024.02.08 |
조회
284
우현의 독서가 테크트리
우현
2024.02.05 |
조회
323