밍키넷: 해외 성인 컨텐츠 제공 사이트와 국내 법적 이슈 밍키넷 주소찾기
페이지 정보
작성자 황** 작성일25-09-20 16:15 조회2회 댓글0건관련링크
-
http://90.kissjav.help 0회 연결
-
http://47.588bam.top 0회 연결
본문
필립 알스턴 전 유엔 빈곤·비사법적 처형 특별보고관이 지난 9월 15일 서울 중구 국가인권위원회 회의실에서 ‘AI와 빈곤, 인권 문제’ 등에 대해 주간경향과 인터뷰하고 있다. 서성일 선임기자
[주간경향] “네모난 방이 있다고 생각해봅시다. 누군가 이 방에 들어와서 사람들에게 ‘좋은 소식이 있어요’라고 외치죠. 인공지능(AI)은 실제로 우리 삶의 모든 것을 바꿀 겁니다. 하지만 문제는, 이곳(세상)이 어떻게 바뀔지에 대한 결정은 정부나 당사자들이 아닌 극히 일부의 빅테크 기업이 내릴 것이고, 민주주의는 점점 덜 중요해질 것이라는 점입니다.”
지난 9월 15일 서울 중구 국가인권위원회 사무실에서 만난 필립 알스턴 뉴욕대 로스쿨 교수는 주요종목
AI 문제를 어떻게 바라보고 있는지에 관해 묻자 ‘방’에 비유해 설명했다.
그는 2004년부터 2020년까지 유엔 빈곤·비사법적 처형 특별보고관 등을 역임했으며, 빈곤 문제에 대한 국제적 논의를 인권의 영역으로 이식한 공로를 인정받고 있다. 빈곤은 단순히 경제적 곤란의 차원을 넘어 인권의 문제라는 것이다. 나아가 최근엔 AI 및 디지털 기릴게임 확률
술과 빈곤, 인권에 관한 연구를 진행하고 있다. 그는 AI를 둘러싼 오늘날의 문제 중 상당수를, 기술의 문제로만 보기보다는 인권의 시각으로 바라볼 때 좀더 근원적인 접근이 가능하다고 말한다.
AI의 진짜 목적은 비용 절감
우리는 통상 어떤 분야에든 AI가 도입되면 모든 과정이 ‘마트루스탁
법처럼’ 효율적이 되리라 생각하곤 한다. 예를 들면 노동에 AI를 도입하면 더 나은 서비스를 제공할 수 있게 되고, 학습 과정에 AI를 도입하면 더 빠르게 모든 것이 가능하다는 식이다.
하지만 알스턴 교수는 AI의 작동방식을 제대로 바라보기 위해서는 우선 ‘전제’를 면밀히 살필 필요가 있다고 말한다. 기술을 개발하고 실제로 현실에서 작동시LG전자분석
키는 주체의 진짜 목적이 무엇이냐는 것이다 “오늘날 AI와 관련해서는 한 가지 공통 전제가 있습니다. 대체로 어떤 분야에서 AI가 도입될 때 명시적으로든, 암묵적으로든 비용 삭감의 차원에서 도입된다는 것입니다.”
특히 그는 그간 사회복지 분야에서의 AI 도입에 대해 특히 관심을 가져왔다.
“오늘날 A증권채팅
I와 관련해선 한 가지 공통된 전제가 있습니다. 대체로 어떤 분야에서 AI가 도입될 때 명시적으로든, 암묵적으로든 비용 삭감의 차원에서 도입된다는 것입니다.”
“최근 수년 동안 빈곤계층을 위한 사회복지에 AI를 도입하는 것과 관련한 논쟁이 있었죠. 대표적으로는 (AI를 활용해) 복지 부정수급을 막고, ‘정말로 자격이 있는 사람들만’ 가려내 사회적 지원을 해야 한다는 것이었습니다. 실제로 이를 위해 다수의 국가는 빈곤계층의 감시와 추적, 자격 분류를 위한 강력한 도구를 사용했습니다.”
그가 2019년 총 30여개국의 사례를 취합해 제출한 유엔 특별보고서에서는 복지 수급 조건으로 당사자의 홍채 정보, DNA 등 민감 정보를 제출하도록 강제한 사례 등이 소개된 바 있다. 하지만 그는 이런 복지에서의 AI 도입이 당사자들의 삶을 오히려 악화시킬 가능성이 매우 높다고 강조하는데, 이유는 대부분 AI 도입의 가장 큰 목적이 ‘비용 삭감’이기 때문이다. 이를테면, 배달앱에 AI가 도입될 경우 배달원의 안전과 질 좋은 서비스를 위해서라기보다는 임금 및 비용 절감 차원에서 도입되는 것과 마찬가지라고 볼 수 있다. 또한 이로 인한 피해는 특히 빈곤계층, 사회적 약자에게 가혹하다.
“대부분의 신기술, 특히 AI의 경우 그 전제는 굉장히 자유주의적입니다. 게으른 사람들에게 보상을 해선 안 되고, 모든 사람이 일할 수 있도록 해야 하고, 철저히 감시해야 한다는 거죠. 오늘날 수많은 일반 노동자 역시 (알고리즘에 의해) 광범위하게 감시받고 있다는 사실을 감안한다면, 빈곤계층에 대한 감시는 AI의 도입으로 인해 이전보다 훨씬 강해질 것이라는 예상이 가능합니다.”
그는 AI로 인한 피해에 대해 아직 사람들이 제대로 인식하지 못하고 있지만, 곧 그 영향력은 일부 계층이 아닌 전반적으로 퍼져 나갈 것이라고 말한다.
“저는 많은 사람이 기술 기업의 지배력을 아직 인식하지 못하고 있다고 생각합니다. 기술이 건강, 교육, 도시계획 등 우리가 하는 거의 모든 일의 우선순위를 결정하는 등 극적인 변화가 일어날 때 비로소 그 영향을 알게 되겠죠. 가장 대표적으로는 노동의 영역일 텐데요. 우버(Uber) 등의 플랫폼 기업은 신기술을 활용해 노동권을 없애고, 협상 능력을 없애고, 이전에는 결코 받아들여지지 않았을 수준으로 임금을 낮추고, 건강보험 등의 혜택을 없앴습니다. 저는 AI로 인한 가장 큰 위협이 (언론 등에서 강조하는) 일자리 소멸보다 근무 조건의 전반적인 악화라고 생각합니다.”
알스턴 교수에 따르면, 이런 부작용 및 피해가 가시화되지 않는 것은 큰 문제를 가져온다. 사람들은 보호받지 못하고, 자신이 구체적으로 어떤 피해를 보는지조차 인지하지 못하게 되기 때문이다.
“AI 도입 결과에 대해 기술 기업도, 정부도 서로의 탓으로 미루고 제대로 책임을 지지 않습니다. 이는 정부와 기업 모두에 편리하죠. 그리고 예전엔 이런 상황에서 시민사회가 개입할 것이 기대됐지만 시스템을 이해하지 못하고 알고리즘에 접근할 수 없기 때문에 효과적으로 개입하는 것이 불가능합니다.”
유튜브, 메타, 오픈AI 등의 빅테크 기업들은 과거 자사의 알고리즘이 이용자들의 정서 불안, 극단주의 조장 등 사회적인 문제를 일으킬 때마다 ‘자신들도 알고리즘의 작동 방식을 완벽하게 파악할 수 없다’고 주장해왔지만, 알스턴 교수는 이것이 대체로 변명에 불과하다고 말한다.
“만약 제가 유튜브를 보는데, 어느 날 추천 알고리즘이 고장 나서 제게 패션, 화장품 관련 영상만 계속 추천에 뜨고 그래서 유튜브에 접속하지 않게 되고 수익에 문제가 생기면, 유튜브는 금방 문제를 해결할 겁니다. 반면 여성, 빈곤층 차별 등 기타 형태의 편견에 문제가 있다고 말하면 그들은 ‘우리는 할 수 있는 일이 없다’고 말할 것입니다. 그들이 인정하는 것보다 훨씬 더 많은 잠재적 통제력이 있다고 볼 수 있는 거죠.”
필립 알스턴 전 유엔 빈곤·인권 관련 특별보고관이 지난 9월 15일 서울 중구 국가인권위원회 회의실에서 ‘AI와 빈곤, 인권 문제’ 등에 대해 주간경향과 인터뷰하고 있다. 서성일 선임기자
기술과 사회적 전문성
여기서 기술의 다양한 차원을 조사·파악하고 가치를 수립하는 정부의 역할이 중요해진다. 가능한 위험에 대해 제대로 평가하고 규제하는 것은 기업의 자율적인 의지에만 맡겨서는 불가능하기 때문이다.
특히 알스턴 교수는 정부가 기술과 사회를 아우르는 ‘전문성’을 키울 필요성이 있다고 강조한다. “정부는 기술적 측면뿐 아니라 그것의 사회적 영향까지 평가할 수 있는 이들을 포함하는, 다양한 전문지식을 갖춘 집단을 확보해야 합니다.”
그는 헬스케어와 챗봇을 예로 들며, 현재로서는 이런 기술이 사회와 개인에게 어떤 영향을 미치는지에 대한 보고서는 거의 존재하지 않는다고 말한다. 단지 AI 헬스케어가 의료에 들어가는 비용을 절감하고, 챗봇이 사람들의 외로움을 저비용으로 덜어줄 수 있다는 점에만 주목할 뿐이다. 이는 결과적으로 정부에게도 비용 절감이라는 효용을 주고 기업에도 이익이 되지만 사회적으로 어떤 부작용이 있을지, 과연 우리가 그런 삶을 원하는지 등에 대해서는 알 수 없다.
“지난 4월 마크 저커버그(메타 CEO)가 ‘오늘날 미국인은 평균적으로 3명 이하의 친구를 가지고 있을 뿐’이라며 AI가 점차 그 빈자리를 메울 수 있을 것이라 말한 바 있죠. 사람들은 점점 더 고립되고, 사회에 어울리지 못하며 친구를 사귀지 못하게 되지만 이런 현상이 사회적으로 어떤 영향을 가져올지 정부는 아무것도 알지 못합니다. 누구도 ‘이런 사회는 우리가 원하는 사회가 아니야’라고 말하지 않죠. 여전히 인간과의 직접 대화가 대체 불가능한 가치를 가지고 있음에도 불구하고요.”
이러한 사회적 고립 역시 모두에게 똑같이 나타나는 것이 아니라 개인의 경제적·사회적 배경과 직업에 따라 큰 차이를 보인다.
예를 들어, 그는 정부가 챗봇의 영향력에 대한 인문학·심리학 등의 연구를 지원하는 방식으로 기술의 위험성에 대해 더 잘 대비하고 예측할 수 있다고 말한다. 하지만 오늘날 대부분의 빅테크 기업은 오히려 사회적 책임과 관련된 부서를 축소하고 있으며, 정부의 AI와 관련된 지원 역시 기술진흥 및 인프라 구축에 집중돼 있다.
“우리가 AI와 관련해 모르는 것도 많지만, 그에 대한 지식을 아예 가지고 있지 않은 건 아닙니다. 다만 그 지식을 체계적으로 활용하지 못하고 있죠. 대표적으로는 ‘사생활(privacy)’ 관련된 문제가 그런데, 우리는 사생활을 커튼을 치고 생활하거나 통화를 엿듣지 못하게 하는 사소한 일 정도로 생각하지만, 훨씬 더 큰 개념입니다. 우리 삶의 근본적인 침해에 대해 제대로 표현하기 위해선 더 큰 차원의 인식이 필요하죠.”
윤리는 상대적인 개념
그는 윤리가 아닌 인권 기반의 접근이 필요하다고 강조한다. 윤리는 상대적인 개념인 반면 인권은 모든 사람이 당연하게 지녀야 하는 권리라는 것이다.
“인권에는 두 가지가 있습니다. 첫째는 시민적·정치적 권리이고, 둘째는 경제·사회·문화적 권리죠. 보통 정부는 전자만을 강조할 뿐 후자는 강조하지 않습니다. 즉 교육권, 건강권, 존엄하게 대우받을 권리 등은 제외된다는 것입니다. 이는 인권에 대한 매우 빈곤한 관점입니다. 왜냐하면 인권은 자신을 진정으로 표현할 권리, 민주주의에 참여할 권리, 정부의 의사 결정에 영향을 미칠 권리 등에 대한 것이기 때문입니다.”
이처럼 인권을 최우선으로 하는 접근은 문제의 본질적인 예방과 구제에 집중한다.
“정부가 인권 존중 및 증진에 대한 강한 의지를 갖지 않는다면, 정부는 국민에게 미치는 영향을 간과하는 대신 경제와 국가 안보에 미치는 영향에만 몰두하게 될 것입니다. 따라서 인권은 명시적으로 인정돼야 하며, 더 넓은 책임과 영향을 받는 개인에 대한 구제에 초점을 맞춰야 합니다.”
하지만 현재 AI와 관련한 입법, 정책의 세계적인 추세는 규제보다는 진흥, 특히 국방·국력 차원에서의 진흥을 강조하는 것이다.
“최근 미국은 광범위한 차원의 세계적 협력 노력에서 물러났습니다. 자국의 이익만을 최우선으로 삼고 있으며, 오늘날 국방비 지출이 늘어남에 따라 그 상당수는 AI에 대한 투자로 들어갈 것입니다. 안보 중심의 접근은 외부 위협으로부터 국민을 보호하는 것으로 해석될 뿐 내부적으로 일어나는 일에 대해서는 고려하지 않습니다. 이는 그 두 가지 목표를 조화시킬 수 없다는 가정에 기반하고 있죠. 하지만 과연 그럴까요?”
김지원 기자 deepdeep@kyunghyang.com
[주간경향] “네모난 방이 있다고 생각해봅시다. 누군가 이 방에 들어와서 사람들에게 ‘좋은 소식이 있어요’라고 외치죠. 인공지능(AI)은 실제로 우리 삶의 모든 것을 바꿀 겁니다. 하지만 문제는, 이곳(세상)이 어떻게 바뀔지에 대한 결정은 정부나 당사자들이 아닌 극히 일부의 빅테크 기업이 내릴 것이고, 민주주의는 점점 덜 중요해질 것이라는 점입니다.”
지난 9월 15일 서울 중구 국가인권위원회 사무실에서 만난 필립 알스턴 뉴욕대 로스쿨 교수는 주요종목
AI 문제를 어떻게 바라보고 있는지에 관해 묻자 ‘방’에 비유해 설명했다.
그는 2004년부터 2020년까지 유엔 빈곤·비사법적 처형 특별보고관 등을 역임했으며, 빈곤 문제에 대한 국제적 논의를 인권의 영역으로 이식한 공로를 인정받고 있다. 빈곤은 단순히 경제적 곤란의 차원을 넘어 인권의 문제라는 것이다. 나아가 최근엔 AI 및 디지털 기릴게임 확률
술과 빈곤, 인권에 관한 연구를 진행하고 있다. 그는 AI를 둘러싼 오늘날의 문제 중 상당수를, 기술의 문제로만 보기보다는 인권의 시각으로 바라볼 때 좀더 근원적인 접근이 가능하다고 말한다.
AI의 진짜 목적은 비용 절감
우리는 통상 어떤 분야에든 AI가 도입되면 모든 과정이 ‘마트루스탁
법처럼’ 효율적이 되리라 생각하곤 한다. 예를 들면 노동에 AI를 도입하면 더 나은 서비스를 제공할 수 있게 되고, 학습 과정에 AI를 도입하면 더 빠르게 모든 것이 가능하다는 식이다.
하지만 알스턴 교수는 AI의 작동방식을 제대로 바라보기 위해서는 우선 ‘전제’를 면밀히 살필 필요가 있다고 말한다. 기술을 개발하고 실제로 현실에서 작동시LG전자분석
키는 주체의 진짜 목적이 무엇이냐는 것이다 “오늘날 AI와 관련해서는 한 가지 공통 전제가 있습니다. 대체로 어떤 분야에서 AI가 도입될 때 명시적으로든, 암묵적으로든 비용 삭감의 차원에서 도입된다는 것입니다.”
특히 그는 그간 사회복지 분야에서의 AI 도입에 대해 특히 관심을 가져왔다.
“오늘날 A증권채팅
I와 관련해선 한 가지 공통된 전제가 있습니다. 대체로 어떤 분야에서 AI가 도입될 때 명시적으로든, 암묵적으로든 비용 삭감의 차원에서 도입된다는 것입니다.”
“최근 수년 동안 빈곤계층을 위한 사회복지에 AI를 도입하는 것과 관련한 논쟁이 있었죠. 대표적으로는 (AI를 활용해) 복지 부정수급을 막고, ‘정말로 자격이 있는 사람들만’ 가려내 사회적 지원을 해야 한다는 것이었습니다. 실제로 이를 위해 다수의 국가는 빈곤계층의 감시와 추적, 자격 분류를 위한 강력한 도구를 사용했습니다.”
그가 2019년 총 30여개국의 사례를 취합해 제출한 유엔 특별보고서에서는 복지 수급 조건으로 당사자의 홍채 정보, DNA 등 민감 정보를 제출하도록 강제한 사례 등이 소개된 바 있다. 하지만 그는 이런 복지에서의 AI 도입이 당사자들의 삶을 오히려 악화시킬 가능성이 매우 높다고 강조하는데, 이유는 대부분 AI 도입의 가장 큰 목적이 ‘비용 삭감’이기 때문이다. 이를테면, 배달앱에 AI가 도입될 경우 배달원의 안전과 질 좋은 서비스를 위해서라기보다는 임금 및 비용 절감 차원에서 도입되는 것과 마찬가지라고 볼 수 있다. 또한 이로 인한 피해는 특히 빈곤계층, 사회적 약자에게 가혹하다.
“대부분의 신기술, 특히 AI의 경우 그 전제는 굉장히 자유주의적입니다. 게으른 사람들에게 보상을 해선 안 되고, 모든 사람이 일할 수 있도록 해야 하고, 철저히 감시해야 한다는 거죠. 오늘날 수많은 일반 노동자 역시 (알고리즘에 의해) 광범위하게 감시받고 있다는 사실을 감안한다면, 빈곤계층에 대한 감시는 AI의 도입으로 인해 이전보다 훨씬 강해질 것이라는 예상이 가능합니다.”
그는 AI로 인한 피해에 대해 아직 사람들이 제대로 인식하지 못하고 있지만, 곧 그 영향력은 일부 계층이 아닌 전반적으로 퍼져 나갈 것이라고 말한다.
“저는 많은 사람이 기술 기업의 지배력을 아직 인식하지 못하고 있다고 생각합니다. 기술이 건강, 교육, 도시계획 등 우리가 하는 거의 모든 일의 우선순위를 결정하는 등 극적인 변화가 일어날 때 비로소 그 영향을 알게 되겠죠. 가장 대표적으로는 노동의 영역일 텐데요. 우버(Uber) 등의 플랫폼 기업은 신기술을 활용해 노동권을 없애고, 협상 능력을 없애고, 이전에는 결코 받아들여지지 않았을 수준으로 임금을 낮추고, 건강보험 등의 혜택을 없앴습니다. 저는 AI로 인한 가장 큰 위협이 (언론 등에서 강조하는) 일자리 소멸보다 근무 조건의 전반적인 악화라고 생각합니다.”
알스턴 교수에 따르면, 이런 부작용 및 피해가 가시화되지 않는 것은 큰 문제를 가져온다. 사람들은 보호받지 못하고, 자신이 구체적으로 어떤 피해를 보는지조차 인지하지 못하게 되기 때문이다.
“AI 도입 결과에 대해 기술 기업도, 정부도 서로의 탓으로 미루고 제대로 책임을 지지 않습니다. 이는 정부와 기업 모두에 편리하죠. 그리고 예전엔 이런 상황에서 시민사회가 개입할 것이 기대됐지만 시스템을 이해하지 못하고 알고리즘에 접근할 수 없기 때문에 효과적으로 개입하는 것이 불가능합니다.”
유튜브, 메타, 오픈AI 등의 빅테크 기업들은 과거 자사의 알고리즘이 이용자들의 정서 불안, 극단주의 조장 등 사회적인 문제를 일으킬 때마다 ‘자신들도 알고리즘의 작동 방식을 완벽하게 파악할 수 없다’고 주장해왔지만, 알스턴 교수는 이것이 대체로 변명에 불과하다고 말한다.
“만약 제가 유튜브를 보는데, 어느 날 추천 알고리즘이 고장 나서 제게 패션, 화장품 관련 영상만 계속 추천에 뜨고 그래서 유튜브에 접속하지 않게 되고 수익에 문제가 생기면, 유튜브는 금방 문제를 해결할 겁니다. 반면 여성, 빈곤층 차별 등 기타 형태의 편견에 문제가 있다고 말하면 그들은 ‘우리는 할 수 있는 일이 없다’고 말할 것입니다. 그들이 인정하는 것보다 훨씬 더 많은 잠재적 통제력이 있다고 볼 수 있는 거죠.”
필립 알스턴 전 유엔 빈곤·인권 관련 특별보고관이 지난 9월 15일 서울 중구 국가인권위원회 회의실에서 ‘AI와 빈곤, 인권 문제’ 등에 대해 주간경향과 인터뷰하고 있다. 서성일 선임기자
기술과 사회적 전문성
여기서 기술의 다양한 차원을 조사·파악하고 가치를 수립하는 정부의 역할이 중요해진다. 가능한 위험에 대해 제대로 평가하고 규제하는 것은 기업의 자율적인 의지에만 맡겨서는 불가능하기 때문이다.
특히 알스턴 교수는 정부가 기술과 사회를 아우르는 ‘전문성’을 키울 필요성이 있다고 강조한다. “정부는 기술적 측면뿐 아니라 그것의 사회적 영향까지 평가할 수 있는 이들을 포함하는, 다양한 전문지식을 갖춘 집단을 확보해야 합니다.”
그는 헬스케어와 챗봇을 예로 들며, 현재로서는 이런 기술이 사회와 개인에게 어떤 영향을 미치는지에 대한 보고서는 거의 존재하지 않는다고 말한다. 단지 AI 헬스케어가 의료에 들어가는 비용을 절감하고, 챗봇이 사람들의 외로움을 저비용으로 덜어줄 수 있다는 점에만 주목할 뿐이다. 이는 결과적으로 정부에게도 비용 절감이라는 효용을 주고 기업에도 이익이 되지만 사회적으로 어떤 부작용이 있을지, 과연 우리가 그런 삶을 원하는지 등에 대해서는 알 수 없다.
“지난 4월 마크 저커버그(메타 CEO)가 ‘오늘날 미국인은 평균적으로 3명 이하의 친구를 가지고 있을 뿐’이라며 AI가 점차 그 빈자리를 메울 수 있을 것이라 말한 바 있죠. 사람들은 점점 더 고립되고, 사회에 어울리지 못하며 친구를 사귀지 못하게 되지만 이런 현상이 사회적으로 어떤 영향을 가져올지 정부는 아무것도 알지 못합니다. 누구도 ‘이런 사회는 우리가 원하는 사회가 아니야’라고 말하지 않죠. 여전히 인간과의 직접 대화가 대체 불가능한 가치를 가지고 있음에도 불구하고요.”
이러한 사회적 고립 역시 모두에게 똑같이 나타나는 것이 아니라 개인의 경제적·사회적 배경과 직업에 따라 큰 차이를 보인다.
예를 들어, 그는 정부가 챗봇의 영향력에 대한 인문학·심리학 등의 연구를 지원하는 방식으로 기술의 위험성에 대해 더 잘 대비하고 예측할 수 있다고 말한다. 하지만 오늘날 대부분의 빅테크 기업은 오히려 사회적 책임과 관련된 부서를 축소하고 있으며, 정부의 AI와 관련된 지원 역시 기술진흥 및 인프라 구축에 집중돼 있다.
“우리가 AI와 관련해 모르는 것도 많지만, 그에 대한 지식을 아예 가지고 있지 않은 건 아닙니다. 다만 그 지식을 체계적으로 활용하지 못하고 있죠. 대표적으로는 ‘사생활(privacy)’ 관련된 문제가 그런데, 우리는 사생활을 커튼을 치고 생활하거나 통화를 엿듣지 못하게 하는 사소한 일 정도로 생각하지만, 훨씬 더 큰 개념입니다. 우리 삶의 근본적인 침해에 대해 제대로 표현하기 위해선 더 큰 차원의 인식이 필요하죠.”
윤리는 상대적인 개념
그는 윤리가 아닌 인권 기반의 접근이 필요하다고 강조한다. 윤리는 상대적인 개념인 반면 인권은 모든 사람이 당연하게 지녀야 하는 권리라는 것이다.
“인권에는 두 가지가 있습니다. 첫째는 시민적·정치적 권리이고, 둘째는 경제·사회·문화적 권리죠. 보통 정부는 전자만을 강조할 뿐 후자는 강조하지 않습니다. 즉 교육권, 건강권, 존엄하게 대우받을 권리 등은 제외된다는 것입니다. 이는 인권에 대한 매우 빈곤한 관점입니다. 왜냐하면 인권은 자신을 진정으로 표현할 권리, 민주주의에 참여할 권리, 정부의 의사 결정에 영향을 미칠 권리 등에 대한 것이기 때문입니다.”
이처럼 인권을 최우선으로 하는 접근은 문제의 본질적인 예방과 구제에 집중한다.
“정부가 인권 존중 및 증진에 대한 강한 의지를 갖지 않는다면, 정부는 국민에게 미치는 영향을 간과하는 대신 경제와 국가 안보에 미치는 영향에만 몰두하게 될 것입니다. 따라서 인권은 명시적으로 인정돼야 하며, 더 넓은 책임과 영향을 받는 개인에 대한 구제에 초점을 맞춰야 합니다.”
하지만 현재 AI와 관련한 입법, 정책의 세계적인 추세는 규제보다는 진흥, 특히 국방·국력 차원에서의 진흥을 강조하는 것이다.
“최근 미국은 광범위한 차원의 세계적 협력 노력에서 물러났습니다. 자국의 이익만을 최우선으로 삼고 있으며, 오늘날 국방비 지출이 늘어남에 따라 그 상당수는 AI에 대한 투자로 들어갈 것입니다. 안보 중심의 접근은 외부 위협으로부터 국민을 보호하는 것으로 해석될 뿐 내부적으로 일어나는 일에 대해서는 고려하지 않습니다. 이는 그 두 가지 목표를 조화시킬 수 없다는 가정에 기반하고 있죠. 하지만 과연 그럴까요?”
김지원 기자 deepdeep@kyunghyang.com
댓글목록
등록된 댓글이 없습니다.