KOREAHUMANRIGHTS | NEWS | 한국인권뉴스에 오신걸 환영합니다.
 
 
 
HOME > 한국인권뉴스 > 핫이슈
기사제목 기사내용
성매매특별법의
개정 및 폐지에 앞장섭니다.
 
 
 
 


인공지능(A I)이 선거를 장악하고 민주주의를 훼손하는 방법 2023·06·07 03:35

조 아데툰지 (The Conversation UK 에디터)

조직이 ChatGPT와 같은 인공지능 언어 모델을 사용하여 유권자가 특정 방식으로 행동하도록 유도할 수 있나요?

2023년 5월 16일, 미국 상원에서 열린 인공지능 관련 청문회에서 조쉬 홀리 상원의원은 OpenAI의 CEO인 샘 알트먼에게 이 질문을 던졌습니다. 알트먼은 일부 사람들이 언어 모델을 사용하여 유권자를 조작하고 설득하며 일대일 상호작용을 할 수 있다는 점을 우려한다고 답했습니다.

알트먼은 자세히 설명하지는 않았지만 이런 시나리오를 염두에 두고 있었을 것입니다. 곧 정치 기술자들이 블랙박스에 담긴 정치 캠페인인 클로거(Clogger)라는 기계를 개발한다고 상상해 보세요. 클로거는 단 한 가지 목표, 즉 클로거의 서비스를 구매한 후보가 선거에서 승리할 확률을 극대화하는 것을 끊임없이 추구합니다.

페이스북, 트위터, 유튜브와 같은 플랫폼은 사용자가 사이트에서 더 많은 시간을 보내도록 유도하기 위해 인공지능을 사용하지만, 클로거의 인공지능은 사람들의 투표 행동을 변화시키는 다른 목표를 가지고 있습니다.

- 클로거의 작동 방식

기술과 민주주의의 교차점을 연구하는 정치학자이자 법학자로서, 우리는 클로거와 같은 것이 자동화를 통해 2000년대 초반부터 정치 캠페인에서 사용되어 온 행동 조작 및 마이크로 타겟팅 기술의 규모와 잠재적 효과를 획기적으로 높일 수 있다고 믿습니다. 현재 광고주가 사용자의 검색 기록과 소셜 미디어 기록을 사용하여 상업 및 정치 광고를 개별적으로 타겟팅하는 것처럼, 클로거는 귀하와 수억 명의 다른 유권자에게 개별적으로 주의를 기울일 것입니다.

이 기술은 현재의 최첨단 알고리즘 행동 조작에 비해 세 가지 향상된 기능을 제공합니다.

첫째, 언어 모델은 텍스트, 소셜 미디어, 이메일(이미지 및 동영상 포함) 등 개인에게 맞춤화된 메시지를 생성할 수 있습니다. 광고주는 전략적으로 상대적으로 적은 수의 광고를 게재하는 반면, ChatGPT와 같은 언어 모델은 캠페인이 진행되는 동안 귀하를 위해 수많은 고유 메시지를, 다른 사용자에게는 수백만 개의 메시지를 생성할 수 있습니다.

둘째, 클로거는 ‘강화 학습’이라는 기술을 사용하여 투표를 변경할 가능성이 점점 더 높아지는 메시지를 연속적으로 생성합니다. ‘강화 학습’은 컴퓨터가 어떤 행동을 취하고 어떤 것이 더 효과적인지에 대한 피드백을 받아 목표를 달성하는 방법을 학습하는 기계 학습, 시행착오 접근 방식입니다. 바둑, 체스 및 많은 비디오 게임을 인간보다 더 잘하는 기계는 ‘강화 학습’을 사용했습니다.

셋째, 캠페인이 진행되는 동안 기계의 이전 발송에 대한 사용자의 반응과 다른 사람의 마음을 바꾸는 것에 대해 학습한 내용을 고려하여 클로거의 메시지가 진화할 수 있습니다. 클로거는 시간이 지남에 따라 여러분은 물론 수백만 명의 다른 사람들과 역동적인 '대화'를 이어갈 수 있을 것입니다. 클로거의 메시지는 여러 웹사이트와 소셜 미디어에서 사용자를 팔로우하는 광고와 유사할 것입니다.

- AI의 본질

주목할 만한 세 가지 기능 또는 버그가 더 있습니다.

첫째, 클로거가 보내는 메시지는 정치적인 내용을 담고 있을 수도 있고 그렇지 않을 수도 있습니다. 이 기계의 유일한 목표는 득표율을 극대화하는 것이며, 이 목표를 달성하기 위해 인간 선거운동원이 생각하지 못한 전략을 고안할 가능성이 높습니다.

한 가지 가능성은 상대 후보의 유권자에게 스포츠나 엔터테인먼트에 대한 비정치적 열정에 대한 정보를 보내 정치적 메시지를 묻어버리는 것입니다. 또 다른 가능성은 상대방이 보내는 메시지에 맞춰 요실금 광고와 같이 불쾌감을 주는 메시지를 보내는 것입니다. 또 다른 방법은 유권자의 소셜 미디어 친구 그룹을 조작하여 소셜 서클이 특정 후보를 지지하는 것처럼 보이게 하는 것입니다.

둘째, 클로거는 진실을 고려하지 않습니다. 실제로 무엇이 진실인지 거짓인지 알 수 있는 방법이 없습니다. 언어 모델 '환각'은 이 기계의 목적이 정확한 정보를 제공하는 것이 아니라 투표를 바꾸는 것이기 때문에 문제가 되지 않습니다.

셋째, 블랙박스 형태의 인공지능이기 때문에 사람들은 인공지능이 어떤 전략을 사용하는지 알 방법이 없습니다.

- 막힌 정치

2024년에 공화당 대선 캠페인이 클로거를 배치한다면, 민주당 캠페인은 아마도 비슷한 기계로 대응을 할 수밖에 없을 것입니다. 그것을 도거(Dogger)라고 부르세요. 만약 캠페인 관리자가 이 기계가 효과적이라고 생각한다면, 대선 경선은 클로거와 도거의 대결로 귀결될 수 있으며, 더 효과적인 기계의 고객이 승자가 될 것입니다.

정치학자나 전문가들은 어느 한 쪽의 인공지능이 우세한 이유에 대해 많은 이야기를 할 수 있겠지만, 실제로는 아무도 모를 것입니다. 대통령이 당선된 것은 정책 제안이나 정치적 아이디어가 더 많은 미국인을 설득했기 때문이 아니라 더 효과적인 AI가 있었기 때문일 것입니다. 이날 승리한 콘텐츠는 후보자나 정당이 아니라 오로지 승리에만 초점을 맞춘 AI에서 나왔을 것이고, 그 자체의 정치적 아이디어는 없었을 것입니다.
이 매우 중요한 의미에서 사람이 아닌 기계가 선거에서 승리했을 것입니다. 연설, 광고, 메시지, 투표, 개표 등 민주주의의 모든 일상적인 활동이 이루어졌을지라도 선거는 더 이상 민주적이지 않을 것입니다.

인공지능으로 선출된 대통령은 두 가지 방법 중 하나를 선택할 수 있습니다. 선거라는 명분을 이용해 공화당이나 민주당의 정책을 추구할 수도 있습니다. 그러나 정당의 이념은 사람들이 투표한 이유와 거의 관련이 없었을 수 있기 때문에(클로저와 도거는 정책적 견해에는 관심이 없습니다) 대통령의 행동이 반드시 유권자의 의사를 반영하지는 않을 것입니다. 유권자들은 정치 지도자와 정책을 자유롭게 선택하기보다는 인공지능에 의해 조종당했을 것입니다.

또 다른 경로는 대통령이 기계가 재선 가능성을 극대화할 것으로 예측하는 메시지, 행동 및 정책을 추구하는 것입니다. 이 경로에서 대통령은 권력을 유지하는 것 외에 특별한 플랫폼이나 의제가 없을 것입니다. 클로거가 안내하는 대통령의 행동은 유권자의 진정한 이익이나 대통령 자신의 이념에 부합하기보다는 유권자를 조종할 가능성이 가장 높은 행동이 될 것입니다.

- 폐쇄주의 방지

후보자, 캠페인, 컨설턴트 모두가 이러한 정치 인공지능의 사용을 포기한다면 인공지능의 선거 조작을 피할 수 있을 것입니다. 하지만 그럴 가능성은 낮다고 생각합니다. 정치적으로 효과적인 블랙박스가 개발된다면, 이를 사용하고 싶은 유혹은 거의 거부할 수 없을 것입니다. 실제로 정치 컨설턴트들은 후보자의 당선을 돕기 위해 이러한 도구를 사용하는 것이 자신의 직업적 책임이라고 생각할 수도 있습니다. 그리고 한 후보가 이러한 효과적인 도구를 사용하면 상대 후보가 일방적으로 무장 해제하여 저항하는 것은 거의 기대하기 어려울 것입니다.

개인정보 보호 강화가 도움이 될 것입니다. 클로거는 개인을 타겟팅하고, 설득하거나 조작하기 위한 맞춤형 메시지를 작성하고, 캠페인이 진행되는 동안 추적 및 재타겟팅하기 위해 방대한 양의 개인 데이터에 액세스할 수 있어야 합니다. 기업이나 정책 입안자가 이러한 정보를 모두 거부하면 기계의 효율성이 떨어질 수 있습니다.

또 다른 해결책은 선거관리위원회에 있습니다. 선관위는 이러한 기계를 금지하거나 엄격하게 규제할 수 있습니다. 이러한 '복제' 연설이 본질적으로 정치적이라 할지라도 규제할 수 있는지에 대해서는 치열한 논쟁이 벌어지고 있습니다. 미국의 극단적인 언론(표현)의 자유 전통을 고려할 때 많은 학자들은 규제할 수 없다고 말합니다.

그러나 수정헌법 제1조의 보호가 이러한 기계의 제품에도 자동적으로 확대 적용되어야 할 이유는 없습니다. 국가가 기계에 권리를 부여하기로 선택할 수도 있지만, 이는 1789년 제임스 매디슨의 견해가 AI에 적용될 것이라는 잘못된 가정이 아니라 오늘날의 도전 과제에 근거한 결정이어야 합니다.

유럽연합 규제 당국도 이러한 방향으로 나아가고 있습니다. 정책 입안자들은 유럽 의회의 인공지능법 초안을 수정하여 "선거에서 유권자에게 영향을 미치는 인공지능 시스템"을 "고위험군"으로 지정하고 규제 조사 대상으로 지정했습니다.

유럽 인터넷 규제 당국과 캘리포니아에서 이미 부분적으로 채택한 헌법적으로 더 안전한 조치 중 하나는 봇(bots)이 자신을 사람으로 위장하는 것을 금지하는 것입니다. 예를 들어, 규제 당국은 캠페인 메시지에 포함된 콘텐츠가 사람이 아닌 기계에 의해 생성된 경우 면책 조항을 포함하도록 요구할 수 있습니다.

이는 광고 고지 사항 요건인 "샘 존스 의회 위원회에서 비용을 지불함"과 같지만, AI 출처를 반영하도록 "이 AI 생성 광고는 샘 존스 의회 위원회에서 비용을 지불했습니다."로 수정할 수 있습니다. 더 강력한 버전이 필요할 수 있습니다: "이 AI가 생성한 메시지는 샘 존스 의원 위원회에서 귀하에게 보내는 것으로, 이 메시지를 클릭하면 샘 존스 후보에게 투표할 확률이 0.0002% 증가할 것으로 클로거가 예측했기 때문입니다."라고 설명할 수 있습니다. 최소한 유권자는 봇이 자신에게 말을 걸었을 때 그 이유를 알 권리가 있으며, 그 이유도 알아야 한다고 생각합니다.

클로거와 같은 시스템의 가능성은 인간의 집단적 권한 박탈을 향한 길에 초인적인 인공지능이 필요하지 않을 수도 있다는 것을 보여줍니다. 수백만 명의 버튼을 효과적으로 누를 수 있는 강력한 새 도구를 가진 열성적인 운동가와 컨설턴트가 필요할 수도 있습니다.

▦ 출처: theconversation닷컴 2023.6.2

[한국인권뉴스] 

Copyright 1999-2024  Zeroboard
 
열띤 네티즌들의 토론장
 
성노동 개념 / better health
뉴욕주, 성노동 비범죄화 추진
하이닉스 매그나칩 사내 하청지회 서울본사 12층 사장실...
박근혜 "경동맥 잘린 것도 아닌데"
 
자료마당
 
조선에서의 일본군‘위안부’동원: 소개업자・ 접객...
나치 독일의 강제노동과 보상 문제
한타련 거제 주민설명회 수순
성특법이 성범죄, HIV / AIDS 공화국으로
 
한국인권뉴스 회원의 글
 
박근혜 정부의 '한일위안부 합의' 사실상 파기한 문재인
징용배상판결 해법은? / 주익종
[쟁점토론] 윤석열 대통령에게 묻습니다. 누가 통일을 원...
[8.15 전국노동자대회] 반통일 윤석열의 대결정책 규...