
챗지피티(ChatGPT)를 만들어 낸 미국의 오픈AI(Open AI)는 지난달 30일(현지시간) 러시아, 중국, 이란, 이스라엘의 그룹이 자사의 기술을 사용하여 전 세계의 정치적 담론에 영향을 미치려고 시도하는 것을 적발했다고 밝혔다.
이는 생성형 인공 지능(AI)으로 인해 국가 행위자가 은밀한 선전 활동을 더 쉽게 할 수 있다는 우려를 강조하는 것으로, 2024년 미국 대선이 가까워지면서 그 같은 선전 캠페인이 시작될 것으로 보인다.
Open AI는 중국, 러시아, 이란에서 잘 알려진 선전 활동과 관련된 계정을 제거했다고 밝혔다. 이스라엘 정치 캠페인 회사, 그 회사의 연구원들이 “배드 그래머(Bad Grammar)”라고 명명한 러시아에서 시작된 이전에 알려지지 않은 그룹이다. 그 그룹은 Open AI의 기술을 사용하여 게시물을 작성하고, 이를 다양한 언어로 번역하며 소셜미디어(SNS)에 자동으로 게시하는 데 도움이 되는 소프트웨어를 구축했다.
이들 그룹 중 어느 그룹도 큰 관심을 끌지 못했다. Open AI 정보 및 조사 팀의 수석 조사관인 벤 님모(Ben Nimmo)는 이와 관련된 소셜미디어 계정의 사용자 수가 거의 없었고 팔로어도 소수에 불과했다고 말했다. 그럼에도 불구하고 Open AI의 보고서에 따르면, 수년 동안 소셜미디어에서 활동해 온 선전가들은 AI 기술을 사용하여 캠페인을 강화하고 있다는 것이다.
이전에 메타(Meta) 추적 영향력 운영에서 일했던 님모는 기자들과의 브리핑에서 “우리는 그들이 전통적으로 관리했던 것보다 더 많은 양과 더 적은 오류로 텍스트를 생성하는 것을 보았다.”면서, “회사가 모르는 사이에 다른 그룹이 여전히 Open AI의 도구를 사용하고 있을 가능성이 있다”고 말했다.
그러면서 그는 “지금은 안주할 때가 아니다. 역사는 수년간 아무데도 도달하지 못한 채 영향력을 발휘하는 작전이 아무도 찾지 않으면 갑자기 터질 수 있음을 보여준다.”며 경계심을 늦추지 않았다.
정부, 정당, 활동가 단체는 수년간 정치에 영향을 미치기 위해 소셜 디어를 사용해 왔다.
2016년 대선에서 러시아의 영향력에 대한 우려가 있은 후, 소셜 미디어 플랫폼은 자신의 사이트가 유권자를 좌우하는 데 어떻게 사용되는지에 더 많은 관심을 기울이기 시작했다. 회사는 일반적으로 정부와 정치 단체가 사용자에게 영향을 미치려는 공동 노력을 은폐하는 것을 금지하며, 정치 광고는 누가 비용을 지불했는지 공개해야 한다.
사실적인 텍스트, 이미지, 심지어 비디오까지 생성할 수 있는 AI 도구가 일반적으로 사용 가능해짐에 따라, 허위 정보 연구자들은 온라인에서 허위 정보나 은밀한 영향력 행사를 발견하고 대응하기가 더욱 어려워질 것이라는 우려를 제기했다. 올해 전 세계적으로 수억 명의 사람들이 선거에 투표했으며, 생성 AI 딥 페이크(deep fake)가 이미 확산됐다.
오픈 AI, 구글 및 기타 AI 회사는 자체 도구로 만든 딥 페이크를 식별하는 기술을 개발해 왔지만 이러한 기술은 아직 입증되지 않았다. 일부 AI 전문가들은 딥 페이크 탐지기가 결코 완전히 효과적이지 않을 것이라고 생각한다.
올해 초, 중국 공산당 소속 단체는 대만 선거에서 한 후보가 다른 후보를 지지하는 것으로 알려진 음성을 AI로 생성해 게시했다. 그러나 폭스콘 창립자인 정치인 테리 구(Terry Gou)는 다른 정치인을 지지하지 않았다.
지난 1월 뉴햄프셔 예비선거 유권자들은 바이든 대통령이 보낸 것으로 추정되는 자동녹음전화를 받았으나 곧 AI로 밝혀졌다. 지난 주, 자동녹음전화를 의뢰했다고 말한 민주당 요원은 유권자를 억압하고 후보자를 사칭한 혐의로 기소됐다.
오픈 AI의 보고서에는 5개 그룹이 영향력 행사 시도에 회사의 기술을 어떻게 사용했는지 자세히 설명되어 있다. 이전에 중국에서 시작된 그룹인 스패머플라지(Spamouflage)는 오픈 AI의 기술을 사용하여 소셜미디어 활동을 조사하고 중국어, 한국어, 일본어 및 영어로 게시물을 작성했다고 회사는 밝혔다. 국제 가상 미디어 연합(International Union of Virtual Media)으로 알려진 이란 그룹도 오픈 AI의 기술을 사용하여 사이트에 게시할 기사를 작성했다.
스패머플라지는 광고성 게시물의 의미인 스팸(Spam)과 위장을 뜻하는 영단어 커머플라지(Camouflage)의; 합성어로, 마치 스팸처럼 보이게 만든 내용을 통해 소셜미디어 등 온라인 공간에서 가짜 정보를 유포하는 수법을 뜻한다.
이전에 알려지지 않은 그룹인 배드 그래머(Bad Grammar)는 ‘오픈 AI’의 기술을 사용하여 메시징 앱 텔레그램(Telegram)에 자동으로 게시할 수 있는 프로그램을 만드는 데 도움을 주었다. 보고서에 따르면, 배드 그래머는 오픈 AI 기술을 사용하여 미국이 우크라이나를 지원해서는 안 된다고 주장하는 러시아어와 영어로 게시물과 댓글을 생성했다.
보고서는 또한 스토익(Stoic)이라는 이스라엘 정치 캠페인 회사가 오픈 AI를 사용하여 가자 전쟁에 대한 친(親)이스라엘 게시물을 생성하고, 캐나다, 미국, 이스라엘 사람들을 겨냥한 것을 발견했다고 오픈 AI가 말했다.
페이스북 소유주인 메타(META)도 스토익의 작업을 공개하면서 이 그룹이 사용하는 페이스북 계정 510개와 인스타그램 계정 32개를 삭제했다고 밝혔다. 일부 계정은 해킹됐고 다른 계정은 가상의 사람들이었다고 회사는 설명했다.
문제의 계정은 친(親)이스라엘 미국 대학생, 아프리카계 미국인 등으로 가장하여 유명 개인이나 언론 기관의 페이지에 자주 댓글을 달았다. 이 발언은 이스라엘 군대를 지지했으며 캐나다인들에게 "급진적인 이슬람"이 그곳의 자유주의 가치를 위협한다고 경고했다고 메타는 말했다.
일부 댓글의 표현에서 AI가 등장했는데, 이는 실제 페이스북 사용자를 이상하고 맥락에 맞지 않는 것으로 여겼다. 회사는 운영이 부진하여 합법적인 팔로워가 약 2,600명에 불과하다고 말했다.
메타는 대서양위원회(Atlantic Council)의 디지털 포렌식 연구실(Digital Forensic Research Lab)이 X(엣. 트위터)에서 네트워크를 발견한 후 행동했다.
지난 1년 동안 허위 정보 연구자들은 AI 챗봇을 사용하여 온라인에서 특정 사람들과 길고 상세한 대화를 나누고 그들을 특정 방향으로 이끌 수 있다고 제안했다. AI 도구는 잠재적으로 개인에 대한 대량의 데이터를 수집하고, 개인에게 직접 메시지를 맞춤화할 수도 있다.
님모는 “오픈 AI는 AI의 더 정교한 사용을 발견하지 못했다”며 “이것은 혁명이라기보다는 진화에 가깝다. 그 어느 것도 우리가 미래에 그것을 볼 수 없을 것이라고 말하는 것은 아니다.”라고 말했다.
뉴스타운
뉴스타운TV 구독 및 시청료 후원하기
뉴스타운TV






