새로운 전략: 정보 세탁 및 숨겨진 영향 작전

디스인포메이션 및 숨겨진 영향 작전의 세계는 Microsoft가 진행한 최근 사이버 위협 연구에서 나타나듯이 신속하게 진화하고 있습니다. 이 기술 기업이 발표한 새 보고서에서는 중국과 연계된 캠페인들이 국가 후원의 온라인 영향 작전을 통해 거짓 정보를 퍼뜨리고 선거에 영향을 미칠 가능성이 있는 사실들을 밝혔습니다. 이러한 캠페인은 온라인 조작 분야에서의 새로운 기술인 생성 AI 도구를 사용한다는 점이 특징입니다.

이러한 캠페인들은 주로 소셜 미디어 플랫폼의 가짜 계정을 통해 작동되어 왔으며 외국인 유권자들의 정치적 의견에 대한 통찰력을 얻기 위해 분열적인 국내 정치 문제에 집중해 왔습니다. 미국의 약물 사용, 이민 정책, 인종 갈등과 같은 주제들이 이러한 작전의 핫한 대상이 되었습니다. Microsoft는 이러한 게시물 중 일부가 상대적으로 기본적인 생성 AI를 이미지에 사용했음을 발견했으며, 앞으로 더 고급화된 방법이 등장할 가능성이 높다고 밝혔습니다.

중국의 글로벌 영향력이 증가하고 있는 추세는 미국 관리들에게 우려스러운 동향으로 여겨지고 있습니다. 중국 정부는 매년 수십억 달러를 디스인포메이션 캠페인에 투자하고 있으며, 그 지리적 목표를 홍보하고 자국정책에 대한 비판을 침묵시키기 위해 다양한 전술을 활용하고 있다는 비난을 받았습니다. 이는 베이징과 관련된 사이버 공격의 증가와 결합되어, 중국의 디스인포메이션 작전에 소름 끼치는 급증이라는 신호를 보냅니다.

카스텀 보안 및 신뢰 책임을 맡은 Microsoft의 톰 버트는 이러한 작전들의 미래에 대한 우려를 표명하면서 “그들이 실험 중이라는 것을 보고 있습니다. 다음으로 어디로 나아갈지 걱정됩니다”라고 말했습니다. 발전된 AI 도구가 대만의 1월 대통령 선거에서 발견된 것은 온라인 조작의 발전하는 풍경을 더욱 부각시킵니다. 마이크로소프트의 연구원들이 나라별 행위자가 외국 선거에 영향을 주려는 시도로 AI를 사용한 것을 처음 발견했습니다.

현재의 캠페인들이 큰 영향을 준 것은 아니지만, 이들은 국부 선거 영향 작전의 가능성을 보여주며, 서사 2024년 미국 대통령 선거를 포함한 선거들에 대한 미리 만든 AI로 만들어진 음성 클립의 사용에 대한 우려와 함께 국가 기반의 선거 영향 작전들에 대한 우려를 제기하고 있습니다. 서구의 정보 관리들은 AI 도구를 사용하여 선거를 오인시키는 영상과 기타 콘텐츠로 홍수를 일으킬 우려를 제기했습니다. 가짜 AI로 만들어진 오디오 클립은 상대적으로 쉽게 제작되며 청중을 속일 수 있기 때문에 특히 심각한 위협으로 여겨집니다.

미국 정보 공동체의 연례적인 세계적 위협 보고서는 중국 정부가 숨겨진 영향 작전과 거짓 정보 전파 분야에서 늘어난 능력을 인정하고 있습니다. 이 보고서는 또한 중국의 생성 AI 실험 및 홍콩과 대만과 같은 문제에 대한 미국의 토론 형성을 강화하려는 노력을 강조하고 있습니다. 중국이 계속해서 거짓 정보 생산과 보급에 반대한다고 주장했으며, 미국 소셜 미디어의 중국에 대한 거짓 정보로 가득 차있다고 주장했습니다.

마이크로소프트의 보고서는 베이징과 관련된 디스인포메이션 작전을 밝히는 연구의 계속적인 발전에 기여하고 있습니다. 예를 들어 전 대통령 도널드 트럼프를 지지하는 척하며 바이든 대통령을 비방하려는 소셜 미디어 계정이 식별된 최근 보고서도 있습니다. 이러한 발견은 변화하는 디스인포메이션 전술에 대응하기 위한 계속적인 경계 미필요성을 강조하고 있습니다.

Microsoft 보고서에서 강조된 구체적인 사례들에서, 중국의 온라인 군대는 켄터키에서의 기차 탈선과 같은 사건을 활용해 미국 정부를 잘못된 음모로 비난하는 표현들을 퍼뜨리기도 했습니다. 그들은 또한 하와이 마우이 해안에서 살인 살인을 시작했다는 이야기를 확산시켰으며, 그 영향을 높이기 위해 AI로 생성된 이미지를 사용했습니다. 이러한 캠페인들은 주로 서방 사이버 위협 연구자들에 의해 2019년 이후 지켜진 Storm-1376 또는 Spamouflage로 알려진 위협 주체에 의해 주최되었습니다.

디스인포메이션과 숨겨진 영향 작전의 풍경이 계속해서 진화하는 가운데, 기술 기업, 정부 및 개인들이 경계를 지켜야 합니다. 생성 AI 도구의 사용은 이러한 작전들의 점점 더 복잡한 것을 보여주며, 그 영향을 상쇄하고 완화시키기 위한 강력한 대응이 필요합니다. 계속된 연구, 협력 및 인식을 통해서만 디스인포메이션의 급격한 증가를 저지하고 민주 과정을 보호할 수 있습니다.

자주 묻는 질문 (FAQ)

생성 AI 도구란 무엇인가요?

생성 AI 도구는 기계 학습과 인공지능 기술을 활용하여 패턴과 데이터에 기초해 텍스트, 이미지 또는 오디오와 같은 콘텐츠를 생성할 수 있는 기술입니다. 디스인포메이션 캠페인의 맥락에서, 생성 AI 도구는 허구 정보를 퍼뜨리거나 대중의 의견을 조작하는 현혹적인 가짜 콘텐츠를 만드는 데 사용될 수 있습니다.

AI로 생성된 오디오 클립은 어떤 위협을 가지고 있나요?

AI로 생성된 오디오 클립은 실제로 그런 말을 한 적이 없는 정치인이나 인물과 같이 소리나는 것을 쉽게 만들어내기 때문에 중요한 위협을 가지게 됩니다. 이러한 클립은 잘못된 정보를 퍼뜨리거나 대중의 인식을 조작하여 잠재적으로 파괴적인 결과로 이어질 수 있습니다.

선거에서 AI 도구 사용에 대한 우려가 무엇인가요?

우려사항은 AI 도구가 선거 중에 오인을 일으키거나 잘못된 비디오, 이미지 및 다른 콘텐츠를 만들고 보급하는 데 사용될 수 있다는 것입니다. 이것은 대중 의견에 상당한 영향을 미칠 수 있으며 민주적 과정의 무결성을 훼손할 수 있습니다. AI 기술이 진화함에 따라 미래 선거에서 AI 기반의 디스인포메이션 캠페인의 위협은 더욱 우려스러워집니다.

The source of the article is from the blog krama.net

Privacy policy
Contact