Taktyka Chin z Wykorzystaniem Sztucznej Inteligencji w Manipulacji Wyborczej

Chiny wykorzystują sztuczną inteligencję (AI) do manipulowania wyborami nie tylko w przypadku prezydenckich wyborów w Tajwanie, Microsoft ostrzega, że również Indie mogą być celem wyborów Lok Sabha. Analiza przeprowadzona przez Microsoft Threat Intelligence ujawniła, że chińskie grupy cybernetyczne wspierane przez państwo, przy wsparciu Korei Północnej, planują wpływać na wybory w Stanach Zjednoczonych i Korei Południowej. Chociaż wpływ treści generowanych przez sztuczną inteligencję na wyniki wyborów obecnie pozostaje niski, rosnące eksperymenty Chin z memami, wideo i augmentacją audio sugerują, że może się okazać bardziej skutecznym narzędziem w przyszłości.

Nadchodzące siedmiofazowe wybory Lok Sabha w Indiach, zaplanowane na początek 19 kwietnia i zakończenie 1 czerwca, budzą obawy o potencjalną ingerencję AI. Raport Microsoftu zidentyfikował Flax Typhoon, chińskiego cybernetycznego aktora znanego z atakowania sektora telekomunikacyjnego, jako sprawcę niedawnych ataków na Indie, Filipiny, Hongkong i Stany Zjednoczone. Ponadto w lutym grupa hakerów powiązana z państwem przyznała się do ataków na kluczowe biura indyjskiego rządu, w tym Biuro Premiera (PMO) i Ministerstwo Spraw Wewnętrznych, a także na znaczące przedsiębiorstwa.

Najbardziej niepokojące jest naruszenie 95,2 gigabajtów danych o imigracji przez indyjski rząd, co zostało ujawnione przez śledztwo przeprowadzone przez The Washington Post. Wyciekłe pliki, które zostały opublikowane na platformie GitHub, budzą obawy o nieautoryzowany dostęp i potencjalne nadużycie wrażliwych informacji osobistych.

Dodatkowo raport Microsoftu podkreślił działania Storm-1376, kolejnego aktora związane z Komunistyczną Partią Chin (CCP), który opublikował wideo generowane przez AI z udziałem prezenterów wieści w języku mandaryńskim i angielskim. W tych nagraniach fałszywie twierdzono, że Stany Zjednoczone i Indie są odpowiedzialne za trwające zamieszki w Mjanmie, kraju zmierzającego ku wojnie domowej od zamachu stanu wojskowego w lutym 2021 roku.

Zagrożenie treściami deepfake, generowanymi za pomocą narzędzi AI, było również tematem rozmowy między współzałożycielem Microsoftu, Billem Gatesem, a premierem Indii, Narendra Modim, podczas ostatniego spotkania. Premier Modi wyraził obawy dotyczące potencjalnego wpływu deepfake’ów na percepcję publiczną i zwrócił uwagę na ryzyko szerzenia dezinformacji przez złośliwych aktorów.

Taktyki Chin wykraczają poza granice Indii, o czym świadczy raport Microsoftu, który ujawnił, że wcześniej w tym roku wybory prezydenckie na Tajwanie doświadczyły kampanii dezinformacyjnej z wykorzystaniem treści generowanych przez AI. Raport podkreślił również zwiększone wykorzystanie generowanych przez AI prezenterów telewizyjnych w Chinach. Warto zauważyć, że podczas okresu wyborczego na YouTube opublikowano fałszywe wideo, na którym kandydat popierał innego kandydata, mimo że popierający kandydat już wycofał się z wyścigu.

W miarę ewolucji taktyk Chin, nadchodzące wybory w Stanach Zjednoczonych i Korei Południowej również stały się przedmiotem zainteresowania. Chińskie grupy cybernetyczne wykorzystują platformy mediów społecznościowych, aby stawiać podziały oraz zbierać informacje o kluczowych demograficznych grupach wyborczych. Te działania wskazują na rosnące obawy dotyczące ingerencji zagranicznych w demokracje na całym świecie.

Ponadto raport Microsoftu zwrócił uwagę na Koreę Północną, stwierdzając, że kraj ten zwiększył swoje działania w kradzieżach kryptowalutowych i atakach na łańcuchy dostaw, aby finansować cele militarnie i zbierać informacje. Szczególnie niepokojące jest wykorzystanie przez ten kraj AI w celu poprawy efektywności operacyjnej.

Choć ważne jest zachowanie czujności i zajęcie się tymi nowymi zagrożeniami, równie istotne jest współpraca rządów i firm technologicznych w celu opracowania skutecznych środków zaradczych w celu ochrony integralności wyborów i zabezpieczenia procesów demokratycznych.

FAQ

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact