Skip to content Skip to footer

Wysyp reklam usług deepfake na Telegramie i innych platformach zagrozi wyborom w Europie, Azji i USA

Rok 2024 to czas wyborów w wielu krajach. Około 4 miliardy wyborców w ponad 40 krajach pójdzie do urn wyborczych – to blisko 40 proc. populacji świata. Będzie to wyjątkowa okazja dla hakerów, żeby masowo wykorzystać deepfake jako narzędzie do dezinformacji, które może zmienić losy wielu polityków i państw. 

– Czy sztuczna inteligencja może wywrócić wybory? Nie sądzę. Czy może mieć wpływ na wybory? Nie ma wątpliwości, że decyzje wyborców na całym świecie, będą pod wpływem fałszywych wiadomościDeryck Mitchelson, CSIO w Check Point Software.

Vera Jourova, wiceprzewodnicząca Komisji Europejskiej, podczas ostatniej wizyty w Polsce podkreśliła:
Ważne, byśmy w sposób odpowiedzialny przygotowali się do ochrony przed różnymi zagrożeniami, obcą interwencją, kampaniami dezinformacyjnymi, chociażby ze strony Kremla. Musimy być gotowi na cyberataki. Po raz pierwszy sztuczna inteligencja może być w sposób znaczny wykorzystana do manipulacji preferencjami wyborczymi.

Deepfake będzie wykorzystywany do tworzenia treści wpływających na opinię publiczną, manipulowanie cenami akcji czy wpływaniem na stosunki dyplomatyczne i międzynarodowe konflikty.Eksperci firmy Check Point ostrzegająnarzędzia te są obecnie łatwo dostępne w Internecie, a ugrupowania cyberprzestępcze będą z nich korzystać również w atakach socjotechnicznych, w celu dostępu do wrażliwych danych.

– W tym roku sztuczna inteligencja i deepfake będzie w jeszcze większym stopniu wspierać cyberprzestępców, przyspieszając oraz rozszerzając możliwości narzędzi hakerskich. I to niezależnie od tego, czy chodzi o bardziej opłacalne i szybsze opracowywanie nowych wariantów złośliwego oprogramowania, czy też o wykorzystanie technologii deepfake w atakach phishingowych czy innych próbach podszywania się pod prawdziwe osoby czy podmioty – podkreśla Wojciech Głażewski, dyrektor w firmie Check Point Software Technologies.

W Polsce już w 2020 roku technologia deepfake została wykorzystana do spreparowania fałszywego filmu z udziałem polityka Jarosława Kaczyńskiego, w którym lider PiS, mówiąc własnym głosem, popierał strajk kobiet. Fałszywy film został opublikowany na YouTube. Jak informowała wyborcza.pl, był to niezwykle sprawny montaż albo wyjątkowo niebezpiecznie spreparowane nagranie, czyli tzw. deepfake.

Obawy o negatywne skutki deepfake’ów rosną nie tylko wśród ekspertów, lecz przywódców państw i firm technologicznych. W lutym 2024 roku 20 największych firm technologicznych zawarło w Monachium Porozumienie technologiczne w sprawie zwalczania oszukańczego wykorzystania sztucznej inteligencji w wyborach w 2024 roku, którego celem jest zapobieganie rozpowszechnianiu fałszywych przekazów, zdjęć i filmów tworzonych przy użyciu sztucznej inteligencji podczas wyborów na całym świecie.

Sprzedaż usług Deepfake rośnie skokowo na Telegramie
Analitycy bezpieczeństwa zidentyfikowali ponad 400 kanałów promujących fałszywe usługi w aplikacji Telegram, począwszy od automatycznych botów, które pomagają użytkownikom tworzyć fałszywe filmy, po osoby oferujące tworzenie fałszywych filmów na zamówienie. Według badań przeprowadzonych przez firmę Check Point, na największej platformie internetowej dla programistów – GitHub, zidentyfikowano ponad 3000 repozytoriów technologii deepfake.

W opinii głównego specjalisty ds. cyberbezpieczeństwa w firmie Check Point Software, Odeda Vanunu, nadszedł czas, aby podnieść flagę i powiedzieć, że w wyborach będą miliardy ludzi głosujących, a ponadto istnieje ogromna, fałszywa infrastruktura, która stale się rozwija. – To co jest niepokojące, to brak cyfrowych śladów działania Deepfake. Utrudnia to kontrolę głębokich podróbek za pomocą środków technologicznych, takich jak umieszczanie adresów IP na czarnej liście lub identyfikacja ich podpisów cyfrowych – stwierdził Vanunu.

Hakerskie narzędzia w połączeniu z sieciami botów, fałszywymi kontami i anonimowymi usługami stworzyły „ekosystem oszustwa”. Ceny usług Deepfake wahają się od zaledwie 2 dolarów za film do 100 dolarów za serial, co umożliwia cyberprzestępcom tworzenie fałszywych treści, które mogą zostać wykorzystane do wywarcia wpływu na wybory i destabilizować sytuację polityczną w wybranym kraju. Ekspert firmy Check Point potwierdził, że możliwe jest wykorzystanie usług sztucznej inteligencji reklamowanych na GitHubie i Telegramie do stworzenia fałszywego wideo ze zdjęcia lub fałszywej ścieżki dźwiękowej z fragmentu czyjegoś głosu. Podobne obawy dotyczące manipulacji wyborami pojawiły się, gdy w lutym OpenAI wypuściło model AI Sora. Okazało się, że oprogramowanie może tworzyć fotorealistyczne filmy na podstawie podpowiedzi tekstowych, dzięki czemu produkcja wysokiej jakości filmów jest niezwykle łatwa.

Przykładem były próby klonowania głosu lidera politycznej partii w wielkiej Brytanii -przywódcy Partii Pracy Keira Starmera, które zostały rozesłane w Wielkiej Brytanii tuż przed konferencją Partii Pracy w październiku 2023 r. Miały one pokazać, jak lider partii znęca się nad personelem i mówi, że nienawidzi Liverpoolu, który był gospodarzem konferencji Partii Pracy.

W styczniu 2024 r. wyborcy w New Hampshire (USA) otrzymali telefony z fałszywym głosem prezydenta Joe Bidena, który miał zniechęcać do głosowania w prawyborach w New Hampshire i zachęcać do pozostania w domu. Eksperci zwracają uwagę, że klonowanie głosu jest tanie, a ceny zaczynają się od 10 dolarów miesięcznie i sięgają kilkuset dolarów miesięcznie w przypadku bardziej zaawansowanych funkcji. Koszt głosu generowanego przez sztuczną inteligencję wynosi zaledwie 0,006 dolara za sekundę.

Deryck Mitchelson, CSIO w Check Point Software i doradca szkockiego rządu ds. bezpieczeństwa cybernetycznego, powiedział, że sztuczna inteligencja będzie coraz częściej wykorzystywana do tworzenia i wysyłania fałszywych wiadomości dostosowanych do profili i osobistych zainteresowań ofiar, uzyskanych z postów w mediach społecznościowych. Sztuczna inteligencja pozwoliłaby osobom próbującym wpłynąć na wybory pójść dalej, atakując kontakty poszczególnych osób w mediach społecznościowych za pomocą dezinformacji i dezinformacji.

Na zagrożenie takie zwracali uwagę uczestnicy Światowego Forum Ekonomicznego (WEF) w Davos w styczniu br. Eksperci uważają, że za sprawą działań dezinformacyjnych uzasadnione może być twierdzenie, że dany rząd został wybrany w sposób nieuczciwy…

Dla rozwiązania tego tupu sporów problem stanowi skuteczny sposób śledzenia tego typu działań cyberprzestępczych. W opinii Odeda Vanunu, po przesłaniu fałszywki do mediów społecznościowych, takich jak Facebook czy Instagram, platforma otacza ją własnym kodem. Uniemożliwia to inżynierię wsteczną i dekodowanie oryginalnych metadanych, które wskazywałyby na ich pochodzenie i legalność…

– Popularność mediów społecznościowych, które przyspieszają obieg fałszywych treści, docierających do milionów użytkowników, stanowi zagrożenia i jest wąskim gardłem z technologicznego punktu widzenia – powiedział Oded Vanunu z Check Point Software.

Show CommentsClose Comments

Leave a comment