SZTUCZNA INTELIGENCJA

wróg czy sojusznik cyberbezpieczeństwa?

RAPORT ATSummit 2023 !

Odkryj Przyszłość Cyberbezpieczeństwa i Sztucznej Inteligencji z Raportem ATS 2023

Raport „Sztuczna inteligencja – wróg czy sojusznik cyberbezpieczeństwa?”- to najnowsze źródło wiedzy o przyszłości cyberbezpieczeństwa i sztucznej inteligencji. Ten unikalny materiał informacyjny pozwoli Ci spojrzeć w przyszłość technologii, przedstawiając najnowsze trendy, wyzwania i innowacje w dziedzinie cyberbezpieczeństwa i AI. Podsumowanie Konferencji ATSummit 2023 połączone z dużą dawką wiedzy.

Obejrzyj debatę, która odbyła się 12 grudnia, 2023 i towarzyszyła premierze raportu

W debacie udział wzięli:

Komentarz technologiczny:

Łukasz Bartoszcze

Founder

Control AI

Maciej Orliński

Security Operations Center Manager

BNP Paribas Bank Polska

Ewa Piłat

Global CISO

DWS Group

Jacek Skorupka

Global Cybersecurity Director

Medicover

Rafał Jaczyński

SVP Cybersecurity, Europe

Huawei Technologies

Prowadzenie debaty:
Krzysztof Piątek, Evention

 AI w rękach cyberprzestępców

Autor: Andrzej Gontarza

Generowanie fałszywych treści, dezinformacja, a nawet podszywanie się pod członków rodziny lub znane osoby – to wszystko jest możliwe i już stosowane przez cyberprzestępców podczas ataków.

Aktor Tom Hanks musiał niedawno tłumaczyć się, że nie ma nic wspólnego z zamieszczonym w internecie filmem promującym firmę dentystyczną. Reklamodawca stworzył bez jego zgody wirtualną kopię aktora. Z podobnym przypadkiem mieliśmy też do czynienia w Polsce. Fałszywa postać premiera Mateusza Morawieckiego zachęcała do rzekomych inwestycji w Baltic Pipe. Podobne filmy stworzono z postacią Elona Muska. Eksperci szacują, że przestępcom udało się w ten sposób wyłudzić ok. 2 mln dolarów.

Deepfake

Deepfake to technologia tworzenia obrazów bądź wypowiedzi mających udawać prawdziwe osoby lub sytuacje. Wykorzystują na przykład wizerunek znanych osób (polityków, celebrytów) do przekazywania fałszywych informacji. Deepfake może też skutecznie wspierać ataki phishingowe, które są najczęstszym rodzajem ataków rejestrowanych przez CERT Polska.

Fałszywy wnuczek jak prawdziwy

Oszuści wykorzystują technologię deepfake w metodzie „na wnuczka”. Do starszych osób dzwoni wygenerowany cyfrowo głos łudząco podobny do głosu bliskiej osoby i prosi o pilną pomoc finansową. Fałszywa postać krewnego czy znajomego może nawet pojawiać się też na ekranie podczas rozmowy przez komunikator. Ułatwieniem dla przestępców są publikowane w mediach społecznościowych zdjęcia i nagrania. Łatwo pobrać z nich próbki głosu lub wizerunku do stworzenia fałszywego przekazu.

W razie potrzeby można też nagrać głos podczas zaaranżowanej rozmowy telefonicznej. W ten sam sposób oszuści potrafią podszywać się też pod pracowników np. banku, namawiając ofiary do niekorzystnych dla nich działań. To może działać też w drugą stronę: przestępcy są w stanie podszywać się pod klienta banku i autoryzować transakcje, np. przelew dużej sumy.

Deepfake może zostać również użyty do dezinformacji, np. budowania negatywnego wizerunku. Tworzone są na przykład filmy, w których przypisuje się wybranym osobom wypowiedzi, jakie nigdy nie padły. Znany jest przykład grupy nowojorskiej młodzieży, która przypisała dyrektorowi szkoły groźby pod adresem uczniów. W ten sam sposób – pokazując nieistniejące wystąpienia polityków z odpowiednio spreparowanymi treściami – można również wpływać na wyborców.

AI w rękach cyberprzestępców: ataki

Sztuczna inteligencja pomaga w przeprowadzaniu ataków phishingowych, ponieważ narzędzia bazujące na dużych modelach językowych pozwalają na generowanie fałszywych treści (np. e-maili, SMS-ów) i rozsyłanie ich na bardzo dużą skalę (m.in. w różnych językach). Algorytmy ułatwiają poszukiwanie najbardziej skutecznych komunikatów, potrafią też omijać filtry antyspamowe, które analizują strukturę przesyłanego dokumentu i skutecznie blokują prosty spam. Szczególnie niebezpieczny jest spear phishing, zwany phishingiem sprofilowanym. W tym przypadku atak jest kierowany do konkretnie wybranej osoby lub organizacji. Przykładem mogą być e-maile generowane przez AI do wszystkich pracowników w firmie wysłane rzekomo od prezesa (podpisane imieniem i nazwiskiem osoby, która naprawdę pracuje w organizacji) z prośbą np. o szybkie otworzenie i wydrukowanie załączonego pliku lub kliknięcie w link.
Taki atak ma o wiele większe szanse powodzenia niż „tradycyjne” e-maile od nigeryjskiego księcia, który chce wręczyć przypadkowej osobie 10 mln dolarów.
Zauważyli to naukowcy zajmujący się rozwojem i trenowaniem programów AI...

Do artykułu komentarze udzielili: Robert Grabowski z CERT, Orange Polska oraz Sebastian Kondraszuk, kierownik CERT Polska, NASK.

Chcesz wiedzieć więcej? Pobierz raport za darmo!

Wybór(wymagane)

akceptacja polityki prywatności(wymagane)
zgoda partnerzy

* obowiązkowe / ** dobrowolne

KRZYSZTOF PIĄTEK

Director of Business Development
m. + 48 +48 883 114 005
e: krzysztof.piatek@evention.pl

PARTNER GENERALNY
PATRONI SPOŁECZNOŚCIOWI
PARTNER GENERALNY

Organizator konferencji

Evention sp. z o.o., Rondo ONZ 1 Str, Warsaw, Poland
Specjalizujemy się w kompleksowym programie realizacji wydarzeń, które są efektywnym sposobem budowania relacji z potencjalnymi klientami.

KONTAKT

Weronika Warpas

© 2024 | Strona korzysta z plików cookies. Przeglądanie strony oznacza akceptację.