Jak rozpoznać deepfake po błędach logicznych?
W kolejnym, przedostatnim już odcinku cyklu wideo „Jak rozpoznać deepfake?” czas na jedne z najbardziej wyrazistych wskaźników manipulacji – błędy logiczne. W deepfake’ach nie zawsze chodzi o techniczne niedoskonałości obrazu czy dźwięku. Często to niespójności w treści i kontekście zdradzają, że mamy do czynienia z fałszerstwem.


Przygotowaliśmy kolejne przykłady deepfake’ów, które tym razem wskazują konkretne błędy logiczne, a te mogą zdradzać twórców treści manipulacyjnych. Wszystko po to, by pokazać jak łączyć obserwacje wizualne i słuchowe z umiejętnością krytycznej analizy treści. Co ważne w wykrywaniu błędów logicznych najważniejsza jest uważność i znajomość kontekstu.
Najczęstsze błędy logiczne w deepfake’ach
- Niespójność mowy ciała z treścią
Naturalne gesty są trudne do odtworzenia przez sztuczną inteligencję. W deepfake’ach często obserwujemy gwałtowną gestykulacje, która zupełnie nie pasuje do spokojnej, stonowanej wypowiedzi. Z drugiej strony, brak naturalnych ruchów ciała, np. minimalnego poruszania się głowy podczas mówienia, również może zdradzić manipulację. - Głos niepasujący do postaci
Jednym z najbardziej rażących błędów logicznych jest brak zgodności między wizerunkiem a głosem. Przykładem może być sytuacja, gdy widzimy znaną osobę, ale jej głos brzmi zupełnie inaczej – jakby należał do kogoś innego. Tego typu oszustwa często występują, gdy twórcy deepfake’ów idą na skróty i nie próbują nawet dopasować barwy głosu do postaci. - Brak wiarygodności treści
Deepfake może przedstawiać sytuację, która nie pasuje do rzeczywistości. Przykłady? Światowej klasy celebryta nagle mówi płynnie w języku polskim, chociaż w rzeczywistości nie zna tego języka. Inny przykład to sytuacja, w której fałszywy lektor symuluje tłumaczenie, ale treść wypowiedzi nie zgadza się z ruchem ust postaci. - Treść jest niespójna i nielogiczna
W deepfake’ach mogą pojawiać się niespójności w samej wypowiedzi, a nawet osoba, występująca w nagraniu, może przedstawiać się jako ktoś inny.
Oglądaj kolejny odcinek i bądź o krok przed oszustami
Nie przegap najnowszego odcinka, w którym pokażemy kolejne przykłady jak identyfikować subtelne, ale wymowne sygnały manipulacji. W następnym odcinku powiemy o technikach maskowania stosowanych w deepfake’ach, które mają na celu oszukanie narzędzi stworzonych do identyfikowania deepfake’ów.
Bądź świadomym użytkownikiem internetu – wiedza to Twoja najlepsza obrona!
Wyróżnione aktualności
Szeroki front małych systemów na Impact’25
Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.
NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025
Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.
PLLuM rośnie w siłę
600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).
Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw
Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.
Najnowsze aktualności
Hejter? Nie, hero! Zlot 2025 za nami
Gdy inni kończyli rok szkolny i myśleli o odpoczynku, oni... spakowali plecaki i ruszyli do Warszawy. Z różnych zakątków Polski – z gór, znad morza, śląskich miast i podkarpackich wsi – 180 nauczycieli przyjechało na wydarzenie, które dla wielu jest czymś więcej niż tylko podsumowaniem projektu.
PL-Guard. Cyfrowy strażnik polskiej AI
Dezinformacja? Mowa nienawiści? Niebezpieczne porady? To realne ryzyko, które powstaje, gdy używamy sztucznej inteligencji. A konkretnie - dużych modeli językowych, takich jak ChatGPT. Zwłaszcza, gdy działają bez odpowiednich zabezpieczeń. Dlatego eksperci z NASK opracowali model PL-Guard. Bo – jak się okazuje – AI potrzebuje też strażnika.
NASK na Open’er Festival - technologia, edukacja i dobra zabawa!
Gdynia, lato, muzyka i… cyberbezpieczeństwo! NASK po raz kolejny udowadnia, że technologia i edukacja mogą iść w parze z zabawą. Podczas tegorocznego Open’er Festival, który w ubiegłym roku przyciągnął ponad 130 tysięcy uczestników, NASK zaprasza do swojej strefy – miejsca, gdzie cyfrowy świat staje się zrozumiały, fascynujący i bezpieczny.