Typ_aktualnosc Aktualność
19 Lutego 2025|3 min. czytania

Jak rozpoznać deepfake po błędach logicznych?

W kolejnym, przedostatnim już odcinku cyklu wideo „Jak rozpoznać deepfake?” czas na jedne z najbardziej wyrazistych wskaźników manipulacji – błędy logiczne. W deepfake’ach nie zawsze chodzi o techniczne niedoskonałości obrazu czy dźwięku. Często to niespójności w treści i kontekście zdradzają, że mamy do czynienia z fałszerstwem.

Obraz przedstawia pięć osób - Emilię Wierzbicki, Donalda Tuska, Elona Muska, Anitę Werner, Ewę Drzyzgę na kadrach z nagrań wideo. Zdjęcia są przetworzone cyfrowo, nadając im niebieskawy odcień. Na środku grafiki znajduje się duży napis „DEEPFAKE” w czerwonym kolorze, a poniżej czarny tekst: „Błędy logiczne? To może być DEEPFAKE” z ostatnim słowem wyróżnionym na niebiesko. Całość sugeruje tematykę manipulacji audiowizualnej i wskazuje na możliwość fałszowania treści za pomocą technologii deepfake.
Łuna gradientu wychodząca od dołu

Przygotowaliśmy kolejne przykłady deepfake’ów, które tym razem wskazują konkretne błędy logiczne, a te mogą zdradzać twórców treści manipulacyjnych. Wszystko po to, by pokazać jak łączyć obserwacje wizualne i słuchowe z umiejętnością krytycznej analizy treści. Co ważne w wykrywaniu błędów logicznych najważniejsza jest uważność i znajomość kontekstu. 

Najczęstsze błędy logiczne w deepfake’ach 

  1. Niespójność mowy ciała z treścią
    Naturalne gesty są trudne do odtworzenia przez sztuczną inteligencję. W deepfake’ach często obserwujemy gwałtowną gestykulacje, która zupełnie nie pasuje do spokojnej, stonowanej wypowiedzi. Z drugiej strony, brak naturalnych ruchów ciała, np. minimalnego poruszania się głowy podczas mówienia, również może zdradzić manipulację.
  2. Głos niepasujący do postaci
    Jednym z najbardziej rażących błędów logicznych jest brak zgodności między wizerunkiem a głosem. Przykładem może być sytuacja, gdy widzimy znaną osobę, ale jej głos brzmi zupełnie inaczej – jakby należał do kogoś innego. Tego typu oszustwa często występują, gdy twórcy deepfake’ów idą na skróty i nie próbują nawet dopasować barwy głosu do postaci.
  3. Brak wiarygodności treści
    Deepfake może przedstawiać sytuację, która nie pasuje do rzeczywistości. Przykłady? Światowej klasy celebryta nagle mówi płynnie w języku polskim, chociaż w rzeczywistości nie zna tego języka. Inny przykład to sytuacja, w której fałszywy lektor symuluje tłumaczenie, ale treść wypowiedzi nie zgadza się z ruchem ust postaci.
  4. Treść jest niespójna i nielogiczna
    W deepfake’ach mogą pojawiać się niespójności w samej wypowiedzi, a nawet osoba, występująca w nagraniu, może przedstawiać się jako ktoś inny. 

Oglądaj kolejny odcinek i bądź o krok przed oszustami 

Nie przegap najnowszego odcinka, w którym pokażemy kolejne przykłady jak identyfikować subtelne, ale wymowne sygnały manipulacji. W następnym odcinku powiemy o technikach maskowania stosowanych w deepfake’ach, które mają na celu oszukanie narzędzi stworzonych do identyfikowania deepfake’ów.  

Bądź świadomym użytkownikiem internetu – wiedza to Twoja najlepsza obrona! 

Udostępnij ten post

Wyróżnione aktualności

Zdjęcie z wydarzenia medialnego Impact. Na pierwszym planie widać ekran podglądu realizatorskiego, który pokazuje dwa kadry: po lewej stronie Radosław Nielek, dyrektor NASK, w brązowej marynarce i białej koszuli, po prawej stronie dziennikarka trzymająca mikrofon. W tle widoczni rozmyci uczestnicy rozmowy oraz kamery.
Typ_aktualnosc Aktualność
14 Maja 2025|3 min. czytania

Szeroki front małych systemów na Impact’25

Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.

Piotr Bisialski z NASK na scenie podczas konferencji.
Typ_aktualnosc Aktualność
13 Maja 2025|7 min. czytania

NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025

Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.

Wiceminister cyfryzacji Dariusz Standerski przemawia podczas konferencji dotyczącej projektu HIVE AI. W tle na ekranie widoczne są slajdy prezentacji z tytułem „Cele, założenia i organizacja projektu”. Przy stole prezydialnym siedzą Radosław Nielek, Agnieszka Karlińska. W sali znajduje się licznie zgromadzona publiczność, a jedno z przemówień jest rejestrowane telefonem przez uczestnika.
Typ_aktualnosc Aktualność
12 Maja 2025|5 min. czytania

PLLuM rośnie w siłę

600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).

MAK od NASK
Typ_aktualnosc Aktualność
12 Maja 2025|4 min. czytania

Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw

Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.

Informacje

Najnowsze aktualności

Uczestniczka Zlotu na scenie, w tle slajd prezentacji o nadużywaniu internetu i uzależnieniu od gier
Typ_aktualnosc Aktualność
04 Lipca 2025|7 min. czytania

Hejter? Nie, hero! Zlot 2025 za nami

Gdy inni kończyli rok szkolny i myśleli o odpoczynku, oni... spakowali plecaki i ruszyli do Warszawy. Z różnych zakątków Polski – z gór, znad morza, śląskich miast i podkarpackich wsi – 180 nauczycieli przyjechało na wydarzenie, które dla wielu jest czymś więcej niż tylko podsumowaniem projektu.

Zdjęcie pokazujące miejsce, w którym wpisuje się prompt w ramach korzystania ze sztucznej inteligencji.
Typ_aktualnosc Aktualność
03 Lipca 2025|4 min. czytania

PL-Guard. Cyfrowy strażnik polskiej AI

Dezinformacja? Mowa nienawiści? Niebezpieczne porady? To realne ryzyko, które powstaje, gdy używamy sztucznej inteligencji. A konkretnie - dużych modeli językowych, takich jak ChatGPT. Zwłaszcza, gdy działają bez odpowiednich zabezpieczeń. Dlatego eksperci z NASK opracowali model PL-Guard. Bo – jak się okazuje – AI potrzebuje też strażnika.

Tłum ludzi bawi się na koncercie na świeżym powietrzu. Widać podniesione ręce, kolorowe światła sceniczne i atmosferę radości. Na pierwszym planie kobieta z kręconymi włosami i mężczyzna z brodą unoszą ręce w rytm muzyki.
Typ_aktualnosc Aktualność
30 Czerwca 2025|4 min. czytania

NASK na Open’er Festival - technologia, edukacja i dobra zabawa! 

Gdynia, lato, muzyka i… cyberbezpieczeństwo! NASK po raz kolejny udowadnia, że technologia i edukacja mogą iść w parze z zabawą. Podczas tegorocznego Open’er Festival, który w ubiegłym roku przyciągnął ponad 130 tysięcy uczestników, NASK zaprasza do swojej strefy – miejsca, gdzie cyfrowy świat staje się zrozumiały, fascynujący i bezpieczny.