Aktualność
23 Stycznia 2025|3 min. czytania

Jak rozpoznać deepfake po błędach w głosie?

Deepfake, który ma na celu wprowadzenie nas w błąd, to nie tylko wygenerowany obraz, ale także zmanipulowany dźwięk. Eksperci NASK przygotowali kilka wskazówek, jak rozpoznać manipulacje w generowanym głosie i skutecznie zidentyfikować fałszywe nagrania.

Grafika przedstawia Igę Świątek, Andrzeja Dudę, Paulinę Hennig-Kloska w pionowych prostokątach na niebieskim tle, z centralnym napisem: 'DEEPFAKE Nie wierz, w to co słyszysz'. Napis 'DEEPFAKE' wyróżnia się kolorem czerwonym, a słowo 'słyszysz' jest podkreślone i zaznaczone na niebiesko. Obrazek wskazuje na zagrożenia związane z technologią deepfake i zwraca uwagę na ostrożność w odbiorze treści multimedialnych.
Łuna gradientu wychodząca od dołu

Choć modele AI stale się rozwijają, generowane głosy często wydają się „płaskie” lub pozbawione emocji. Barwa głosu może brzmieć sztucznie, zwłaszcza podczas wyrażania emocji, takich jak złość, radość czy smutek.  

W naszym najnowszym odcinku Joanna Gajewska z NASK, która na co dzień zajmuje się analizą i badaniem generowanych treści, wskazuje konkretne przykłady błędów w generowanym głosie. Sprawdź jak w praktyce zastosować te wskazówki, by nie dać się nabrać na oszustwo. 

Sygnały w głosie zdradzające deepfake  

Twórcy deepfake’ów, manipulując głosem, używają zaawansowanych modeli generatywnych, które jednak nie są doskonałe. Oto typowe błędy, które mogą zdradzić oszustów: 

  1. Nietypowa intonacja
    Generowane głosy nie interpretują znaków interpunkcyjnych. Skutkuje to dziwnym rytmem wypowiedzi. Może to wyglądać tak, jakby osoba mówiła bez przerwy, nie uwzględniając naturalnych pauz czy akcentów.
  2. Zmiana akcentu lub języka
    Niekiedy w trakcie nagrania można usłyszeć subtelną zmianę akcentu, co jest efektem niedokładnej synchronizacji modelu. W ekstremalnych przypadkach zdarzają się nawet przejścia z jednego języka na inny. 
  3. Nagłe zmiany głośności
    Fałszywe głosy często zdradzają swoją sztuczność poprzez niespodziewane wahania poziomu głośności. Przykładowo, jedna część wypowiedzi może być wyjątkowo głośna, a inna ledwo słyszalna.
  4. Nienaturalne lub brakujące odgłosy tła
    Warto zwrócić uwagę na dźwięki w tle. Jeśli brakuje naturalnych odgłosów środowiska, takich jak echo w pomieszczeniu czy szum otoczenia, może to być sygnałem, że głos został wygenerowany.
  5. Syntetyczna barwa głosu
    Choć modele AI stale się rozwijają, generowane głosy często wydają się „płaskie” lub pozbawione emocji. Barwa głosu może brzmieć sztucznie, zwłaszcza podczas wyrażania emocji, takich jak złość, radość czy smutek. 

Nie przegap kolejnego odcinka  

Wiedza to najlepsza obrona przed cyfrowymi manipulacjami. Świadomość jak odróżniać prawdziwe głosy od fałszywych, pomoże podczas codziennego korzystania z internetu i mediów społecznościowych rozpoznawać techniki, które stosują oszuści. 

Premiera kolejnego odcinka już za tydzień. Będzie on poświęcony błędom logicznym w deepfake’ach – czyli nieoczywistym, ale zdradzającym manipulację sygnałom. 

Udostępnij ten post

Wyróżnione aktualności

Zdjęcie z wydarzenia medialnego Impact. Na pierwszym planie widać ekran podglądu realizatorskiego, który pokazuje dwa kadry: po lewej stronie Radosław Nielek, dyrektor NASK, w brązowej marynarce i białej koszuli, po prawej stronie dziennikarka trzymająca mikrofon. W tle widoczni rozmyci uczestnicy rozmowy oraz kamery.
Typ_aktualnosc Aktualność
14 Maja 2025|3 min. czytania

Szeroki front małych systemów na Impact’25

Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.

Piotr Bisialski z NASK na scenie podczas konferencji.
Typ_aktualnosc Aktualność
13 Maja 2025|7 min. czytania

NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025

Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.

Wiceminister cyfryzacji Dariusz Standerski przemawia podczas konferencji dotyczącej projektu HIVE AI. W tle na ekranie widoczne są slajdy prezentacji z tytułem „Cele, założenia i organizacja projektu”. Przy stole prezydialnym siedzą Radosław Nielek, Agnieszka Karlińska. W sali znajduje się licznie zgromadzona publiczność, a jedno z przemówień jest rejestrowane telefonem przez uczestnika.
Typ_aktualnosc Aktualność
12 Maja 2025|5 min. czytania

PLLuM rośnie w siłę

600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).

MAK od NASK
Typ_aktualnosc Aktualność
12 Maja 2025|4 min. czytania

Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw

Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.

Informacje

Najnowsze aktualności

Konferencja prasowa w PAP. Dzieciństwo bez podtekstów.
Typ_aktualnosc Aktualność
21 Sierpnia 2025|7 min. czytania

Dzieciństwo wolne od podtekstów

„Cześć, masz ładne oczy i nie tylko…”, „Jeśli nie wyślesz swojego zdjęcia, to o wszystkim dowiedzą się twoi rodzice”. Takie wiadomości na czatach internetowych dostają nawet 11-latki. Szantaż na tle seksualnym i uwodzenie dzieci w sieci to nie są zjawiska marginalne. Ale ofiary zbyt często zostają z tym same. Jak im pomóc? Eksperci NASK odpowiedzieli na to pytanie.

Zdjęcie mężczyzny, trzymającego dwie paczki.
Typ_aktualnosc Aktualność
20 Sierpnia 2025|4 min. czytania

Jak nie dać się złapać "na paczkę"? Krótki poradnik

"Twoja paczka została wstrzymana. Dopłać 1,45 zł, aby ją odebrać" – brzmi znajomo? Gdy robimy zakupy online, a w ciągu tygodnia odbieramy kilka paczek, łatwo się pogubić. Schemat oszustwa na dopłatę jest dobrze znany. Mimo to wciąż się na niego nabieramy.

Dofinansowane przez UE
Typ_aktualnosc-komunikat Komunikat
19 Sierpnia 2025|1 min. czytania

Projekty NASK dofinansowane przez Unię Europejską

NASK realizuje liczne projekty finansowane ze środków Unii Europejskiej, które wspierają rozwój nowoczesnych technologii, podnoszą poziom bezpieczeństwa w sieci oraz ułatwiają dostęp do innowacyjnych usług cyfrowych. Poznaj ich listę.