Użytkownicy implantów ślimakowych(CI) mają trudności z rozpoznawaniem syntetycznych głosów.
Coraz trudniej ludzkiemu uchu rozpoznać deepfake'i audio . Dla osób, które używają implantów ślimakowych (CI), jest to jeszcze trudniejsze – chyba że implanty mają wbudowaną funkcję wykrywania deepfake'ów – pisze Joel R. McConvey w Biometric Update com.
„Osoby głuche i niedosłyszące, zwłaszcza użytkownicy implantów ślimakowych, odbierają dźwięk zupełnie inaczej niż osoby słyszące” – mówi Kevin Butler, profesor na Wydziale Informatyki i Inżynierii Komputerowej ( CISE ) Uniwersytetu Florydy i dyrektor Florida Institute for Cybersecurity Research ( FICS ).
Implanty wspomagają słuch, zamieniając dźwięk na sygnały elektryczne, które stymulują nerw słuchowy. Priorytetowo traktują częstotliwości istotne dla mowy i kompresują dźwięk, co redukuje niuanse w aspektach takich jak wysokość dźwięku – a to oznacza, że mogą być bardziej podatne na oszustwa deepfake voice .
Problem ten skłonił studentkę Magdalenę Pasternak, do zbadania, czy implanty ślimakowe stwarzają zwiększone ryzyko oszustwa AI deepfake dla ich użytkowników. Krótka odpowiedź, niedawno opublikowana w artykule „Characterizing the Impact of Audio Deepfakes in the Presence of Cochlear Implant Simulated Audio”, brzmi: tak.
W komunikacie prasowym UF napisano, że „badanie wskazuje na potrzebę ulepszonych systemów wykrywania deepfake w implantach dla osób niedosłyszących”.
Uczestnicy bez implantów byli w stanie zidentyfikować deepfake z 78-procentową dokładnością, podczas gdy użytkownicy CI osiągnęli dokładność tylko na poziomie 67-procentowym. Użytkownicy implantów slimakowych dwukrotnie częściej błędnie klasyfikowali deepfake jako prawdziwą mowę.
Według Butlera, wykładowcy CISE kierującego badaniem M. Pasternak, rozwiązaniem mogłoby być wbudowanie pewnych mechanizmów alarmowych bezpośrednio w urządzenia wspomagające.
Pasternak bada bezpieczeństwo na dużych modelach językowych (LLM), wykrywania deepfake i uczenia maszynowego, a także skupia się na tym, w jaki sposób społeczność zajmująca się bezpieczeństwem zajmuje się konkretnymi potrzebami cyberbezpieczeństwa narażonych populacji.
Mówi, że „technologia deepfake rozwinęła się tak szybko w tak krótkim czasie, że wiele osób po prostu nie zdaje sobie sprawy, jak wyrafinowane stały się współczesne deepfake. Podczas, gdy programy edukacyjne i podnoszące świadomość mogą odgrywać ogromną rolę w ochronie użytkowników, musimy również opracować rozwiązania technologiczne, które uwzględniają różne zdolności przetwarzania słuchowego. Dzięki temu możemy zapewnić, że wszyscy użytkownicy, zwłaszcza ci z implantami słuchowymi, mają niezbędne zabezpieczenia przed ciągle ewoluującymi zagrożeniami”.