Please use this identifier to cite or link to this item:
http://dspace.pdpu.edu.ua/handle/123456789/25191| Title: | Deepfake та аудіо-підробки: нова ера політичної дезінформації |
| Other Titles: | Deepfake and audio forgeries: the new era of political disinformation abstract |
| Authors: | Пехник, А. В. Кройтор, А. В. Бахметьєв, А. Є. |
| Keywords: | deepfake аудіо-підробки політична дезінформація штучний інтелект політична комунікація гібридна війна постправда інформаційна безпека deepfake audio fakes political disinformation artificial intelligence political communication post-truth information security hybrid war |
| Issue Date: | 2026 |
| Publisher: | Видавничий дім «Гельветика» |
| Citation: | Пехник А. В., Кройтор, А. В., Бахметьєв, А. Є. Deepfake та аудіо-підробки: нова ера політичної дезінформації. Політикус: науковий журнал. 2026. Вип. 1. С. 144-149. |
| Abstract: | Активний розвиток генеративних технологій штучного інтелекту зумовив появу нових форм політичної дезінформації, зокрема deepfake-відео та аудіо-підробок, що суттєво трансформують механізми політичної комунікації в цифровому середовищі. Надреалістичні аудіовізуальні фальсифікації створюють принципово нові виклики для демократичних інститутів, оскільки підривають довіру до медіаконтенту як джерела верифікованої інформації та ставлять під сумнів сам інститут візуального доказу. Метою статті є комплексний аналіз deepfake та аудіо-підробок як інструментів політичної дезінформації та оцінка їхнього впливу на функціонування політичної комунікації і демократичні процеси. Методологічна основа дослідження базується на поєднанні загальнонаукових і спеціальних методів. Застосовано бібліографічний аналіз для окреслення теоретичних підходів до вивчення цифрової дезінформації; методи аналізу, синтезу та узагальнення – для систематизації основних форм і механізмів використання deepfake у політичній практиці; структурно-функціональний підхід – для визначення їхньої ролі в системі політичної комунікації; порівняльний метод – для зіставлення випадків застосування таких технологій у різних політичних контекстах; контент-аналіз та елементи кейс-стаді – для дослідження конкретних прикладів цифрових підробок і реакцій на них. У статті розкрито специфіку deepfake як високотехнологічного інструменту інформаційно-психологічного впливу, здатного інтегруватися у стратегії політичної боротьби та гібридного протистояння. Показано, що ключова загроза полягає не лише у створенні окремих фальсифікованих матеріалів, а у формуванні середовища тотального сумніву, в якому будь-який аудіовізуальний контент може бути поставлений під питання. Така трансформація інформаційного простору сприяє поширенню логіки постправди, посиленню поляризації та зниженню рівня раціонального політичного вибору. Проаналізовано вплив deepfake-технологій на електоральні процеси, репутаційні ризики політичних акторів та стійкість державних інститутів. У підсумку обґрунтовано необхідність формування комплексної системи протидії, що передбачає розвиток механізмів превентивної комунікації, удосконалення процедур кризового реагування, підвищення стандартів журналістської верифікації та запровадження нормативного регулювання у сфері маркування контенту, створеного із застосуванням штучного інтелекту. The active development of generative artificial intelligence technologies has led to the emergence of new forms of political disinformation, in particular deepfake video and audio fakes, which significantly transform the mechanisms of political communication in the digital environment. Hyperrealistic audiovisual falsifications create fundamentally new challenges for democratic institutions, as they undermine trust in media content as a source of verified information and call into question the very institution of visual evidence. The aim of the article is a comprehensive analysis of deepfake and audio fakes as tools of political disinformation and an assessment of their impact on the functioning of political communication and democratic processes. The methodological basis of the study is based on a combination of general scientific and special methods. Bibliographic analysis was used to outline theoretical approaches to the study of digital disinformation; methods of analysis, synthesis and generalization - to systematize the main forms and mechanisms of using deepfake in political practice; a structural-functional approach - to determine their role in the system of political communication; comparative method – to compare cases of application of such technologies in different political contexts; content analysis and elements of case studies – to study specific examples of digital forgeries and reactions to them. The article reveals the specifics of deepfake as a high-tech tool of informational and psychological influence, capable of being integrated into strategies of political struggle and hybrid confrontation. It is shown that the key threat lies not only in the creation of individual falsified materials, but in the formation of an environment of total doubt in which any audiovisual content can be called into question. Such a transformation of the information space contributes to the spread of post-truth logic, increased polarization and a decrease in the level of rational political choice. The impact of deepfake technologies on electoral processes, reputational risks of political actors and the stability of state institutions is analyzed. As a result, the need to form a comprehensive countermeasure system is substantiated, which involves the development of preventive communication mechanisms, improving crisis response procedures, raising standards of journalistic verification and introducing regulatory regulation in the field of labeling content created using artificial intelligence. |
| URI: | http://dspace.pdpu.edu.ua/handle/123456789/25191 |
| Appears in Collections: | 2026 |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| Pekhnyk Alevtina Valentynivna.pdf | 289.61 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.