Araştırma Makalesi
PDF EndNote BibTex RIS Kaynak Göster

Sahte Ne Kadar Derin? Derin Sahte (Deepfake) Kavramının İzini Youtube Üzerinden Sürmek

Yıl 2022, Cilt 4, Sayı 1, 63 - 74, 28.06.2022
https://doi.org/10.54089/ecider.1110865

Öz

Teknolojik ilerlemenin gelişmesi ile birlikte internet üzerinden yayılan sahte dijital içerikler ve bu tür içeriklerin yarattığı belirsizlik ortamı, bireylerin gerçeğe olan bakış açısını ve güvenini zedelemektedir. Artık bireyler gerçeğin kendisinden çok, inanmak istediği ya da kendi yarattığı gerçekliklerle sıkı sıkıya bağlanmaktadır. Sentetik medya ürünlerinin en bilenen türü olan deepfake içerikler, yapay zeka (AI) uygulamalarının bir ürünüdür. Yapay zeka (AI)’nın derin öğrenme özellikleri sayesinde, üzerlerinde oynanmış görsel-işitsel içerikler oluşturmak mümkündür. Deepfake içeriklerin oluşturulabilmesi için yazılım programları, geliştirdikleri algoritmalar sayesinde gerçekte var olan ya da olmayan sentetik medya içerikleri yaratabilmektedir. Gerçeklerin çarpıtılma ya da yeniden üretilme potansiyeli birçok alan için tehdit oluşturmaktadır. Bu makale, 2021 yılı boyunca Youtube sosyal ağı aracılığıyla yayınlanan deepfake içeriklerin, hangi konular üzerine odaklandığını tespit ederek, bu tür içerikler ile mücadele konusunda genel bir bakış açısı sunmayı hedeflenmektedir. Çalışmada, deepfake içeriklerin genel olarak eğlence, deepfake tasarım süreçleri ve sanat alanlarında üretildiği tespit edilmiştir.

Kaynakça

  • Aswani, R., Kar, A.K., ve Ilvarasan, P.V. (2019).” Experience: Managing Misinformation in Social Media – Insights for Policymakers from Twitter Analytics”, ACM Journal of Data and Information Quality 12 (1), Article 6.
  • Bellware, K. (2021). “Cheer mom used deepfake nudes and threats to harrass daughter’s temmates,policesay”, TheWashingtonPost, https://www.washingtonpost.com/nation/2021/03/13/cheer-mom-deepfake-teammates/, (Erişim Tarihi: 20 Mart 2022).
  • Benjamın Wıttes ve Gabrıella Blum, (2015). The Future of Vıolence: Robots and Germs, Hackers and Drones.Confrontıng a New Age of Threat, New York: NY Basic Book. Biometric Technology. (2019). “Deepfake videos easily fool face systems, researchers warn”, Biometric Technology Today, Sayı 10, 3.
  • Collins, A. (2019). Forged Authenticity: Governing Deepfake Risks, Lausanne: EPFL International Risk Governance Center. DOI: 10.5075/epfl-irgc-273296
  • Day, C. (2019). “The Future of Misinformation. Computing in Science & Engineering”, 21(1): 108–108.
  • Ellis, E,G. (2018). “People Can Put Your Face on Porn—And the Law Can’t Help You”, https://www.wired.com/story/face-swap-porn-legal-limbo, (Erişim Tarihi: 01.04.2022).
  • Fletcher, J. (2018). “Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance”, Theatre Journal, 70 (4): 455–471.
  • Gregory, S. (2020). “Deepfakeler ve gelişmekte olan manipülasyon teknolojileri hakkında nasıl düşünmeli?”, Dezenformasyon ve Medya Manipülasyonu üzerine Doğrulama El Kitabı, European Journalism Center-Teyit, 104-111.
  • Hight, C. (2021). “Deepfakes and Documentary Practice in an Age of Misinformation. Continuum”, Journal of Media & Cultural Studies, DOI: 10.1080/10304312.2021.2003756
  • Jarvis, J. (2012). E-Sosyal Toplum; Dijital Çağda Sosyal Medyanın İş ve Gündelik Hayata Etkisi. (çev. Çağlar Kök), İstanbul: MediaCat Yayınları
  • Johnson, D. G. ve Diakopoulos, N. (2021). “What to do about deepfakes”, Communications of the ACM, Sayı:64, 33-35.
  • Jun, S-P., Yoo, H. S. ve Choi, S. (2018). “Ten Years of Research Change Using Google Trends: From the Perspective of Big Data Utilizations and Applications”, Technological Forecasting and Social Change, Sayı: 130, 69-87.
  • Kaylee, K.(2022) "A viral video that appeared to show Obama calling Trump a 'dips---' shows a disturbing new trend called 'deepfakes'"., Business Insider.
  • Khan, G.F. (2013), “The government 2.0 utilization model and implementation scenarios”, Information Development, doi:10.1177/0266666913502061.
  • Kocabıyık, T. Teker, T. ve Aksoy, E. (2020). “Google Trends ‘Dolar’ Aramaları ile Dolar Kuru Arasındaki İlişkinin Keşfi”, IBAD Sosyal Bilimler Dergisi, Sayı: 6, 258-271.
  • Lazer, DMJ. vd. (2018). “The science of fake news”, Science , Sayı: 359, 1094–1096.
  • Mangold, W.G. ve Faulds, D.J. (2009). “Social media: the new hybrid element of the promotion mix”, Business Horizons, Sayı: 52 No. 4, 357-365.
  • Maras, M. H., ve Alexandrou, A. (2019). “Determining authenticity of video evidence in the age of artificial intelligence and in the wake of Deepfake videos”, International Journal of Evidence & Proof, 23(3): 255–262.
  • Vaccari, C. ve Chadwick, A. (2020). “Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media” , Society. 6. Wade, K., Garry, M., Read, J., and Lindsay, D. (2002).” A Picture is Worth a Thousand Lies: Using False Photographs to Create False Childhood Memories”, Psychonomic Bulletin & Review, Sayı: 9, 597-603.
  • Wardle C. ve Derakhshan H. (2018). “Thinking about ‘information disorder’: formats of misinformation, disinformation, and mal-information “https://en.unesco.org/sites/default/files/f._jfnd_handbook_module_2.pdf
  • Wardle, C. (2019). “First Draft’s Essential Guide to Understanding Information Disorder.”, First Draft News. Erişim Tarihi: 18 Ocak 2021.https://firstdraftnews.org/wpcontent/uploads/2019/10/Information_Disorder
  • Westerlund M. (2019). “The Emergence of Deepfake Technology: A Review”, Technology Innovation Management Review, Sayı: 9(11), 39–52.
  • Yurdigül, Y. (2011). “Kurgusal Gerçeklik Bağlamında Haber ve Gerçeklik İlişkisi”, Atatürk İletişim Dergisi, (1), 13-24.
  • https://wearesocial.com/uk/blog/2022/01/digital-2022-another-year-of-bumper-growth-2/ Erişim Tarihi: 04 Mart 2022
  • The State of Deepfakes, Landscape, Threats, and Impact, (Çevrimiçi), https://regmedia.co.uk/2019/10/08/deepfake_report.pdf, 14 Ocak 2022.
  • Arama Trendleri Yardım, (2020). Google Trend verileri hakkında SSS. Erişim adresi: https://support.google.com/trends/answer/4365533?hl=tr& ref_topic=6248052, (Erişim Tarihi: 14.04.2022).
  • https://www.myheritage.com.tr (Erişim Tarihi: 01.04.2022).

How Deep Is the Fake? Tracing The Concept of Deepfake Through Youtube

Yıl 2022, Cilt 4, Sayı 1, 63 - 74, 28.06.2022
https://doi.org/10.54089/ecider.1110865

Öz

Fake digital contents spreading over Internet with the development of technological progress and uncertainty environment created by such contents harm the perspective and trust of individuals in reality. Now, individuals rather attach to the realities that they want to believe or they created than the reality itself. Deepfake contents, which are the most known type of synthetic media products, are the result of artificial intelligence (AI) applications. Thanks to the deep learning abilities of AI, it is possible to create modified visual / audio contents. The software to create deepfake contents can generate synthetic media contents that exist or do not exist by means of their improved algorithms. The potential to bend or re-create the reality poses a threat for many areas. This article aims to identify the targeted areas of deepfake contents published on Youtube social network during 2021 and to offer a general perspective about the fight against such contents. In the study, it was determined that the deepfake contents were usually generated in the areas of entertainment, politics and arts.

Kaynakça

  • Aswani, R., Kar, A.K., ve Ilvarasan, P.V. (2019).” Experience: Managing Misinformation in Social Media – Insights for Policymakers from Twitter Analytics”, ACM Journal of Data and Information Quality 12 (1), Article 6.
  • Bellware, K. (2021). “Cheer mom used deepfake nudes and threats to harrass daughter’s temmates,policesay”, TheWashingtonPost, https://www.washingtonpost.com/nation/2021/03/13/cheer-mom-deepfake-teammates/, (Erişim Tarihi: 20 Mart 2022).
  • Benjamın Wıttes ve Gabrıella Blum, (2015). The Future of Vıolence: Robots and Germs, Hackers and Drones.Confrontıng a New Age of Threat, New York: NY Basic Book. Biometric Technology. (2019). “Deepfake videos easily fool face systems, researchers warn”, Biometric Technology Today, Sayı 10, 3.
  • Collins, A. (2019). Forged Authenticity: Governing Deepfake Risks, Lausanne: EPFL International Risk Governance Center. DOI: 10.5075/epfl-irgc-273296
  • Day, C. (2019). “The Future of Misinformation. Computing in Science & Engineering”, 21(1): 108–108.
  • Ellis, E,G. (2018). “People Can Put Your Face on Porn—And the Law Can’t Help You”, https://www.wired.com/story/face-swap-porn-legal-limbo, (Erişim Tarihi: 01.04.2022).
  • Fletcher, J. (2018). “Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance”, Theatre Journal, 70 (4): 455–471.
  • Gregory, S. (2020). “Deepfakeler ve gelişmekte olan manipülasyon teknolojileri hakkında nasıl düşünmeli?”, Dezenformasyon ve Medya Manipülasyonu üzerine Doğrulama El Kitabı, European Journalism Center-Teyit, 104-111.
  • Hight, C. (2021). “Deepfakes and Documentary Practice in an Age of Misinformation. Continuum”, Journal of Media & Cultural Studies, DOI: 10.1080/10304312.2021.2003756
  • Jarvis, J. (2012). E-Sosyal Toplum; Dijital Çağda Sosyal Medyanın İş ve Gündelik Hayata Etkisi. (çev. Çağlar Kök), İstanbul: MediaCat Yayınları
  • Johnson, D. G. ve Diakopoulos, N. (2021). “What to do about deepfakes”, Communications of the ACM, Sayı:64, 33-35.
  • Jun, S-P., Yoo, H. S. ve Choi, S. (2018). “Ten Years of Research Change Using Google Trends: From the Perspective of Big Data Utilizations and Applications”, Technological Forecasting and Social Change, Sayı: 130, 69-87.
  • Kaylee, K.(2022) "A viral video that appeared to show Obama calling Trump a 'dips---' shows a disturbing new trend called 'deepfakes'"., Business Insider.
  • Khan, G.F. (2013), “The government 2.0 utilization model and implementation scenarios”, Information Development, doi:10.1177/0266666913502061.
  • Kocabıyık, T. Teker, T. ve Aksoy, E. (2020). “Google Trends ‘Dolar’ Aramaları ile Dolar Kuru Arasındaki İlişkinin Keşfi”, IBAD Sosyal Bilimler Dergisi, Sayı: 6, 258-271.
  • Lazer, DMJ. vd. (2018). “The science of fake news”, Science , Sayı: 359, 1094–1096.
  • Mangold, W.G. ve Faulds, D.J. (2009). “Social media: the new hybrid element of the promotion mix”, Business Horizons, Sayı: 52 No. 4, 357-365.
  • Maras, M. H., ve Alexandrou, A. (2019). “Determining authenticity of video evidence in the age of artificial intelligence and in the wake of Deepfake videos”, International Journal of Evidence & Proof, 23(3): 255–262.
  • Vaccari, C. ve Chadwick, A. (2020). “Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media” , Society. 6. Wade, K., Garry, M., Read, J., and Lindsay, D. (2002).” A Picture is Worth a Thousand Lies: Using False Photographs to Create False Childhood Memories”, Psychonomic Bulletin & Review, Sayı: 9, 597-603.
  • Wardle C. ve Derakhshan H. (2018). “Thinking about ‘information disorder’: formats of misinformation, disinformation, and mal-information “https://en.unesco.org/sites/default/files/f._jfnd_handbook_module_2.pdf
  • Wardle, C. (2019). “First Draft’s Essential Guide to Understanding Information Disorder.”, First Draft News. Erişim Tarihi: 18 Ocak 2021.https://firstdraftnews.org/wpcontent/uploads/2019/10/Information_Disorder
  • Westerlund M. (2019). “The Emergence of Deepfake Technology: A Review”, Technology Innovation Management Review, Sayı: 9(11), 39–52.
  • Yurdigül, Y. (2011). “Kurgusal Gerçeklik Bağlamında Haber ve Gerçeklik İlişkisi”, Atatürk İletişim Dergisi, (1), 13-24.
  • https://wearesocial.com/uk/blog/2022/01/digital-2022-another-year-of-bumper-growth-2/ Erişim Tarihi: 04 Mart 2022
  • The State of Deepfakes, Landscape, Threats, and Impact, (Çevrimiçi), https://regmedia.co.uk/2019/10/08/deepfake_report.pdf, 14 Ocak 2022.
  • Arama Trendleri Yardım, (2020). Google Trend verileri hakkında SSS. Erişim adresi: https://support.google.com/trends/answer/4365533?hl=tr& ref_topic=6248052, (Erişim Tarihi: 14.04.2022).
  • https://www.myheritage.com.tr (Erişim Tarihi: 01.04.2022).

Ayrıntılar

Birincil Dil Türkçe
Konular Film, Radyo, Televizyon
Bölüm Makaleler
Yazarlar

Akın YILDIRIM> (Sorumlu Yazar)
GİRESUN ÜNİVERSİTESİ
0000-0003-1915-3800
Türkiye


Ergün YOLCU>
Bir kuruma bağlı değildir
0000-0003-0338-8832
Türkiye

Yayımlanma Tarihi 28 Haziran 2022
Başvuru Tarihi 29 Nisan 2022
Kabul Tarihi 4 Haziran 2022
Yayınlandığı Sayı Yıl 2022, Cilt 4, Sayı 1

Kaynak Göster

APA Yıldırım, A. & Yolcu, E. (2022). Sahte Ne Kadar Derin? Derin Sahte (Deepfake) Kavramının İzini Youtube Üzerinden Sürmek . Elektronik Cumhuriyet İletişim Dergisi , 4 (1) , 63-74 . DOI: 10.54089/ecider.1110865