medyapress_3368x
  • Röportajlar
  • Moda
    • Mekan
      • Gurme
        • Güzellik
          • Aşk ve İlişkiler
  • Kültür Sanat
    • Sinema
      • Konser
        • Kitaplar
  • Biyografi
  • Seyahat
  • Ne Nasıl?
  • Röportajlar
  • Moda
    • Mekan
      • Gurme
        • Güzellik
          • Aşk ve İlişkiler
  • Kültür Sanat
    • Sinema
      • Konser
        • Kitaplar
  • Biyografi
  • Seyahat
  • Ne Nasıl?
  • Gündem
  • Dünya
  • Yaşam
  • Ekonomi
  • Siyaset
  • Spor
  • Magazin
  • Teknoloji
  • Bilim
  • Otomobil
  • Yazarlar
    • Hızlı Akış
  • Gündem
  • Dünya
  • Yaşam
  • Ekonomi
  • Siyaset
  • Spor
  • Magazin
  • Teknoloji
  • Bilim
  • Otomobil
  • Yazarlar
    • Hızlı Akış
Home Teknoloji

Yapay zekayla oluşturulan sahte görseller ve sesler “yeni nesil silah”

Ağustos 18, 2025
in Teknoloji

Yapay zeka tehdit tespit platformu Sensity AI şirketinin araştırmalarına göre, Rusya-Ukrayna Savaşı’nda Ukraynalı siyasetçiler ve askerler, deepfake videolarla “teslim olmaya çağıran” ya da “savaş suçu işlediğini itiraf eden” kişiler gibi gösteriliyor.

Tayvan’da seçim dönemlerinde, politikacıların sahte konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri gibi Çin kaynaklı yapay zeka içerikleri sosyal medyada yayılarak karşıt görüşlü adaylar hedef alınıyor.

Japonya’da ise yapay zekayla üretilmiş sahte doğal afet görüntüleri, nükleer kaza veya sel felaketi gibi kurgular halkta panik yaratmak için kullanılıyor.

Bu tür olaylar, yapay zeka araçlarının bilinçsizce ve kontrolsüzce “yeni nesil silahlar” olarak kullanılması durumunda doğurabileceği tehlikeleri bir kez daha gündeme getiriyor.

“Yapay zeka ürünlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, “Yapay zeka içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio’yu taklit eden bir dolandırıcı, ABD’li siyasiler tarafından sıkça kullanılan “Signal” isimli mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu dile getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını ifade etti.

Midjourney ve Runway gibi araçlar geliştikçe gerçekle yapayı tutarlı şekilde ayırt etmekte zorlaşıyor.

Cavalli konuya ilişkin, “Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor.” diye konuştu.

“Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş görüntülerini belgeledik.” diyen Cavalli, bu görsellerin genellikle sahte haber siteleri, sosyal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan’da yapay zeka kullanımına ilişkin şirketinin incelediği vakalara atıfta bulunarak, “Tüm bu örneklerde, yapay zeka destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır.” değerlendirmesinde bulundu.

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri yönünde çağrılar yapılıyor.

Platformların ise bu konuya odaklandığı ancak çoğunun “yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı” ifade ediliyor.

Cavalli, “Bazıları dolandırıcılık kampanyalarından bilinçli şekilde kar ediyor. Ancak dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü işbirliği şart.” dedi.

Yapay zekayla üretilen içeriklerin “etiketlenmesinin” doğru yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

Yapay zekayla oluşturulmuş içerik kendiliğinden zararlı değil, kullanım şekli ve yeri önemli. Örneğin, sosyal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını denetimsiz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler almaları zorunlu olmalı.

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, tamamen yapay zekayla üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecinden geçiyor.

Bu analizlerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan güvenin gittikçe azaldığına işaret ederek bu konuda farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” ifadesini kullandı.

Yapay zeka tehdit tespit platformu Sensity AI şirketinin araştırmalarına göre, Rusya-Ukrayna Savaşı’nda Ukraynalı siyasetçiler ve askerler, deepfake videolarla “teslim olmaya çağıran” ya da “savaş suçu işlediğini itiraf eden” kişiler gibi gösteriliyor.

Tayvan’da seçim dönemlerinde, politikacıların sahte konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri gibi Çin kaynaklı yapay zeka içerikleri sosyal medyada yayılarak karşıt görüşlü adaylar hedef alınıyor.

Japonya’da ise yapay zekayla üretilmiş sahte doğal afet görüntüleri, nükleer kaza veya sel felaketi gibi kurgular halkta panik yaratmak için kullanılıyor.

Bu tür olaylar, yapay zeka araçlarının bilinçsizce ve kontrolsüzce “yeni nesil silahlar” olarak kullanılması durumunda doğurabileceği tehlikeleri bir kez daha gündeme getiriyor.

“Yapay zeka ürünlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, “Yapay zeka içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio’yu taklit eden bir dolandırıcı, ABD’li siyasiler tarafından sıkça kullanılan “Signal” isimli mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu dile getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını ifade etti.

Midjourney ve Runway gibi araçlar geliştikçe gerçekle yapayı tutarlı şekilde ayırt etmekte zorlaşıyor.

Cavalli konuya ilişkin, “Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor.” diye konuştu.

“Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş görüntülerini belgeledik.” diyen Cavalli, bu görsellerin genellikle sahte haber siteleri, sosyal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan’da yapay zeka kullanımına ilişkin şirketinin incelediği vakalara atıfta bulunarak, “Tüm bu örneklerde, yapay zeka destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır.” değerlendirmesinde bulundu.

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri yönünde çağrılar yapılıyor.

Platformların ise bu konuya odaklandığı ancak çoğunun “yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı” ifade ediliyor.

Cavalli, “Bazıları dolandırıcılık kampanyalarından bilinçli şekilde kar ediyor. Ancak dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü işbirliği şart.” dedi.

Yapay zekayla üretilen içeriklerin “etiketlenmesinin” doğru yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

Yapay zekayla oluşturulmuş içerik kendiliğinden zararlı değil, kullanım şekli ve yeri önemli. Örneğin, sosyal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını denetimsiz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler almaları zorunlu olmalı.

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, tamamen yapay zekayla üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecinden geçiyor.

Bu analizlerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan güvenin gittikçe azaldığına işaret ederek bu konuda farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” ifadesini kullandı.

Tags: CavalliGörselMedyaTespityapay zeka
Share196Share34Tweet123

Discussion about this post

Kizildeniz film festivalinde dilan cicek deniz ruzgari XylvUWFh.jpg

Kızıldeniz Film Festivali’nde Dilan Çiçek Deniz rüzgarı

Aralık 5, 2025
Vakiflar kanunu resmi gazetede yayinlanarak yururluge girdi duzenleme neleri iceriyor dkUGVTkZ.jpg

Vakıflar Kanunu Resmi Gazete’de yayınlanarak yürürlüğe girdi. Düzenleme neleri içeriyor?

Aralık 5, 2025
Insanin beyin dokulariyla calisan bilgisayarlar geliyor aSekJDK2.jpg

İnsanın beyin dokularıyla çalışan bilgisayarlar geliyor

Aralık 5, 2025
Basaksehirde beton mikserinin 3 araca carptigi kazada 2 kisi oldu 1KBeSAL7.jpg

Başakşehir’de beton mikserinin 3 araca çarptığı kazada 2 kişi öldü

Aralık 5, 2025
Yapay zekanin oncusu geoffrey hinton googlein openaiyi geride birakacagini dusunuyor 4ScJmc5X.jpg

Yapay zekanın öncüsü Geoffrey Hinton; Google’ın OpenAI’yı geride bırakacağını düşünüyor

Aralık 5, 2025
Chatgpt reklamlara tepkili openai onlarin reklam olmadigini soyluyor YqMIzX1a.jpg

ChatGPT reklamlara tepkili; OpenAI onların reklam olmadığını söylüyor

Aralık 5, 2025

Dünyayı Sizin İçin Takip Ediyoruz!

Sadece Haber...

Bize katılın
Talepler
Kurumsal
  • Künye
  • Uluslararası Yayın İlkeleri
  • Erişilebilirlik Politikamız
  • STDGD Yayın politikası
  • Öneri ve Bilgi Formu
Kurumsal
  • Tekzip
  • Gizlilik Politikası
  • Çerez politikası
  • İçerik Kullanım Şartları
About
  • Stories
  • Community
  • Blog
  • Careers
  • Brand Assets
Downloads
  • Web UI Kit
  • Mobile UI Kit
  • Mockups
  • Icons
  • PSD Files

© 2025 MedyaPress – Tüm hakları saklıdır. İzinsiz kopyalanamaz, çoğaltılamaz ve kullanılamaz.

Bu web sitesi kullanıcı deneyiminizi geliştirmek için çerezler kullanır. Siteyi kullanmaya devam ederek Çerez ve Gizlilik Politikası’nı kabul etmiş olursunuz.