Ölmüş kişilerin videolarını üretiyorlar

İsrail'de bulunan bir soyağacı sitesi Deepfake teknolojisi ile ölmüş kişilerin sahte videolarının üretilmesini sağlayan bir uygulama geliştirdi. Kimisine göre 'sihirli' kimi içinse 'ürkütücü' olan uygulama yapay zeka yardımı ile ölmüş kişilerin fotoğraflarından yüksek gerçekliğe sahip sahte videolar üretilmesine olanak tanıyor.

İsrail merkezli soyağacı sitesi MyHeritage, kullanıcıların ölmüş yakınlarını deepfake teknolojiyle "canlandıran" yeni bir uygulamayı hayata geçirdi.

Uygulamanın temeli Deepfake teknolojisine dayanıyor. DeepNostalgia (Derin Nostalji) adı verilen bu uygulama yapay zeka yardımıyla yüz fotoğraflarından yüksek gerçekliğe sahip sahte videolar üretilmesine olanak sağlıyor.

Şirket, uygulamada "yaşayan kişilerin sahte videolarının yaratılması gibi amaç dışı kullanımları önlemek" kastıyla videolara ses konulmadığını belirtiyor.

Sitenin sıkça sorulan sorular bölümünde DeepNostalgia adlı uygulamanın "nostalji" amaçlı olduğunun altı çizilerek şu ifadeler kullanılıyor: 

"Sevdiklerimizi hayata döndüren bu özellik bazı kişiler tarafından 'sihirli' bazı kişiler tarafından da 'ürkütücü' bulunabilir. Sonuçlar tartışmalı olabilir ama bu teknolojiye kayıtsız kalmak zor."

İsrail şirketi D-ID tarafından geliştirilen ve yapay zekanın kullanıldığı DeepNostalgia teknolojisi canlı kişilerin yüz ve vücut hareketlerini temel alarak çalışıyor.

Sitede Kraliçe Victoria ve Florence Nightingale gibi tarihi öneme sahip kişilerin "canlandırılmış" videoları yer alıyor.

Şirket son olarak YouTube'da 16. ABD Başkanı Abraham Lincoln'ün üretilmiş bir videosunu yayımladı. 1865'te bir suikast sonucu ölen Başkan Lincoln bu videoda bir konuşma yapıyor. Tartışmalara neden olan videonun ardından çok sayıda kişi Twitter'da, yakınlarının bu teknoloji ile oluşturulmuş videolarını paylaştı.

İngiltere merkezli Channel 4 Televizyonu ise deepfake teknolojisinin yalan haber yaymak için kullanılması muhtemel tehlikelerine dikkat çekmek için benzer yöntemle oluşturulmuş sahte Kraliçe Elizabeth videosu yayınlamıştı. 

Videoda Kraliçe halka alternatif bir "Noel mesajı"nı seslendiriyordu.

Bu video sonrası harekete geçen İngiltere hükümeti, deepfake teknolojisiyle ilgili bir mevzuat hazırlığı yapmaya başladı. Parlamentoda oluşturulan komisyonun deepfake teknolojisiyle hazırlanan videolar için ilgili kişilerin rızasının alınması şartının getirilmesi yönünde bir karar alabileceği belirtiliyor. 

Ölmüş kişilerin videolarını üretiyorlar ile ilgili etiketler İsrail deepfake DeepNostalgia
GÜNÜN VİDEOSU

326 yolcu taşıyan uçakta korku dolu anlar! Piste sert iniş yaptı... O anlar kamerada

Alman Lufthansa’ya ait Boeing 747 tipi uçak Frankfurt-Los Angeles seferi sonunda piste sert iniş yaptı. 326 yolcu ve 19 mürettebat bulunan uçak iniş sonrası kontrollerin ardından Frankfurt’a geri döndü. Korku dolu anlar kameralara yansıdı.