Çinli şirket Taigusys tarafından geliştirilen bir AI duygu tanıma sistemi, birden fazla kişinin yüz ifadelerini algılayıp izleyebiliyor ve izlediği her bir bireyin nasıl hissettiği hakkında ayrıntılı rapor oluşturabiliyor. Ancak araştırmacılar, bu yeni teknolojinin hem hatalı hem de etik dışı olduğunu belirterek yeni bir tartışma başlatıyor.
Geliştirilen duygu tanıma sisteminden ilk olarak bu mayıs ayında The Guardian’da yayınlanan bir makalede bahsedildi. Taigusys, ana müşterileri arasında Huawei, China Mobile, China Unicom ve PetroChina gibi çok uluslu şirketler listeleniyor, ancak bu şirketlerin duygu tanıma sistemi kullanımı için lisans alıp almadıkları henüz belli değil.
NASIL ÇALIŞIYOR?
Taigusys web sitesinde, sisteminin zorlukların üstesinden gelmeye yardımcı olduğunu ve sayesinde duygusal, çatışmacı davranışların yarattığı sorunları en aza indirebileceğini iddia ediyor.
Sistem duygu tanımayı bir AI (yapay zekâ) aracılığıyla gerçekleştiriyor ve yüzdeki kas hareketleri değerlendiriyor.
Programın aradığı iyi duygular arasında mutluluk, sürpriz ve olumlu bir şeyden etkilenmiş hissetme yer alıyor. AI sistemi ayrıca kişinin yüzünü iğrenme, üzüntü, kafa karışıklığı, küçümseme ve öfke gibi olumsuz duygular için de kontrol ediyor. Duygu tanıma sistemi fark edilebilir duygular yanında nötr duyguları da dikkate alıyor.
Taigusys, yazılımının son derece incelikli olduğunu bu sayede birinin gülümsemesinin sahte olduğunu dahi algılayabildiğini iddia ediyor. Ve duygu tanıma yazılımının ayrıca bireylere duygusal destek önermek için raporlar da oluşturabileceğini söylüyor:
“Sistem, kişinin yüz özelliklerinin analizine dayanarak bireyin ne kadar çatışmacı, stresli veya gergin olduğunu hesaplayabilir. Ayrıca kişinin duygusal tepkisini analiz edebilir, böylece şüpheli bir şey olup olmadığı anlaşılabilir.”
ETİK DEĞİL VE İNSAN HAKLARINA AYKIRI
Aktivistler, etik ve insan hakları konularını vurgulayarak bu tür programları uygulamaya koyarken dikkatli olunması çağrısında bulunuyor.
İnsan hakları örgütünde görev alan kıdemli program görevlisi olan Vidushi Marda ve Ph.D. Shazeda Ahmed hazırladıkları bir çalışmada Çin’de Taigusys de dahil olmak üzere duygusal tanıma programları geliştirmeye çalışan 27 şirket olduğunu ortaya çıkardıklarını belirttiler.
Marda konuyla ilgili şu sözlere yer vererek etik ve insan hakları açısından sakıncalarına dikkat çekti: “Böyle bir teknolojinin yaygınlaştırılması, iş yerlerindeki çalışanların etik ve yasal haklarını ihlal ediyor. Özel sektöre ait bir iş yerinde bile, hâlâ mahremiyet, onur beklentisi ve çalışanların özgürce hareket etme hakkı var.”
SAHTE BİR BİLİM
Marda aynı zamanda duygu tanıma sistemlerinin sahte bir bilim üzerine kurulduğunu ve yüz ifadelerinin kişinin içsel duygusal durumuyla bağlantılı olduğuna dair belirsiz, bilimsel olarak kanıtlanmamış varsayımlara dayandığını belirtti.
Marda, “Bu teknolojileri etik bir şekilde kullanmak üzere optimize etmenin bir yolu yok; çünkü üzerine inşa edildikleri varsayımlar etik değil” dedi.
Shazeda Ahmed ise böyle bir teknolojinin dayattığı yoğun gözetimin, kendi kendini sansürlemeye ve sistemle oyun oynamak için davranışlarını denetlemeye yol açabileceğini öne sürüyor.
“BİLİMSEL OLARAK MÜMKÜN DEĞİL”
Kâr amacı gütmeyen dijital sivil haklar Access Now’ın Avrupa politika analisti Daniel Leufer ise Insider’a verdiği demeçte işe yarasa bile duyguları tanımlayan programların, kişilerin mahremiyet hakları da dahil olmak üzere birçok insan hakkının ağır bir ihlali olduğunu söyledi.
Leufer, “En kötüsü tüm bu ihlaller, duygu tanıma bilimsel olarak mümkün olmasa bile potansiyel olarak meydana gelmiş olacak. İnsanların bu sistemlere inanmaları ve bunu yaptığını iddia eden sistemler oluşturmaları ve kullanmaları, insanlar üzerinde gerçek etkilere sahip” dedi.
GÖZETLEYEN GÜÇLÜ KONUMDAYKEN ETİK OLAMAZ
Stanford’da siyaset bilimi profesörü Rob Reich ise “Büyük Birader, duygusal bir rejim uygulayacak. Sonuç, sistematik şekilde ilerleyen mahremiyet ihlali ve insanlığın bozulması” dedi.
Leufer, “Başkalarının insanların duygularını gözetlemek için yapay zeka sistemleri kullanması kesinlikle etik değil, özellikle de gözetlemeyi yapanlar işverenler, polis ve hükümet gibi güçlü konumda olan kişilerse…” diye ekledi.
300 HAPİSHANEDE KULLANILIYOR
Taigusys Genel Müdürü Chen Wei The Guardian’a konuşarak geliştirdikleri sistemin Çin’deki 300 hapishane ve gözaltı merkezine kurulduğunu söyledi. Chen, sistemin yaklaşık 60.000 kameraya bağlı olduğunu ve mahkumların daha uysal kalmasına yardımcı olduğunu söyledi.
Singapur Ulusal Üniversitesi Bilgi İşlem Okulu’nda bilgi sistemleri ve analitik bölümünde yardımcı doçent olan Desmond Ong ise yazılımın yorgun, sarhoş veya zihinsel olarak iyi olmayan pilotların belirlenmesine ve tehlikeli ölüm kalım durumlarının önlenmesine yardımcı olabileceğine inanıyor.
Ancak Ong sistemin ortaya çıkarabileceği sakıncalara da dikkat çekmeyi ihmal etmiyor: “Sistem, çalışan performansını adaletsiz bir şekilde cezalandırmak veya insanlık dışı bir şekilde optimize etmek için de kullanılabilir” diye ekliyor.
YAPAY ZEKÂNIN KARMAŞIK DUYGULARI ANLAMASI İMKÂNSIZ
Taigusys’in geliştirdiği duygu tanıma sistemine, uzmanlar şüpheyle yaklaşarak; yapay zekânın duyguların gerçekte ne kadar karmaşık olduğunu ve bu duyguları ne kadar iyi anlayabileceğinin belirsiz olduğuna dikkat çekiyorlar.
Oxford Üniversitesi’nde doçent ve kıdemli araştırma görevlisi olan Sandra Wachter, Insider’a, bir algoritmanın insanların son derece karmaşık duygusal durumunu yalnızca yüz ifadeleriyle doğru bir şekilde anlamasının pek olası olmadığını söyledi. Wachter; kadınların kibarca gülümseyerek nasıl sosyalleştiklerine dikkat çekerek bunun bir mutluluk veya anlaşma işareti olmayabileceğini belirtti ve şöyle devam etti:
İNSANLARA YAPAY STANDARTLAR DAYATIYOR
“Duygu tanıma yazılımını çalışanlara uygulamak da çeşitlilik için bir tehdit oluşturuyor, çünkü insanları algoritmik ve yapay bir ana akım standarda bağlı kalacak şekilde hareket etmeye zorluyor. Böylece insanların kendilerini özgürce ifade etme özerkliğini ihlal ediyor. Sistemin kullanılmasıyla ifade özgürlüğü ve mahremiyet gibi temel insan haklarında bir çatışma görebiliriz.”