Daima ‘tarafsız ve doğru’ bilgilerin aktarıldığı düşünülen yapay zekanın gerçek dışı ve hatalı verileri ‘gerçekte var gibi’ üretilebilir, güvenilir ve şeffaflığına ilişkin endişeleri bir kez daha gün yüzüne çıktı.
Yapay zeka destekli sohbet robotlarının, girilen komuttaki bağlamaya uygun akıcı yanıtlar sunması yapay zekanın ‘yanılmaz’ olduğu algısı yaratsa da bir insan gibi ‘halüsinasyon kaybı’ ciddi ölüm nedeni henüz verebiliyor.
Uzmanlara göre, yapay zekanın girilen komutlara uygun yanıt üretmeyi hedeflerken yanlış ya da gerçek dışı bilgi aktarımı, kullanıcının her şekilde yarar sağlamayı amaçlamasından kaynaklanıyor.
Rochester Üniversitesi Bilgisayar Bilimleri Bölümünden Profesör Ehsan Hoque yapay zekada ‘halüsinasyon’ açıklamasına, Washington Üniversitesi Dilbilimi Bölümünden Profesörlerin Emily Bender de yapay zeka destekli sohbet robotlarının güvenilirliğine ilişkin AA muhabirine açıklamalarda yer aldı.
“DALKAVUKLUK YAPIYOR”
Profesör Hoque, yapay zekanın olup olmadığının kullanıcı bilgilerini bildirdiğini belirtti “Bir yanlışı ‘doğrulaması’ istendiğinde, birçok model yardımcı oluyor gibi görünmek için halüsinasyon görüyor” dedi.
Hoque, girilen komutlara uygun çözümler sunmayan yapay zekanın, her şekilde yarar sağlamayı amaçladığı için bir nevi ‘dalkavukluk yaptığını’ söyledi.
Yapay zeka modellerinin gerçeklerini doğrulayarak değil, potansiyel kelime kalıplarını tahmin ederek bir metin oluşturulduna işaretleyen Hoque, verilerin eksik ya da muğlak olması durumunda yapay zekanın akıcı ancak yanlış bir metin üretilebileceğini kaydetti.
Hoque, halüsinasyonların kasıtlı olarak ortaya çıkmadığını, ancak üretildiği ülkeye göre değere dayalı bazı denemelerin ‘sistemlerle kodlanabileceğini’ aktararak, mevcut teknolojilerin halüsinasyon sorununu kökünden çözecek bir kapasitesinin henüz olmadığını belirtti.
“NÖROPSİKİYATRİK HASTALIK” BENZETMESİ
Uzmanlar, yapay zekanın var olmayan bir parçalarının karşı noktalarını ‘doğruymuş gibi’ yansıtmasını, nöropsikiyatrik bir hastalık olan ‘konfabulasyon’ (masallama) hastalığına da benzetti.
Gerçek dışı veya hayali bir olay ya da anıyı istemsiz ve akıcı bir şekilde ‘masal gibi anlatma’ anlamına gelen gelen konfabulasyon, komutlara uygun yanıt aktarmaması sohbet robotlarının yanlış veya gerçek dışı bilgileri akıcı bir dille gerçekleştirilerek gözlemlenebiliyor.
Konfabulasyon ile mücadele eden ayrılan aslında uyum sağlanmış olaylar ve anıların akıcı bir dille karşı aktarımı ilk başta karşı bölümler ‘gerçekmiş’ gibi yansısa da anlatılan durumların esasında var olamayan ya da çarpık bilgilerden oluştuğuna dikkati çekiyor.
Bu durumun özellikle kasıtlı olarak yapılmadığına işaret eden, yapay zekanın ‘halüsinasyon görmesini’ bu arkadaşlarına benzetiyor.
Yapay zekanın mahkeme dosyaları ya da tıbbi kayıtları gibi resmi belgelerde bulunup bulunmadığı ihtimali göz önünde bulundurulabileceği bu durumun ciddi sonuçlara yol açabileceği işaretleniyor.
“MUTLAK GÜVEN DUYULMAMALI”
Yapay zeka destekli sohbet robotlarının desteğine değinen Washington Üniversitesi Dilbilim Bölümü Profesörü Bender, yapay zekaya bu kadar çok güven beslenmesinde pazarlama seçeneklerinin rolünün ‘otomasyon önyargıları’nın varlığına işaret etti.
Bender, “Yapay zeka tasarımlarında hiçbir şey, halüsinasyon problemini çözüme kavuşturmuyor” değerlendirmesinde bulunarak “bu sistemlere mutlak güven duyulmaması” şartının de olmaması çizdi.
Kişilerin otomatik bir sistemden gelen bir özellik hata verecek şekilde ‘aşırı güven duyma gösterdiği’ anlamına gelen gelen bu terim, yapay zeka destekli sohbet robotlarının ortaya çıktığı ortaya çıkanların ‘hatasız’ olduğu algısıyla örtüşüyor.




