Meteoroloji enstitüleri küresel hava tahminleri üretirken, süreç boyunca bu tahminlere çok sayıda farklı veri akışı gerçekleşir. Hava durumu araştırmacıları veri miktarı ile daha iyi başa çıkabilmek için birçok farklı işlemciye sahip bilgisayarlar kullanıyor. “Paralel bilgisayar” olarak adlandırılan bu işlemcilerin her biri, dünyanın belirli bir bölgesinden gelen verileri aynı anda değerlendiriyor.
Gerçek işlemleri gerçekleştiren aritmetik birimlere ek olarak, böyle bir bilgisayar sadece işlemleri dağıtmak için de birçok işlemciye ihtiyaç duyar. Basitçe söylemek gerekirse, aritmetik birimlere görevler atıyor ve kısmi sonuçları mantıksal bir toplu sonuç olarak şekilde birleştiriyorlar. Hava durumu tahmini örneğinde, kontrol eden işlemciler Dünya’nın alt alanlarından gelen hesaplamaları tek tek kontrol ediyor. Kendi aralarında verilerin ve sonuçların değişimini düzenlerler. Baktığımızda, yakın çevredeki alçak basınç alanlarının etkisi dikkate alınmaz ise, yüksek basınçlı bir alanın nasıl davranacağını tahmin etmenin hiçbir faydası olmaz.
Kontrol Sistemi İçin Hesaplama Gücü
Ancak, herhangi bir sayıda karmaşık sorunu çözmek için herhangi bir sayıda işlemciyi basitçe birbirine bağlayamazsınız. Ne kadar çok bilgisayar paralel olarak çalışırsa, kontrol sistemi için o kadar fazla bilgi işlem gücü gerekir. Kontrol amaçları için gereken çaba genellikle orantısız bir şekilde artar. Bu, paralel hesaplamanın geçerli bir seçenek gibi göründüğü yalnızca birkaç uygulama olduğu anlamına geliyor.
Bunun nedeni, dijital bir bilgisayarın mimarisinde yatıyor. Birbiri ardında bir bilgi işlem adımını yürütmek için tasarlandı. Son yıllarda bilgisayarların giderek artan bilgi işlem gücü, dijital bilgisayarların bu engele rağmen giderek daha karmaşık sorunları çözebilmesini sağladı. Bununla birlikte, dijital bilgisayarların daha da geliştirilmesi, sürekli olarak fiziksel ve teknik sınırlarla karşı karşıya kalıyor. Böylece paralel hesaplamayı daha basit hale getirmek için, hesaplamaya yönelik diğer araştırma yaklaşımları ilgi
kazanıyor.
Bu alanda gelecek vaat eden araştırma sonuçlarıyla büyük ilgi gören kuantum bilgisayarlarının gölgesinde, birçok ekip biyoloji alanındaki yaklaşımlarla da adımlarını atıyor.
Biyo-Bilgisayar Nedir?
Uluslararası araştırma projesi Bio- 4Comp, birkaç yıldır ağ tabanlı biyo bilgisayarlara el atıyor. Fikir şu: Biyolojik ajanlar, matematiksel bir problem temsil eden karmaşık bir nano- kanal ağı üzerinden bir yolculuğa gönderiliyor. Daha sonra, ajanın bir kavşakta hangi dönüşü yaptığına bağlı olarak, kümülatif sonuca bir sayı ekleniyor veya eklenmiyor. Aracının ağ üzerinden izlediği yol, olası bir sonuca karşılık geliyor.
Avantajı, ağ üzerinden aynı anda birçok aracı gönderebilmeniz ve aynı anda tüm potansiyel yolları izleyebilmeleri. Bu nedenle, geleneksel bir dijital bilgisayar gibi birbiri ardına bir çözüm yolunu düzgün bir şekilde hesaplamak yerine, ağ tabanlı biyo-bilgisayarın hesaplamaları paralel olarak yapması gerekiyor. Chemnitz’deki Fraunhofer Elektronik Nano Sistemler (ENAS) Enstitüsü’nden Dr. Danny Reuter, ağların üretimi ve teknolojilerin ölçeklenebilirliği üzerine araştırma çalışmalarından sorumlu.
Dr. Reuter, bir rock konserindeki kalabalık sörfü ile ağdaki süreçler arasında bir karşılaştırma yapıyor: “Motor proteinler, bizim durumumuzda hayvan hücrelerinde türetilen moleküller olan biyolojik ajanları tıpkı müzik hayranlarının bir şarkıcıyı seyirciler aracılığı ile taşıması gibi hareket ettirir.“ Yani burada ekip, ajanları ağ üzerinden taşımak için motor proteinlerin kinetic enerjisini kullanıyor.
Yine Fraunhofer ENAS’tan olan Reuter’in meslektaşı Thomas Blaudeck, gelecekte bir ağda temel araştırmadan uygulamalı araştırmaya geçmek için milyonlarca temsilciye sahip olmayı umuyor: “Her ajan, kendi işlemcisidir. Nano ağda hareket etmek geleneksel bir dijital bilgisayarın bilgi işlem hızından çok daha yavaş olduğundan, pratik uygulamalarda avantajlarımızdan yararlanabilmek için çok sayıda aracıya ihtiyacımız var.“
İşlemciler Olarak Virüsler
Bu avantajlar öncelikle paralellik ve enerji verimliliği ile ilgili. Bunlar tam olarak dijital bilgisayarların zorluklarla karşılaştığı alanlar. Blaudeck, ağ tabanlı biyo- bilgisayarın potansiyel uygulamalarını prensip olarak, her seçimde olası kombinasyonların katlanarak artan karmaşıklığa sahip tüm görevlerde görüyor. Blaudeck, “Biyolojik yaklaşımlarla sahip olduğumuz avantaj malzeme. Çünkü belirli koşullar altında kendini çoğaltabilir.” diyor. Bio4Comp’ta ekipler, kendilerine ait bir yaşamı olmayan ölü maddeler ile çalışıyor.
Bununla birlikte, ajanlar olarak ağda hareket eden moleküller, örnek verecek olursak kesişmelerde bölünebilir ve böylece aynı anda iki hesaplama adımını gerçekleştirebilir. İlk kısım kesişme tarafından temsil edilen sayıyı ekler, ikinci kısım farklı bir yol alır ve sayıyı eklemez.
Bununla birlikte, diğer araştırma projeleri zaten canlı ajanlarla çalışıyor ve ağlar aracılığı ile virüs veya bakteri gönderiyor. Burada, aracılar işlemci sayısını artırmak için basitçe çoğaltabilirler. Bu çoğaltma her şeyden önce en gerekli eylemdir. Çünkü ağın girişinde bir tür “darboğaz” yaratılır. Orada, herhangi bir anda yalnızca sınırlı sayıda aracı ağa girebilir. Ancak ağ daha da fazla dallanır ve her geçişte daha da büyür.
Pratik ile ilgili hesaplamalara gerçekten izin veren ağlar, karmaşık bir sorunu temsil edebilmek için çok sayıda kesişme noktasına ihtiyaç duyar. Blaudeck bunu, “Ajan yoğunluğu, yani birim zaman başına bir kanal bölümünden gelen ajan sayısı, çıkışa doğru giderek küçülür. O zaman biyoloji bize bu problemde yardımcı olur.” diyerek açıklıyor.
Süper Bilgisayarlar İçin Bir Tamamlayıcı
Birgün biyo-bilgisayarlar da enerji verimliliğinde öne çıkabilir. Danny Reuter’a göre bu bilgisayarlar, çoğu insanın masasının altında yer alan kişisel bilgisayarların yerini alamaz. “Bilgisayarlarımız, süper bilgisayarları tamamlayacak şekilde tasarlanmıştı. Biyo-bilgisayarlar ile çözmek istediğimiz tüm problemler, süper bilgisayarlar tarafından da çözülebilir. Ancak bir gün daha hızlı olmayı ve aynı hesaplamaları yapmak için çok daha az enerji kullanmayı umuyoruz.” İki Fraunhofer araştırmacısına göre, üç ila dört büyüklük sırası-hesaplama başına daha az enerji- projelerinin amacı bu.
Ancak bu yolda, üstesinden gelinmesi gereken birkaç engel daha var. Reuter, “Şimdiye kadar yaklaşımın güvenilir bir dereceye kadar çalıştığını gösterebildik. Şu anda sonuçlarımız kuantum bilgisayarların üç veya dört yıl önce nerede olduğu ve hala süper bilgisayarlar ile rekabet etmekten uzakta olduğu yönünde.” diyor. Meselenin can alıcı noktası, Reuter ve Blaudeck’in Fraunhofer ekibinin ana odak noktası olan ölçeklendirme. Reuter, “Ağlarımızı büyütmeye ve daha fazla temsilci göndermeye devam edersek, ilgili bir sorun için ihtiyacımız olan alan çok büyük oldurdu. Hata oranı da çok yüksek olurdu.” diye belirtiyor. Bir sonraki inşaat sahasının görüldüğü yer burası.
Örneğin sözde etiketleme, bilgisayarların performansını artırmalı. Bu süreçte araştırmacılar, ağ üzerinden geçerken molekülleri işaretlerler, böylece daha sonra geçtikleri yeri daha iyi okuyabilirler. Reuter, şu anda ajanın ağ üzerinden geçerken hala bir mikroskopla görüntülendiğini bildiriyor. „Ancak ajan geçtiğinde sinyal alan veya ağda belirli bir noktada ona bir miktar DNA ekleyen ve daha sonra hangi yolu izlediğini takip eden elektronik bileşenler üzerinde çalışıyoruz.”
Bu aynı zamanda bir sonraki adımda otomatikleştirilecek olan ağın çıkışında algılamayı da kolaylaştıracak.
Henüz Özellikle Sürdürülebilir Değil
Ayrıca projede değiştirilebilir kavşaklar eksik. Şimdiye kadar, bir nano ağ yalnızca tek bir matematik problemini temsil ediyor. Thomas Blaudeck, ağ tabanlı bilgisayarın donanım ve yazılım arasındaki sınırı bulanıklaştırdığını açıklıyor: „Bizim durumumuzda, yazılım donanımda, kavşakların tam olarak düzenlenmesiyle temsil edilir.“ Her hesaplama için ayrı bir çip, araştırmacıların kabul ettiği bir şey, henüz özellikle sürdürülebilir değil. Bununla birlikte,evrensel olarak değiştirilebilir kesişimler uygulanabilirse çeşitli hesaplama problemleri tek bir çip ile temsil edilebilir ve hesaplanabilir.
Pek çok soru çözülememiş olsa da, Reuter ve Blaudeck iyimser bir zihin çerçevesi içinde. Nano kanalları üretmek için gerekli biyoteknoloji ve üretim teknolojileri halihazırda mevcut. Buradaki zorluk, hem bilimsel disiplinleri matematik ve bilgisayar bilimleri ile bir araya getirmek, hem de klasik mikroelektroniğe yabancı olan alt unsurları geliştirmek.
Kare Kökleri Hesaplamak İçin DNA
Bu arada, araştırma ekipleri biyolojideki diğer uygulamalardan yararlanıyor. Bilgisayar bilimcisi ve moleküler biyolog Leonard Adleman, 1994 yılında, programlanabilir bir DNA ile deneyler gerçekleştirdi. Daha sonra bir test tüpünde birbirleriyle reaksiyona girdiği DNA dizilerindeki girdi değerlerini temsil etti. Bununla, Adleman basit matematiksel hesaplamalar yapabildi.
2019 yılında başka bir ekip, böyle bir DNA bilgisayarı ile karekök hesaplamayı başardı. Her bir DNA zincirine kendi floresan renk değeri verildi. Deneyden sonra bu renk değerlerinin yeni kombinasyonları, daha sonra hesaplamanın sonucuna karşılık geldi.
Bu yaklaşımın avantajı, ağ tabanlı biyo-bilgisayarda olduğu gibi, devasa paralelleşme. DNA zincirleri, test tüpünde tüm kombinasyonlarda aynı anda birbirleriyle reaksiyona giriyor.
Teoride, özellikle optimizasyon problemleri için çok uygun. Bu problemlerde her zaman birkaç uygulanabilir çözüm var. Ancak bunlardan biri en iyi, en hızlı ve en ekonomik olanı. En iyi bilinen örnek, gezgin satıcı problemi. Bir tüccar, hiçbirini iki kez ziyaret etmeden bir listedeki tüm şehirleri kapsamalı. Önüne çıkan sayısız seyahat notası seçeneği var, ancak kilometrelerden tasarruf etmek için doğal olarak en kısa rotayı kullanmak istiyor.
Değerlendirme Yöntemleri Mevcut Değil
DNA bilgisayarında, her şehir kendi DNA zincirini alacaktı. Hepsi, bir “tımarhaneyi” kopyalayarak birbirine tepki verecek, böylece aynı anda akla gelebilecek tüm yolları yaratacaktı. Sayısal bir bilgisayarın belirli sayıda şehir için bu hesaplamayı yapması yıllar alacaktır. Şimdi hedeflenen kimyasal reaksiyonlarla daha uzun DNA parçalarını ortadan kaldırırsanız, teorik olarak hepsinden daha kısa yol kalır.
İşin püf noktası şu: Pratik olarak, reaksiyondan sonra sonuçları değerlendirmek için uygun yöntemler yok. Bu prosedürlerin gelecekte geliştirilmesi ve o kadar pratik olması imkansız değil. DNA bilgisayarları, ilgili problemleri işleyebilecektir.
Philipps Marburg Üniversitesi’nde Biyotıp veri bilimi profesörü olan Dominik Heider, yine de DNA tabanlı bilgisayarlar konusunda biraz şüpheci: “Akademik bir bakış açısından, tüm bunlar oldukça ilginç. Ancak korkarım ki pratikte alakasız olmaya devam edecek.” Bunun nedeninin oldukça basit olduğunu söylüyor; DNA bilgisayarlarının yapabildiği her şeyi, kuantum bilgisayarları da yapabilir. Heider, üstelik bunlarla baş etmenin çok daha kolay olduğunu söylüyor. “Video kasetler için VHS ve Betamax günlerinde olduğu gibi, iki yaklaşımdan sadece biri geçerli olacak ve bunun DNA bilgisayarları olacağından şüpheliyim.”
DNA’ya Çevrilen İkili Veriler
Bununla birlikte, Heider hiçbir şekilde bilgisayar bilimi için DNA’dan vazgeçmek istemiyor. MOSLA Araştırma Projesi’nde, verileri DNA’da depolamak için bilgisayar bilimi, biyoloji, fizik ve kimyadan meslektaşları ile birlikte çalışıyor. Bunu yapmak için geleneksel dijital bilgisayarlardan gelen ikili veriler, yani uzun bir sıfırlar ve birler zinciri, A,C,G ve T harflerine çevrilir.
Bu harfler dört tabanı temsil eder. Bu harfler, her DNA’yı oluşturan dört baz anlamına gelir. Bir canlının her genomu, bu dört bazın bireysel bir kombinasyonundan oluşur. Çeviri, laboratuvarda uzun süre saklanabilen ve herhangi bir zamanda tekrar okunabilen gerçek DNA’ya kolayca aktarılabilir. Dijital bir bilgisayar daha sonra DNA verilerini tekrar ikili koda çevirebilir ve dosyayı tekrar dijital olarak görüntüleyebilir.
Bununla birlikte Heider, yolda hiçbir verinin kaybolmamasını sağlamak için, pratikte arkasında oldukça fazla bilgisayar bilimi olduğunu söylüyor:”DNA’nın sentezi sırasında, kopyalama sırasında DNA depolamasında hata kaynakları var. Depolama ve sıralama sırasında görevimiz, bu hataları yakalayan düzeltme kodları geliştirmek.”
Herhangi bir depolamada olduğu gibi, depolama yoğunluğu ve maliyet arasında bir ödünleşim olduğunu söyledi: “Daha fazla veri depolamak açıkça daha pahalıya mal oluyor. Yine, kodu sonsuz bir uzunlukta bir DNA parçasına sığdıramayız. Bireysel kısa parçalara ihtiyacımız var, sonrasında da her zaman sıralamadan sonra parçaların doğru şekilde yeniden nasıl birleştirileceğine dair bilgilere.” Ancak bu meta bilgiler de depolama alanı kaplar.
Serin, Kuru ve Karanlık Bir Yerde Saklanmalı
Bu DNA depolama alanı hala çok pahalı. Heider, ”Şimdiye kadar bu kadar büyük miktarlarda DNA üretmeye gerek yoktu.” diyor. Bu nedenle, pratikte DNA depolamanın kullanımını uygun hale getirecek kadar ucuz bir süreç hala mevcut değil. Bununla birlikte Heider, on yıl içinde yeterli araştırma ile her şeyin kökten farklı görünebileceğini umuyor.
Bazı uygulamalar için, DNA depolamanın benzersiz birçok avantajı var:”- Teknolojimiz öncelikle uzun vadeli arşivlemede kullanılacak. Tarihsel belgeler, doğum kayıtları veya artık değişmeyen uzun vadeli hava durumu verileri gibi veriler sadece DNA için mükemmeldir.” Bir kez üretildiğinde depolama, buzdolabının çalışması dışında neredeyse hiç enerji gerektirmez. Bunun nedeni, DNA’nın saklanmasının kolay olması.” Heider bunu;” soğuk, kuru ve karanlık” olarak özetliyor. Hata düzeltmesinin bireysel mutasyonları telafi etmesi gerekli.
Çoğu insan muhtemelen kendi tatil fotoğraflarını sabit disklerde, SSD’lerde veya bulutta saklamaya devam edecek. Bununla birlikte, DNA depolaması yakında kimsenin düzenli olarak erişmesi gerekmeyen ancak yalnızca acil durumlar için depolanan arşivlerdeki büyük miktarda veri için, biyolojik alternatif olabilir.
Chip