23 Şubat 2014 Pazar

Yeni Nesil Dizilimleme [Next Generation Sequencing] Teknolojisine Bakış - 2 (SAGE Yöntemi)

Bir önceki yazımda, DNA'nın keşfedilişinden ve klasik dizilimleme yaklaşımı olan Sanger dizilimleme  (sekanslama | sequence) yönteminden bahsetmiştim. Bunun yanısıra, uygun teknolojiyi seçmenin ne kadar önemli olduğunu da toplu taşıma üzerinden örnekler vererek anlatmıştım.

Günümüzde çokça bilinmeyen ve bu nedenle de pek üzerinde durulmayan bir yöntemden bahsedeceğim bu yazımda. Hayalgücünüzü biraz zorlamanızı istiyorum: neredeyse tek yapabildiğiniz şey, elinizdeki DNA parçasını çok ufak (~800 bazlık) bölümler halinde okuyabilmek. Sonra birileri çıkıp (Edwin Southern) bir de hibridizasyon temelli bir yaklaşımla varlığını önceden bildiğiniz DNA parçalarını tespit etmek üzere bir teknik geliştiriyor, sene 1975. Elinizdeki en temel iki yöntem kabaca bunlar. Bunlar üzerine bir disiplin inşa etmek zorundaysanız, tüm şartları zorlarsınız. 

19 Şubat 2014 Çarşamba

21 Şubat Cuma - Biyoinformatik ve Son Gelişmeler - Gazi Üniversitesi

21 Şubat Cuma günü 09:00'da Gazi Üniversitesi Tıp Fakültesi Tıbbi Genetik Anabilim Dalı'nda Biyoinformatik ve Son Gelişmeler adlı herkese açık bir etkinlik düzenlenecek. Açılış konuşmasının ardından Yrd. Doç. Dr. Yeşim Aydın Son'un 09:30'da Biyoenformatik ve Genomik Tıp adlı konuşmasıyla devam edecek etkinlikte benim de 13:00'de veri analizi ve görüntülemesi odaklı bir konuşmam olacak. Biyoinformatiğe ilgi duyan ve biyoinformatiğin gerçek hayat uygulamalarını merak eden herkesin faydalanacağını düşündüğüm bu etkinliğe ilişkin yer ve zaman bilgisi ise şu şekilde:

21 Şubat 2014 Cuma 09:00 - 16:00
Gazi Üniversitesi Tıp Fakültesi, Dekanlık Binası 6. Kat Konferans Salonu

16 Şubat 2014 Pazar

Veri Analizinde Uygulanan Adımlar - 8 (Hava Durumu)

Şimdiye kadar bahsettiğim konular verinin doğrudan kendisiyle alakalıydı ve büyük oranda teorik konulardan bahsettim. Bu yazımdan itibaren gerçek verilerle oynayabileceğimiz bir yapıya dönüşecek bu yazı dizisi. Moleküler biyoloji temelli verilerle çalışmanın karmaşıklığını yaşamamak adına, daha kolay aktarabileceğimi düşündüğüm ve büyük boyutlu bir veri kaynağıyla çalışmayı tercih ettim: hava durumu verisi. İngilizce blogumda hava durumu üzerine yaptığım analizlerden ve sonuçlarından bahsetmiştim ancak bu sonuçları tam olarak nasıl ürettiğime ilişkin detaylara pek değinmemiştim. Bu yazımda, bu tarz verilere nasıl yaklaşılabileceği üzerine daha somut bir örnek üzerinden giriş yapacağım.

Neredeyse hepimizin cebinde bir akıllı telefon var, ve bu telefonlar internete bağlı olduğu sürece anlık hava durumu bilgisini de sunuyorlar. Bu verilerin nasıl oluşturulduğunu hiç merak ettiniz mi? Bildiğim kadarıyla bu işin temel motivasyonu, hava durumu bilgisinin kritik olduğu havacılık sektörü. Sıradan bir vatandaşa 4 saat sonrasına ilişkin bir tahmin raporunu yanlış verirseniz çok büyük ihtimalle hayati bir tehlike oluşturmaz veya büyük bir ekonomik kayba neden olmaz. Ancak, İngiltere'den kalkan bir uçağın Türkiye'ye iniş yapacağı saatlerdeki hava durumunu yanlış (veya büyük bir hata payıyla) tahmin ederseniz iyi ihtimalle ya gecikmeye, ya da başka bir havaalanına inmeye sebep olabilirsiniz; daha kötü örnekler de geçmişte yaşanmış maalesef (National Geographic'te Uçak Kazası Raporu adlı programda pek hoş olmayan örnekleri izleyebilirsiniz). Tam da bu nedenle, hava durumuna ilişkin gözlem merkezleri ilk olarak havaalanlarında kurulmaya başlanmış. Bu nedenle bir süre öncesine kadar Ankara'daki hava durumu için şehre gayet uzak olan Esenboğa'dan veya Kayseri'deki hava durumu için yine şehir merkezine uzak olan Erkilet'ten bilgi alınıyordu: buralar, askeri veya sivil havaalanlarının yer aldığı bölgeler çünkü. 

5 Şubat 2014 Çarşamba

Regresyon Analizi

“Minority Report” filmini seyredenler hatırlarsa; kurguda işlenen konu üç insanın geleceği görebilme yetenekleriyle ilgiliydi. Bu yetenekler kullanılarak suçların daha işlenmeden öngörülebiliyor ve polisler tarafından daha olay gerçekleşmeden engellenebiliyordu. Daha günümüze yakın benzer bir örnek Amerikan yapımı bir dizi olan “Person of Interest”. Kurgu yine benzer olmakla birlikte doğa üstü yeteneklerden farklı olarak dayanağı olan “veri” kullanılıyor. Son teknoloji bir bilgisayar ve suçluları bulacak bir algoritma kullanılarak hukuk dışı müdahaleler bulunularak suçların daha işlenmeden engellenmesi kurgusu etrafında dönen bir dizi. Bu tarz bir geleceğin çok uzakta olmadığına eminim. Etik açısından da ayrıyetten çok tartışılacak bir konu.

Günümüzde  şuan bu teknolojiye sahip değiliz. Fakat farklı alanlarda buna benzer büyük boyutlu veriler toplanarak gerek pazar araştırmalarında gerek biyoloji, tıp alanında göreceli büyük boyutlu verilerdan yararlanılarak ve bir kaç regresyon tekniği uygulanarak hali hazırda bir azınlık raporu yazmak mümkün.

1 Şubat 2014 Cumartesi

Biyoinformatik Eğitimleri ve İhtiyaçlarımız - İhtiyaçlar

Bir önceki yazımda bazı tespitlerden bahsetmiştim ve bu yazıda da daha önce bahsettiklerim doğrultusunda bir ihtiyaç hazırlama gayretindeyim. Amacım, biyoinformatiğe ilişkin bilgi birikimimizi nasıl geliştireceğimize ilişkin bir noktaya varmak.

Öncesinde, daha dün öğrendiğim bir çalışmadan söz etmek istiyorum. Dunning ve Kruger tarafından gerçekleştirilen çalışmayı önceki yazı ışığında okumanızı öneriyorum, ilginç bir çalışma. Türkçesine bu Wikipedi linkinden ulaşabilirsiniz, daha detaylı bilgi içinse İngilizce Wikipedia sayfası linkine göz atabilirsiniz.

Biyoinformatiğe ilişkin ihtiyaçları yine önceki yazıdaki tespitlerle ilişkilendirerek somutlaştırmak istiyorum. Sanırım atılması gereken ilk adımlardan biri, biyoinformatiği gerçek hayatla ilişkilendirmek. Bu alan uygulamalı bir alan ve bu nedenle sadece teorik olarak sunulduğunda kopukluklar yaşanıyor. Hatta aslında bilim ve mühendisliğin arasında kaldığı için her iki anlayışın da yansıtılması gerekiyor.