Header Reklam
Header Reklam

Büyük Veri – Big Data

07 Haziran 2018 Dergi: Haziran-2018
Büyük Veri – Big Data

Yazan: Yalçın Katmer, Genel Müdür, Belimo Türkiye

Ben küçük bir çocukken etrafımda cep telefonu olan kimse yoktu, sabit telefonlar yeni yeni evlerimize girmişti ve sadece acil durumlarda kullanılırdı. Müziği FM radyodan ve kasetçalardan dinler, filmleri videodan izlerdik. Şu an yaşadıklarımın çoğu izlediğim bilim kurgu filmlerinde dahi yoktu. Ben çok da yaşlı sayılmam ama dünyanın bu dönemdeki değişimini düşününce zamanın hızının ivmelendiğini düşünmemek elde değil. Sizin de benimle birlikte bu süreçten geçtiğinize ve bu anlattıklarımı çok iyi anlayacağınıza inanıyorum. Zira son 20 yılda dünyayı algılama ve çevremiz ile etkileşim şeklimiz çok dramatik bir şekilde değişti. Kendi yaşantımdan bir örnek ile belki daha net açıklayabilirim. The Matrix filminin gösterime girdiğini, afişlerini sokaklarda görerek haber aldığımda sene 1999’du. Sinemaya gittim, gişede bilet almak için sıraya girdim ve yaklaşık 2,5 saat boyunca tüm dünya ile bağlantımı keserek filmi izledim. Peki aynı film bugün vizyona girseydi ne yapardık? Benim gibi sinema ortamını seviyorsanız ve ancak orada tadı çıkıyor diyorsanız bile biletinizi büyük ihtimalle internet üzerinden alırdınız. Yolda ve hatta sinemada fotoğraflar çekip Facebook ya da Instagram’da yayınlardınız. Belki Facebook akışınızda ya da blogunuzda filmin sizdeki yansımaları üzerine birkaç satır yazıp arkadaşlarınız ile paylaşırdınız. Tabii bu eğer benim gibi sinema salonu fanatiğiyseniz böyle olurdu. Aksi takdirde tüm filmi, internet üzerinden evdeki kanepenin tadını çıkararak da izleyebilirdiniz.

İşte yukarıda tarif ettiğim bugün attığımız tüm adımlar ile dijital dünyanın büyük veri okyanusuna birer damla daha ekliyoruz. Her e-postamız, tweetimiz, paylaştığımız her fotoğraf veri okyanusuna yeni bir damla. Tabii bu kişisel verilerde böyle, endüstriyelde ise fabrikalarda üretim süresince fabrikamızın her noktasında bulunan sensörler yardımıyla sürekli olarak üretim performansımızı kontrol ediyor ve her makinemizin durumunu, ara ve tam mamullerimizin durum ve konumunu kayıt altına alıyoruz. Bu ise sürekli büyüyen bir veri havuzumuzun olmasını sağlıyor.

Dilerseniz bu işin gelişimine birlikte göz atalım. 80’ler ve 90’larda dünyada depolanan veri miktarı yıllık %20’ler oranında artıyordu. Bu dönemin veri depolama yöntemine baktığımızda verilerin %95’inin analog, sadece %5’inin ise dijital olarak saklandığını görüyoruz. Analog kayıttan kastım, ses ya da görüntü kasetleri, negatifler ile fotoğraflar ve film şeridi şeklinde saklanan sinema filmleri gibi kayıtlardır. 90’lardan sonra birden hayatımızda dijitalleşme ile bir değişim yaşanmaya başladı. Birçok teknolojinin hayatımıza girmesi ile yaşanan değişim, dijital kayıtların standart kayıt formatı haline gelmesine sebep verdi. 2000 yılında dünyadaki verinin %25’inin dijital veri olduğu söyleniyor, bu 55 eksabayt ya da diğer bir deyişle 55 trilyon megabayt boyutunda veri demek. Çok kısa süre sonra 2003 yılında bu oran birden %50’ye ulaştı ve 2007 yılında dünyadaki verinin %94’ü dijital olarak kayıt altına alınmış oldu.

big data

Veri depolama denildiğinde aklımıza ilk gelen yöntemlerin aksine bu bahsi geçen veriler çok büyük oranda laptop, cep telefonu ya da internete sürekli bağlı bir sunucu (server) üzerinde depolanıyor. Burada demek istediğim, aklımıza depolama denildiğinde gelen, bir yere kutulayıp kaldırmak ve ancak olağandışı durumda tekrar ulaşmak olan tarif bugün değişti. Biz bugün verileri sürekli internete bağlı cihazlar üzerinde tutuyoruz ve bu bize tüm bu verileri kullanarak bilgi oluşturmamız konusunda çok yardımcı oluyor. Veriden bilgiye giden yolculukta kullandığımız analitik yöntemler ancak noktaları internet üzerinden birleştirebildiğimizde çok daha verimli olabiliyor. Bu kadar çok verinin bir sinerji etkisi yarattığı aşikâr. Haydi gelin yukarıda 2007’de bıraktığım dijital verinin yolculuğuna devam edelim. 2007 yılında dünyadaki verinin %94’ü dijital ortama taşınmıştı ve bu 300 eksabayt veri demek. Bugün çoktan 4'000 eksabayt verimiz kayıt altında ve International Data Corporation bu rakamın 2020 yılında 40 zetabayt (40'000 eksabayt) miktarına ulaşacağı tahmin ediyor. Dünyadaki bütün verilerin %90’ı son iki yılda oluşmuştur ve ağ hizmetleri devi CISCO’ya göre veri hacmi her yıl %50-60 oranında artmaktadır. Şimdi lütfen bir an için gözünüzü kapatıp, cep telefonunuzun ya da bilgisayarınızın hard disk kapasitesini düşünün ve bu 40'000 eksabayt rakamının kaç bilgisayar hard diski kadar yer tutacağını bir gözünüzde canlandırın!

Peki nedir bu büyük veri?

Dijitalleşme üzerine eğitim aldığım MIT (Massacutes Institute of Technology)’de büyük veri – big data’yı tarif etmek için üç V harfini kullanmışlardı.

V-Volume-Boyut

V-Variety-Çeşitlilik

V-Velocity-Hız

İlk V yani boyut aslında ilk akla gelen tarif. Büyük veri tabii ki öncelikle boyut olarak tarif edilmeli. Tarifi yapıldığı günlerde 100 terabayttan daha büyük verilere büyük veri deniliyordu. Bugün bu rakam bana çok küçük gözüküyor. Gözümüzde canlanması açısından şu örneklere bakabiliriz. Dünya çapında dakikada 156 milyon e-posta ve 452'000 tweet atılıyor, Google’da yılda 1.2 trilyon arama yapılıyor, 200 milyon aktif aylık kullanıcısı olan Instagram’da günde 60 milyon fotoğraf paylaşılıyor ve LinkedIn, 200’ün üzerinde ülkeden 300 milyondan fazla üyeyi ve 3 milyondan fazla firmayı barındırıyor.

İkinci V yani çeşitlilik, bu verilerin yapılandırılmış ve tek tipte veriler olmadığını tarif etmek için kullanılıyor. Örnek vermek gerekirse, kredi kartımızın kayıtları yapılandırılmış ve kolay analiz edilebilir tipte bir veriyken, fotoğraf, birçok dil ve içerikte ses kaydı, video gibi verilerde yapılandırılmamış ve çeşitliliği artıran tipte veriler olarak kayıtlara geçiyor.

Üçüncü V yani hız, verilerin bir noktadan diğer noktaya belirli bir hızda ulaşması gerektiğini tarif ediyor. Okuyucularımdan mektup yazanlar elbet olmuştur, ortaokul öğrencisiyken benim Amerika’da yaşayan bir mektup arkadaşım vardı ve hemen cevap yazmaya çalışsak da ayda 1 defadan çok mektup alışverişimiz maalesef gerçekleşemiyordu. Şimdi Amerika ve Çin’de yaşayan iş arkadaşlarımla video konferans yolu ile projeler gerçekleştirebilir durumdayım.

Bu noktada bu tarife bence bir V daha eklemek gerekir o da Value yani değer. İş insanı gözlüğüm ile büyük veriye baktığımda birçok iş modeli görebiliyorum ve tüm bu iş modellerinin ortak noktası, veriyi değere çevirerek kendini gerçekleştiriyor olması. Bu konuda beni en çok etkileyen örnek Netflix. Kullananlar bilir, Netflix’in kullanıcıya avantaj olarak sunduğu asıl nokta internet üzerinden film izlemek değil. Netflix kullanıcılarına dair inanılmaz detayda veri alıyor, alışkanlıklarını izliyor ve tüm önerilerini, tekliflerini bu bilgilere göre kişiye özel hale getiriyor. Yıllarca kaset ve sonra CD ve DVD kiraladığım dükkânın sahibi beni ortaokul çağımdan bu yana tanıyor, uzunca süredir birbirimizle muhabbet halindeyiz fakat bana bir film önerisinde bulunacak kadar ileriye gidebilmiş değil. Netflix tüm iş modelini veriyi değere çevirme üzerine kurmuş bir firma ve tüm rakiplerinden bu özellikleri ile ayrışabiliyor. Sürekli topladığı veri ile farklılaşmaya devam ediyor. Sizi çok iyi tanıyor ve siz de insan psikolojisi gereği sizi tanıyan yerde daha rahat ediyorsunuz.

Aklınıza veriyi değere çevirme işinin internet üzerinden hizmet veren firmaların işi olduğu gibi bir fikir gelmiş olabilir. Doğrusu Amazon gibi internet hizmeti veren firmaların bu konuda birçok avantajı var. Ama büyük veriyi büyük değere çeviren tek bu sektör değil. Örneğin kredi kartı servisi veren Visa. Visa ile dünya üzerinde gerçekleşen milyarlarca veri incelenerek dolandırıcılık vakalarına çok daha hızlı ve daha doğru şekilde müdahale edilebiliyor. Visa alışılagelmişin dışında alışverişler gerçekleştiğinde, büyük verinin analiziyle oluşturduğu “olağan” satınalmalar ile karşılaştırıp bunun dışındakiler için uyarı oluşturabiliyor. Sadece dolandırıcılık ile mücadele alanında büyük verinin kullanımı Visa’ya senelik 2 milyar dolar (evet yazım hatası değil iki milyar dolar) tasarruf sağlıyor.

Büyük veriyi kullanarak analiz yapabilme kabiliyetimiz arttıkça dünyamızın çok daha büyük ölçekte değişeceğine inanıyorum. Yapay zekânın kullanım alanlarının artması da büyük verinin gelişimine paralel olacaktır. Birkaç kullanım alanı tahmini verirsem, belki gözümüzde daha iyi canlanabilir. Mesela bugün “en iyi doktor kimdir” sorusuna benim cevabım, “en çok vaka ve hasta görmüş, farklı alanlarda çalışmış, bilimsel yayınları yakından takip eden ve açık fikirli biridir” olur. Bir de şunu düşünelim, dünyadaki tüm hastaların verilerini toplasak, bu verileri en güncel bilimsel çalışmaları kullanarak analiz eden bir yapay zekâ kullansak ve tüm farklı tıp branşlarının bu konudaki verilerini sonuçlarımıza eklesek, sizce hâlâ en iyi doktor için bir insan bulmamıza gerek kalır mı? Aynı şeyi tüm örnek davaların, kanunların ve olası sonuçların yüklendiği bir veri havuzunda analitik yöntemle çalışan bir hâkim örneğinde ya da tüm hesaplama yöntemlerini, örnek projeleri yüklediğimiz bir proje veri havuzunda çalışan mekanik tasarım mühendisi bir yapay zekâ örneği üzerinde düşünebiliriz. Sizce gelecekte bugünkü bize ne kadar gerek olacak?

Büyük veri iklimlendirme sektöründe kullanılmaya yeni başladı. İlk uygulama alanı BIM – Yapı Bilgi Modelleme olmuş gibi görünüyor. Alışılagelen yöntemde yaptığımız gibi, her bir ürünün boyutları, çalışma şekilleri, teknik verileri vb. değerleri bir katalogdan almaktansa ürünün modelinden alarak projemize yansıtıyoruz. Tüm bu ürünleri ortak bir noktada tutup, projelerimizi binamızın tüm yaşam döngüsü hatta yıkılacağı gün dâhil kullanmak üzere veri ile donatıyoruz. Veri miktarı arttıkça olası hatalar azalıyor ve verimlilik artıyor.

Büyük verinin sektörümüzde diğer bir kullanım alanı ise kestirimci bakım (Predictive Maintenance). Bu internete bağlı tüm mekanik ekipmanlarımızın verilerini izleyerek olası bir arızanın gerçekleşmeden tespit edilmesini sağlıyor. Örneğin internete bağlı bir vana yardımı ile bağlı bulunduğu klima santralinin serpantin eğrisi çıkarılıyor, vanada bulunan yapay zekâ kullanılarak serpantinin eğrisindeki değişim birbiriyle karşılaştırılıp serpantinin tıkanıklığı fark edilerek arıza gerçekleşmeden bakım yapılabiliyor. Bunu yapabilmek için tüm bağlı bulunduğu klima santrallerinden aldığı veriler ve bu verileri analiz etmek için yapay zekâyı kullanıyor.

Sektörümüzü ilgilendiren bir başka nokta ise bu verilerin depolandığı veri merkezleri, dünyada depolanan verinin sürekli artması sebebi ile bu verilerin saklanması ihtiyacı da sürekli olarak artıyor. Bu sebeple dünyada en hızlı büyüyen pazarlardan biri veri merkezi pazarı. Türkiye’de son yıllarda artan bir hızla veri merkezleri açılıyor ve verilerimizi Türkiye’de bulunan sunucularda tutmaya başlıyoruz. Bunun sektörümüz açısından en büyük önemi veri merkezlerinin ana giderinin soğutma gideri olmasıdır. Verimli bir veri merkezinde toplam işletme maliyetinin %40’ı kadarı soğutma sistemi tarafından tüketilmektedir. Ülkemizde yapılan veri merkezlerinin soğutma sistemlerini incelediğimde durumun teknik anlamda mühendisliğimize ne kadar ihtiyaç duyduğunu çok daha iyi anlayabildim. Sunucuları tasarlayan ve onların çalışmasını sağlayan bilgi teknolojilerinden sorumlu mühendisler ile soğutma sistemini tasarlayan ve çalıştıran makine mühendislerinin işbirliği içerisinde çok daha iyi sistemler kurabileceklerine inanıyorum.

Görüldüğü gibi dünyada toplanan ve kayıt altına alınan veri miktarı ve bu büyük verinin önemi giderek artıyor. Verinin enformasyona dönüşmesi için amaca yönelik ayrıştırılması, analiz edilmesi ve özetlenmesi gerekiyor. Enformasyonun bilgiye dönüşmesi içinse analizlerin bir senteze ulaşması gerekli. Karar verme mekanizmalarımızda bu sürecin içerisinden geçen bilgileri kullanıyoruz. Önümüzdeki sayıda büyük verinin bilgiye dönüştürülmesi sürecinde kilit öneme sahip ve belki korkutucu derecede güçlü olan “Yapay Zekâ” konusuna değineceğim. Tüm okuyuculara, bir sonraki sayıda buluşuncaya dek sağlık ve mutluluk dilerim.