Büyük veri (big data) kavramı birçok kişi için yeni bir kavram olarak görülse de aslında başlangıcı ilişkisel veri tabanlarının geliştirildiği 1970’lere dayanır. Yapılandırılmış halde olsun ya da olmasın, basitçe çok miktarda veriyi tanımlayan bu terim, 2000’lerin başında sosyal medya aracılığı ile kullanıcıların ürettiği verilerin araştırılmaya ve analiz edilmeye başlanması ile popülerlik kazandı. 2006 yılında Hadoop’un yayınlanması ile büyük verilerin derlenmesi kolaylaşırken, bir yandan da diğer teknolojik gelişmeler sayesinde veri depolamak da kolay ve ucuz hale geldi.

İnternet’in kullanıma sunulmasından bu yana insanlık olarak inanılmaz büyüklükte veri üretmekteyiz. 2020 itibari ile her gün 2.5 kentilyon veri oluşturuluyor. Büyük veri, size ancak onunla ne yapacağınızı bildiğinizde yarar sağlayabilir. GTech olarak bu yazımızda, büyük veri (big data) analizinin nasıl yapılacağından bahsediyoruz.

Büyük Veri (Big Data) Neden Önemli?

Günümüzde Big Data (büyük veri) artık bir sermaye haline gelmiştir. Endüstrinin her alanına doğrudan etki ettiği gibi, veri analizleri sosyal yaşamı dahi etkilemektedir. En yaygın kullanımı olarak bilinen müşteri memnuniyetini artırmanın yanında artık, reklam trendleri, hastalıkların erken teşhisi, emniyet güçlerinin strateji geliştirmesi ve hatta doğal felaketlerin ileri analitik yorumlanması ile yeni afetlerin tahmini bile yapılabilir. Büyük verinin sunduğu olasılıkların neredeyse sınırı yoktur. Devasa boyutlardaki veriler, alınıp satılan mülkler haline geldi. Kullanılan veri ise çok karmaşık ve belli bir düzende değil.  Dünyada ise sadece birkaç bin insan bu veriyi nasıl anlamlandıracağını ve özelleşmiş yazılımları kullanacağını biliyor.

 

Büyük Veri (Big Data) Analizinin 3 V’si

Big Data’nın 3 karakteristik özelliği olan İngilizce’deki variety, velocity ve volume kelimelerinden türeyen 3V kavramıdır. Büyük veriyi daha iyi anlamamıza yardımcı olurlar.

Çeşitlilik (Variety): Big Data (büyük veri) çeşitliliği yapılan sorgularda daha eksiksiz cevap almaya yarar. Çünkü veriler metin belgelerinden e-postalara, sayısal verilerden, videolara, seslere, finansal işlemlere kadar her türlü farklı formatlardan derlenebilir.

Hız (Velocity): Gerçek zamanlı veri oluşturulma hızını ifade etmektedir. Daha geniş bir bakışla, değişim oranını, gelen veri setlerinin değişen hızlarda bağlanmasını ve etkinlik patlamalarını içerir.

Hacim (Volume): Adından da anlaşıldığı gibi Big Data’nın günlük bazda oluşturulan devasa bilgi setleri olduğunu biliyoruz. Bu kaynaklar sosyal medya, iş süreçleri, makineler, ağlar, veya insan etkileşimleri olabilir.

 

Büyük Veri (Big Data) Analiz Süreci Nasıl Olmalıdır?

Büyük veriyi kullanan birçok işletme için aslında bilgiye ulaşmak problem değildir. Asıl önemli nokta verinin analiz edilmesi ve veriden değer yaratmak. Veri Analiz performanısınızı yükseltmek ve doğru kararlar vermek için bu süreçte izlenmesi gereken beş adım şu şekildedir:

  • Sorularınızı Tanımlayın: Veri analizine her zaman doğru sorularla başlamalısınız. Sorular ölçülebilir, net ve kısa olmalıdır. Soracağınız sorular belli bir probleme veya fırsata özgü olmalıdır.
  • Ölçüm Önceliklerinizi Net Belirleyin: Neyi nasıl ölçeceğinize karar verin. Sorduğunuz soruların sonucunda ortaya çıkacak cevapları, hangi niteliklerine göre ölçeceğinizi önceden bilmelisiniz.
  • Veriyi Toplama: Artık açıkça belirlenmiş sorularınız ve ölçüm öncelikleriniz belirlendiğine göre verinizi toplamaya ve düzenlemeye başlayabilirsiniz. Önce mevcut veri tabanlarından ne toplanabildiğine bakın. Zamandan tasarruf etmek ve mükerrer veri oluşumunu önlemek için bir dosya depolama ve isimlendirme sistemi oluşturun. Topladığınız datayı tarihlerle beraber loglayın.
  • Veriyi Analiz Edin: Bu aşamadan sonra, topladığınız veriyi manipüle ederek sonuçlarda ve çıkarımlarda bulunacaksınız. Trendlerin, korelasyonların, varyasyonların ve aykırı değerlerin analizi sizi ulaşmak istediğiniz noktaya götürecektir.
  • Sonuçları Yorumlayın: Yorumlamaya başladıkça kendinize şu anahtar soruları sormalısınız: Veriler sorulara cevap veriyor mu? Nasıl veriyor? Veriler herhangi bir itiraza karşı cevabı savunmanıza yardımcı oluyor mu? Nasıl?

Verileri yorumlamanız tüm bu soru ve düşüncelerin karşısında tutarlıysa, muhtemelen verimli bir sonuca varmışsınızdır.

 

Büyük Veri (Big Data) Analiz Yöntemleri Nelerdir?

Global olarak en yaygın kullanılan altı çeşit veri analiz yöntemi vardır. A/B Testi, Veri Füzyonu ve Veri Entegrasyonu, Veri Madenciliği, Makine Öğrenmesi, Nörolinguistik Programlama (NLP) ve İstatistik olarak sıralanabilir.

Firmalar, pazarlarında rekabetçi kalabilmek için, müşteriler, ürünler ve hizmetlerle ilgili her geçen gün büyüyen bilgileri bulmaya ve analiz etmenin yeni yollarını keşfetmeye çalışıyorlar. Büyük veriden değer yaratmak için GTech, firmanızın büyük veri ihtiyaçları için en uygun büyük veri platformunun (Hadoop, NoSQL vb.) ve kapasitesinin belirlenmesi ve bilgi güvenliği politikanıza uyumlu olacak şekilde altyapısının oluşturulması için büyük veri ve analitik hizmetleri sağlar. Striim’in gerçek zamanlı veri entegrasyonu sayesinde müşterilerinize daha hızlı yanıt verin, daha iyi kararlar alın ve işinizi büyütün. Striim, CDC verisinin alınması ve işlenmesinin yanında akan veri analitiği ve görselleştirmeyi de aynı çatı altında birleştiren uçtan uca tek platformdur. Striim’in anomali ve pattern tespit özelliği, bulut entegrasyonu ve kolay kullanımı ile büyük verinin gerçek gücünü keşfedin! Denemek ve daha fazla bilgi sahibi olmak için demo talebi sayfamıza göz atabilirsiniz.