90’larda başlayan dijitalleşme olgusu günümüzde bütün hayatımızı kapsamaktadır. Her yaştan ve her statüden insan bütün gün teknoloji ile içi içe bulunup gerek telefon gerek bilgisayar gerekse internet üzerinde dijital dünyada var olmaktadır. Bu var oluş sonucu kullanılan her türlü uygulamada veriler oluşmaktadır. Örneğin, Sosyal medya platformları, platformlararası çalışma özelliğine sahip mesajlaşma ve arama uygulamaları ve video barındırma siteleri gibi bir çok uygulama içerisinde saniyeler içinde milyarlarca fotoğraf, beğeni, mesaj ve video gibi veriler oluşturulmaktadır. Anlık iletişim ve paylaşımlar haricinde de kurumsal şirketler nezdinde de kullanılan yazılım, bilgisayar sistemleri aracılığıyla bir çok programla veriler üretilmektedir.

Bu veriler bir şekilde depolanmaktadır. Ancak teknoloji çağında olduğumuz göz önünde bulundurulduğunda, depolama; bir yere kutulayıp kaldırmak olarak düşünülemez. Günümüzde veriler, internete bağlı cihazlar, yazılımlar ve uygulamalar üzerinde oluşturulup depolanmaktadır.

Bahsedilen verilerin oluşması ve depolanması ile büyük bir veri sistemi oluşur ve buna büyük veri (big data) denir. Big data aynı amanda şimdiye kadar bildiğimiz yöntem ve uygulamalar ile işlenemeyen veya izlenemeyen veri olarak da anılmaktadır.

Büyük verinin bu denli çeşitli ve kapsayıcı olması oldukça önemlidir. Ancak burada bulunan verilerden fayda sağlanabilmesi veya burada bulunan faydalı bilgilerin elde edilebilmesi için yapay zekanın kullanılması gerekmektedir. Büyük veriden gerçek ve tam bir verim alınabilmesinin yolu yapay zeka kullanılmasıdır. Yapay zeka, büyük veri incelenirken fark 1 Bilgi Üniversitesi – Bilişim Ve Teknoloji Hukuku Yüksel Lisans – Öğrenci Numarası 118692025 2 edilmeyen ilişkilerin kurulmasını sağlayarak hedefe yönelik kesin sonuçlara ulaşılmasına imkan vermektedir.

İşbu yazı kapsamında, büyük veri ve yapay zeka kavramları ile büyük veriden faydalanılabilmesi için yapay zekanın daha fazla geliştirilmesine ihtiyaç olduğu konularına değinilecektir.

Büyük Veri Ve Yapay Zeka Arasındaki İlişki

Verilerin bu yoğunlukta ve hızla artması büyük bir veri ambarı veya veri gölleri oluşturulmasına sebep olmaktadır.2 Big data(büyük veri) terimi de bu çağırışımdan ortaya çıkmaktadır. Ancak “big data” sadece çok fazla verinin bir araya gelmesi değil, şimdiye kadar bildiğimiz yöntemler ve araçlar ile artık işleyemediğimiz veri anlamına da gelmektedir. 3

Teknolojinin gelişmesiyle birlikte; bilgisayar, internet, telefon ve her türlü elektronik eşyayı günlük hayatımızda sıklıkla kullanır hale geldik. Bunun sonucu olarak da bu bahsedilen teknolojilerin ürettiği veriler depolanmaktadır. Aynı zamanda verilerin içeriğinden anlamlı sonuçların çıkarılması ve gerektiğinde kullanılması için devletler, kuruluşlar veya insanlar tarafından pek çok veri toplanmaktadır. Bu verilerin hepsi günümüz teknolojisi sayesinde elektronik ortamlarda var olmaktadır. Bir filtre olmaksızın her türlü verinin bir sistemde var olması, bu verilerin analiz edilmesini oldukça karmaşık hale getirmektedir. Bu sebeple
big data (büyük veri) kavramı verilerin işlenebilmesi durumda bir anlam ifade edebilmekte aksi halde büyük bir karmaşa oluşturmaktadır. Big data’nın temel kaynaklarını medya verileri, bulut verileri, internet verileri, nesnelerin internet verileri4 , geleneksel ve modern anlamdaki veri tabanlarıdır.

Büyük veri olarak isimlendirilen sistemden bahsedilirken yalnızca hacimsel büyüklük kastedilmemektedir. Farklı kaynaklardan, farklı biçimde elde edilen her türlü verinin anlamlı bir hale getirilerek işlenmesi gerekmektedir.

“Geleneksel veri işleme araçları ile analizi yapılamayan ve yönetilemeyecek kadar büyük miktardaki veri setleri” olarak tarif edilen büyük veri, kısaca 5V diyebileceğimiz beş kavram ile betimlenmektedir:

Variety (Çeşitlilik), Velocity (Hız), Volume (Hacim), Verification (Doğrulama) ve Value (Değer).6 Bu kavramları kısaca açıklamak gerekirse;

Variety (Çeşitlilik): Üretilen verilerin tek tip olmadığı ve birçok farklı kaynaktan elde edilen veri formatlarından oluştukları için bütünleşik ve birbirlerine dönüştürülebiliyor olmasını tanımlamaktadır.

Velocity (Hız): Büyük veri üretiminin her geçen saniye inanılması güç boyutlara ulaşmasını olarak tanımlanmaktadır. Hızla büyüyen veri, o veriye karşılayacak olan işlem sayısının ve çeşitliliğinin de ona paralel olarak büyüme göstermesi gerektirmektedir. Bu verinin karşılanabileceği yazılım ve donanımlarında büyümesi bir zorunluluktur.

Volume (Hacim): Büyük verinin yukarıda belirtilen şekilde katlanarak hızla artması gelecekte veri yığınlarının nasıl istifleneceği sorunsalını ve buna göre plan yapılma zorunluluğunu getirmektedir.

Verification (Doğrulama): Bahse konu veri sistemi içerisinde akış sırasında gelen verilerin güvenli olup olmadığının teyit edilerek gelen verinin adrese teslimi yani doğru kişiler tarafından görülebilmesi veya saklanması gerekmektedir.

Value (Değer): En önemli katmandır. Veriler yukarıdaki veri bileşenlerinde filtrelendikten veya işleme alındıktan sonra çıkan sonucun işleme sokulan veriden bir fazlası yani artı değer sağlayacak nitelikte olması gerekmektedir.

Yukarıda bahsedilen aşamaların sonucunda verilerin işlenmesi ve kullanılması değerlendirilmiş olup büyük veriden ayrıştırılabilecek veriler ortaya çıkmaktadır.

Üretilen ve depolanan veriler gün geçtikçe sayısını arttırmaktadır. Çünkü, günümüzde teknolojik gelişmeler çok hızlı özümsenmekte ve gelişen teknolojiye bütün insanlar hızla ayak uydurmaktadır. Bunun sonucu olarak da dijital alanda depolanan verilerin sayısı, çeşidi ve 6 Mehmet Akif Ersoy Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 2017/12, Büyük Veri Analizinde Yapay Zeka ve Makine Öğrenmesi Uygulamaları, Muhammet Atalay, Enes Çelik 4 depolanma hızı artmaktadır. Örneğin, Domo (2016) tarafından hazırlanan “Data never sleeps 4.0” projesi kapsamında Haziran 2016 verilerine göre, yalnızca bir dakika içerisinde; Youtube video paylaşım sitesine kullanıcılar tarafından 400 saatlik video yüklemesinin gerçekleştirildiği, Twitter üzerinden 9.678 adet emoji içerikli tweet atıldığı, Google’ da 69.500.000 kelime tercüme edildiği, sadece Amerikalı kullanıcıların mobil cihazlarla yaklaşık 18.000 GB veri kullandıkları, Facebook Messenger kullanıcılarının 216.302 adet fotoğraf paylaştıkları, Instagram kullanıcılarının paylaşılan görüntüler için 2.430.555 adet beğeni yaptıkları ve Amazon web sitesinden 222.283 $ satış yapıldığı tespit edilmiştir.7

Günlük hayatta kullandığımız her türlü internet aracında bir veri üretiyor ve bunun depolanmasını sağlıyoruz. Örneğin, gönderdiğimiz e-posta ve paylaştığımız fotoğraf büyük veride yer alan ve depolanan bir veri konumundadır.

Büyük verinin gelişmesiyle birlikte artık veri saklamak oldukça kolay hale gelmişken bu verileri işleyip değerlendirmek önem kazanmıştır. Çünkü, verilerin işlenmesi ile büyük veride yer alan veriler anlam kazanmakta aksi halde bu oluşumun bir anlamı olmamaktadır. Örneğin; Google bilgiyi kullanmada öncü bir firmadır. Kullanıcısına sayısız ürünü ücretsiz bir şekilde sunup bunun karşılığında kullanıcıların veri üretmesini sağlıyor. Daha sonra bu verileri iyi bir şekilde analiz edip kullanarak paraya dönüştürüyor. Bu döngüyü sağlayabilen firmalar dijitalleşmiş dünyada rakiplerine göre bir adım daha önde bulunmaktadırlar. Bir başka örnek olarak; kredi kartı servisi veren Visa ile dünya üzerinde gerçekleşen milyarlarca veri incelenerek dolandırıcılık vakaları ile çok daha hızlı ve daha doğru şekilde müdahale edilebiliyor. Visa alışılagelmişin dışında alışverişler gerçekleştiğinde, büyük verinin analiziyle oluşturduğu “olağan” satın almalar ile karşılaştırıp bunun dışındakiler için uyarı oluşturabiliyor. Sadece dolandırıcılık ile mücadele alanında büyük verinin kullanımı Visa’ya senelik 2 milyar dolar tasarruf sağlıyor.8

Özellikle gelişen teknolojinin hızla yaygınlaşmasıyla birlikte, çok fazla veri hızla üretilmekte ve depolanmaktadır. Bu verilerin depolanmasının avantajları yanında dezavantajlar da ortaya çıkabilir. Depolanan veriye bağlı olarak bu verinin işlenmesi veya saklanmasıyla ilgili birtakım güvenlik veya mahremiyet problemleri ortaya çıkabilmektedir. Bu sebeple veri işleme süreçlerinde geleneksel veri sistemleri yerine daha gelişmiş yöntemlerin kullanılması 7 Mehmet Akif Ersoy Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 2017/12, Büyük Veri Analizinde Yapay Zeka ve Makine Öğrenmesi Uygulamaları, Muhammet Atalay, Enes Çelik 8 http://www.termodinamik.info/bilgi/buyuk-veri-big-data 5 gerekmektedir. Örneğin; bilgisayar bilimi, makine öğrenmesi, yapay zeka ve istatistik gibi oluşumların kullanılması gibi. Kaldı ki, verilerin kullanılabilmesi ve büyük verinin sadece bir karmaşadan ibaret olmaması için bu sistemler üzerinden verilerin işlenip anlamlı hale getirilme zorunluluğu doğmaktadır.

Yukarıda açıklandığı üzere, büyük veriden işlenebilir verilerin elde edilebilmesi için yapay zeka gibi sistemlere ihtiyaç vardır. Bu doğrultuda, big data ile yapay zeka, makine öğrenmesi ve nesnelerin interneti (IoT) gibi alanlarda da paralel olarak gelişmeler olmuştur. Aslında IoT cihazların artması büyük verinin doğumuna yol açtığı söylenmektedir. IoT(Internet of Things), makinelerin birbiri ile konuşmasıdır. Yeni teknolojiler sayesinde evinize yaklaştığınız an ekmek kutunuz ekmeğin bittiğini veya internete bağlı olan buzdolabınız yumurtanın olup olmadığını siz yoldayken size mesaj atarak bildirebilir ya da direk markete sipariş verebilir.9

Yapay zeka; akıl yürütme, deneyimden öğrenme ya da insanlarla doğal dilde etkileşim kurma gibi insan zekasının özelliklerini sergileyebilen sistemlerdir. Bu sistemde insan beyni model olarak alınmaktadır. Yapay zeka çalışmaları günlük hayatın farklı alanlarında kullanılmasının dışında tahmin, sınıflandırma ve kümeleme gibi amaçlar için de kullanılmaktadır.

Başlıca; uzman sistemler, genetik algoritmalar, yapay sinir ağları, makine öğrenmesi gibi teknikler, yapay zeka teknolojileri olarak adlandırılmaktadır. Genel anlamda yapay zekadan kastedilen; insan zekasının, sinir sistemi, gen yapısı gibi fizyolojik ve nörolojik yapısının ve doğal olayların modellenerek makinelere (bilgisayar ve yazılımlara) aktarılmasıdır. Özetle yapay zeka; “insan gibi düşünen, insan gibi davranan, akılcı (rasyonel) düşünen ve akılcı davranan” canlıların zekice olarak kabul edilen davranışlarına sahip bilgisayar sistemleridir ve makine öğrenmesi bu anlamda yapay zekanın son evresi olarak kabul edilmektedir.10

Yapay zeka çalışmalarıyla yakından ilgili olan makine öğrenmesi, karmaşık görüntüleri algılama ve veriye dayalı akılcı kararlar verebilme becerisine sahiptir.

Makine öğrenmesinin genel tanıma göre; bilgisayarların algılayıcı veri tabanları gibi veri türlerine dayalı öğrenimi mümkün kılan algoritmaların tasarım ve geliştirme süreçlerini konu edinmektedir. Makine öğrenimi; bilgisayar görme yetisi, doğru dil işleme, arama motorları, tıbbi tanı, DNA dizilerinin sınıflandırılması, konuşma ve el yazısı tanıma, oyun oynama, yazılım mühendisliği 9 https://www.mustafaturkoz.com/2017/01/big-data-yapay-zeka-ve-makine-ogrenmesi.html 10 Mehmet Akif Ersoy Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 2017/12, Büyük Veri Analizinde Yapay Zeka ve Makine Öğrenmesi Uygulamaları, Muhammet Atalay, Enes Çelik 6 ve uyarlamalı web sitelerinin oluşturduğu bir robot dinamiğidir. Makine öğrenmesi, bir problemi o probleme ait veriye göre modelleyen bilgisayar algoritmalarının genel adıdır.

Büyük verinin içinde barındırılan veriler hiçbir parametreden geçmeden depolanmaktadır. Bu sebeple verilerin her birinin işlevsel ve kullanılabilir olması mümkün değildir. Verilerin hepsinin dijital ortamda depolandığı da göz önünde bulundurulduğunda, söz konusu verilerin işlenip yararlı hale getirilebilmesi daha karmaşık bir hal almaktadır. Bu sebeple, verilerin işlenmesinde klasik sistemlerin dışında yapay zeka ve bu sistemin getirdiği teknolojilerin kullanılması gerekmektedir.

Ayrıca Makine öğrenmesinin artması için alıştırma yapmak üzere veriye ihtiyaç vardır. Fakat web üzerinde çok miktarda veri sağlansa da yapılandırılmamış verilerdir. Bu veriler makine öğrenmesinde oldukça faydalıdır. 11Bunun olumlu sonuçları bir çok alanda da gözlemlenmiştir. Çıkan verinin kalitesi ve doğruluğu alıştırma yapılan verilerin ve makine öğrenmesinin gelişimine bağlıdır.

Yapay zekanın kullanımım artması ile büyük veride yer alan veriler kolayca işlenip kullanılabilir hale gelecektir. Bu şekilde, verileri depolayan tüm sistemlerin kullanılmasının bir amacı olacak ve sistemdeki verileri işleyip kullanan şirketler faaliyet kalitelerini arttıracaktır. Dünyada yapay zekanın önemi gün geçtikçe daha çok fark edilmektedir. Örneğin, MIT (Massachusetts Institute of Technology) ve BCG (Boston Consulting Group)’un iş adamları ile yaptığı bir anket sonucuna göre, katılan karar vericilerin yüzde 60’ı yapay zekanın iş hayatını önümüzdeki beş senede çok ciddi anlamda değiştireceğini düşünüyor.12 Bunun sebebi ise yapay zekanın kullanımı ile büyük veride bulunan verilerin işlenebilir hale gelmesi sonucunda şirketlerin elde edeceği avantaj ve buna bağlı olarak kazanacakları kardır. Buna bir başka örnek olarak, Defne Telekomünikasyon Genel Müdürü Oğuz Haliloğlu’nun “Faaliyet gösterdiğimiz alanda, telekomünikasyon sektöründe yapay zekanın önemi büyük. Gerçek zamanlı harmanlanmış büyük verinin yapay zeka ile analiz edilmesi sayesinde operatörler, abonelerinin ihtiyaçlarını doğru zamanda belirleme imkanı buluyor. Yapay zekanın anlamlandırması sayesinde hedefe ve hedefin ihtiyacına yönelik çözümler, servisler üretebiliyor. Bu sayede satış gelirleri ve başarı oranı artıyor.” Yaptığı açıklama gösterilebilir. 11 https://www.quora.com/How-are-Big-Data-and-Artificial-Intelligence-related 12 http://www.termodinamik.info/bilgi/yapay-zeka 7

Büyük veride yer alan verilerin herhangi bir kategorisi bulunmamaktadır. Bu veriler arasında, kişisel verilerden şirketlerin sistemlerinde yer alan bilgilere kadar her türlü veri yer almaktadır. Bu sebeple, verilerin işlenilip kullanılması her kesimden insan için önem taşımaktadır. Bir bilgisayar uygulamasında kullanıcının verileri büyük veride toplanmaktadır. Uygulamanın kurucusu olan şirket tarafından yapay zeka teknolojisi geliştirilerek büyük veride yer alan kullanıcı verilerinin işlenmesi ve bu verilere göre uygulayıcıya daha iyi hizmet verilmesi durumunda iki taraflı bir kazanç doğacaktır. Uygulamayı kullan kişinin memnuniyeti artarken uygulama sahibi şirketin ise kazancında artış olacaktır. Örneğin, Netflix uygulaması kullanıcıya internet üzerinden film ve dizi izleme hizmeti sunmaktadır. Ancak Netflix’i diğer uygulamalardan ayıran bir özelliği bulunmaktadır. Netflix kullanıcılarına dair verileri depoluyor ve uygulamada daha sonra kullanıcıya sunulan tüm önerilerini, tekliflerini bu bilgilere göre kişiye özel hale getiriyor. Netflix, işlenen verileri kullanıp değerlendirmek üzere kullanıcısına avantajlar yaratma politikası benimsemiş bir şirkettir. Bu sebeple rakiplerinden farklılaşmaktadır.

Büyük, hızlı ve çeşitli olan veri topluluğundan anlamlı ve değerli bilgi edinmek için geliştirilen yöntemlerin tümüne büyük veri analizi denmektedir. Büyük veri analizinin sağlanması için gerekli olan ise yapay zekanın geliştirilmesidir. Her kategoriden veriyi içinde barındıran büyük verinin işlevsel hale gelebilmesi ancak depolanan verilerin amacına uygun şekilde kullanılmasıyla sağlanabilir. Bu amacı gerçekleştirmek ise ancak yapay zeka ve bu sistemin uzantılarıyla mümkündür. Öncelikle yapay zekanın geliştirilmesine önem veren kuruluşlar yukarıda açıklanan örneklerde de görüldüğü üzere rakiplerine göre farklılık yaratarak bir adım önde yer alan şirketleri oluşturmaktadır. Büyük veriden tam fayda sağlanabilmesinin yolu yapay zeka teknolojisi geliştirmekten geçmektedir. Bu şekilde yapay zekanın kullanım alanlarının artması ile büyük verinin de gelişmesini sağlanacaktır.