
Bilgisayar bilimi, bilgisayarların tasarımı ve kullanımı için temel oluşturan teori, deney ve mühendislik çalışmasıdır. Hesaplamaya ve uygulamalarına bilimsel ve pratik bir yaklaşımdır. Bilgisayar bilimi; edinim, temsil, işleme, depolama, iletişim ve erişimin altında yatan yönteme dayalı prosedürlerin veya algoritmaların fizibilitesi, yapısı, ifadesi ve mekanizasyonunun sistematik çalışmasıdır. Bilgisayar biliminin alternatif, daha özlü tanımı "büyük, orta veya küçük ölçekli algoritmik işlemleri otomatikleştirme çalışması" olarak nitelendirilebilir. Bir bilgisayar bilimcisi, hesaplama teorisi ve hesaplama sistemlerinin tasarımı konusunda uzmanlaşmıştır.
Veri madenciliği, büyük ölçekli veriler arasından faydalı bilgiye ulaşma, bilgiyi madenleme işidir. Büyük veri yığınları içerisinden gelecekle ilgili tahminde bulunabilmemizi sağlayabilecek bağıntıların bilgisayar programı kullanarak aranması olarak da tanımlanabilir.
Oracle Corporation, merkezi Austin, Teksas'da bulunan, Amerika Birleşik Devletleri merkezli çok uluslu bilgisayar teknolojisi şirketidir. Microsoft'un ardından dünyanın en büyük ikinci yazılım şirketidir. 120.000'i aşkın çalışanı, 380.000'den fazla müşterisi ile 145 ülkede faaliyet göstermektedir.

Kayaç, çeşitli minerallerin veya mineral ve taş parçacıklarının bir araya gelmesinden ya da bir mineralin çok miktarda birikmesinden meydana gelen katı birikintilerdir. Kayaç terimi eski Türkçede sahre, yeni Türkçede külte ve yabancı dillerdeki rock, roche, gestein sözcükleri karşılığı kullanılmaktadır.

SPSS bilgisayar programı, ilk sürümü 1968 yılında piyasaya verilmiş istatistiksel analize yönelik bir bilgisayar programıdır. Uzun bir dönem bu program SPSS Inc. adını taşıyan bir ABD asıllı şirket tarafından hazırlanıp sürüme sokulup satılmıştır. 2009'da bu şirket ve bu programın sahipliliği IBM şirketine satılmıştır. Bu tarihten sonra bir geçiş döneminde PASW Statistics adıyla anılıp Ağustos 2010 'dan itibaren resmen IBM SPSS Statistics olarak isimlendirilmeye başlanmıştır. Şu anda en son versiyon IBM SPSS Statistics 24.0 olup bu versiyon Mart 2016'dan itibaren pazarlanmaya başlanmıştır.21 Mart 2018 tarihinde Wayback Machine sitesinde arşivlendi.

Nükleer ve yüksek enerji fiziği (YEF) deneyleri boyut, süreç ve eder bakımlarından çok büyük ölçeklidir. Bu dev sistemler, bünyelerinde bulunan alt dedektör sistemlerinden gelen veriyi uygun bir biçimde kalıcı veri saklama birimlerine kaydederler. Kaydedilen bu verinin dedektörlerden alınıp sürekli olarak saklanacakları birimlere gönderilmesi işlevi veri toplama sistemi aracılığı ile sağlanır.

Makine öğrenimi (ML), veriden öğrenebilen ve görünmeyen verilere genelleştirebilen ve dolayısıyla açık talimatlar olmadan görevleri yerine getirebilen istatistiksel algoritmaların geliştirilmesi ve incelenmesiyle ilgilenen, yapay zekâda akademik bir disiplindir. Makine öğrenimi, bilgisayarların deneyimlerinden öğrenerek karmaşık görevleri otomatikleştirmeyi sağlayan bir yapay zeka alanıdır. Bu, veri analizi yaparak örüntüler tespit etme ve tahminlerde bulunma yeteneğine dayanır. Son zamanlarda yapay sinir ağları, performans açısından önceki birçok yaklaşımı geride bırakmayı başardı.

De Re Metallica, cevherden metal üretme sürecini anlatan ilk yazılı eser. Madencilik ve maden cevherlerinin arıtma ve izabe süreçleri hakkında bilgi veren kitap 1556 yılında yayımlandı. Yazarı Georgius Agricola mahlasını kullanan Alman bilim insanı Georg Bauer'dir.

İş zekası veya kısaca: BI, iş amaçları için ham veriyi anlamlı ve kullanışlı bilgiye dönüştüren teorilerin, yöntemlerin, süreçlerin, mimarilerin ve teknolojilerin bir kümesidir. BI yeni fırsatlar tanımlamak ve geliştirmeye yardım etmek için büyük miktarlarda bilgi yönetir. Yeni fırsatların ve etkili strateji gerçekleştirmek için bir rekabet piyasası avantajı ve uzun soluklu kararlılık sağlar.

Weka, makine öğrenimi amacıyla Waikato Üniversitesinde geliştirilmiş ve "Waikato Environment for Knowledge Analysis" kelimelerinin baş harflerinden oluşmuş yazılımın ismidir. Günümüzde yaygın kullanımı olan çoğu makine öğrenimi algoritmalarını ve metotlarını içermektedir.
Tableau merkezi Seattle, ABD'de bulunan bir iş yazılımıdır. İş zekası odaklı verinin görselleşmesini sağlayan interaktif bir yazılımdır.

Metin madenciliği, çalışmaları metni veri kaynağı olarak kabul eden veri madenciliği çalışmasıdır. Diğer bir tanımla metin üzerinden yapısallaştırılmış veri elde etmeyi amaçlar. Metin madenciliği, metinlerin sınıflandırılması, bölütlenmesi, metinlerden konu çıkarılması, metinler için sınıf taneciklerinin üretilmesi, metinlerde görüş analizi yapılması, metin özetlerinin çıkarılması ve metinin özü ile ilgili ilişki modellemesi gibi çalışmaları hedefler.

Gözetimli öğrenme ya da denetimli öğrenme, bilinen etiketler ve özellikler kullanarak bir fonksiyon öğrendiğimiz, makine öğreniminin önemli bir alt dalıdır. Bu yöntem, eğitim veri seti kullanılarak öğrenilen modelin, yeni ve bilinmeyen veri noktalarını doğru bir şekilde tahmin etmesini amaçlar.
Bir Tıklama Akışı, bir bilgisayar kullanıcısının web'de gezinirken veya başka bir yazılım uygulamasını kullanırken tıkladığı ekran bölümlerinin kaydedilmesidir. Kullanıcı web sayfasında veya uygulamada herhangi bir yeri tıklattığında, eylem bir istemcide veya web sunucusunda, ayrıca muhtemelen web tarayıcısı, yönlendirici merkezinde, proxy sunucusu veya reklam sunucusunda günlüğe kaydedilir. Tıklama Akışı analizi, web etkinliği analizi, yazılım testi, pazar araştırması ve çalışan verimliliğini analiz etmek için yararlıdır.

KNIME (Telaffuz/naɪm/) ismi Konstanz Information Miner yani Konstanz Bilgi Madencisinin kısaltmasından oluşmuştur. KNIME açık kaynak ve çapraz platform veri analizi, raporlama, entegrasyon platformudur. KNIME, modüler veri hattı konsepti aracılığıyla makine öğrenimi ve veri madenciliği için çeşitli bileşenleri içerir ve bu araçlara "node" denir. Görselleştirme, modelleme ve veri analizi için (ETL) temel veri önişleme nodelarını bir kullanıcı grafik arabiriminde herhangi bir kod yazmadan kullanılmasını sağlar.
Bilgisayar bilimi ve bilgisayar programlamasında sistem zamanı, bir bilgisayar sisteminin zaman geçişi kavramını temsil eder. Bu anlamda, zaman, takvim üzerinde gün geçişi de içerir.
Eğri uydurma, muhtemelen kısıtlamalara tabi olan bir dizi veri noktasına en iyi uyan bir eğriyi veya matematiksel fonksiyonu oluşturma işlemidir. Yerleştirilen eğriler, veri görselleştirmeye yardımcı olarak, hiçbir veri bulunmadığında bir fonksiyonun değerlerini çıkarmak ve iki veya daha fazla değişken arasındaki ilişkileri özetlemek için kullanılabilir.

Veri bilimi, yapılandırılmış ve yapılandırılmamış verilerden bilgi ve öngörü elde etmek için bilimsel yöntemleri, süreçleri, algoritmaları ve sistemleri kullanan çok disiplinli bir alandır. Veri bilimi veri madenciliği ve büyük verilerle ilişkilidir.
Veri analizinde, anomali tespiti, verilerin çoğunluğundan önemli ölçüde farklılaşarak şüphe uyandıran nadir öğelerin, olayların veya gözlemlerin tanımlanmasıdır. Tipik olarak anormal öğeler, banka dolandırıcılığı, yapısal bir kusur, tıbbi sorunlar veya bir metindeki hatalar gibi bir tür soruna dönüşecektir. Anormallikler ayrıca aykırı değerler, yenilikler, gürültü, sapmalar ve istisnalar olarak da adlandırılmaktadır.
İstatistikte, keşifsel veri analizi, genellikle istatistiksel grafikler ve diğer veri görselleştirme yöntemlerini kullanarak temel özelliklerini özetlemek için veri kümelerini analiz etme yaklaşımıdır. İstatistiksel bir model kullanılabilir veya kullanılamaz. Ancak öncelikle EDA, verilerin bize resmi modelleme veya hipotez testi görevinin ötesinde neler söyleyebileceğini görmek için vardır. Keşifsel veri analizi, istatistikçileri verileri keşfetmeye ve muhtemelen yeni veri toplama ve deneylere yol açabilecek hipotezler formüle etmeye teşvik etmek için John Tukey tarafından desteklenmiştir. EDA, model uydurma ve hipotez testi için gereken varsayımları daha dar bir şekilde kontrol etmeye ve eksik değerleri ele almaya ve gerektiğinde değişkenlerin dönüşümlerini yapmaya odaklanan ilk veri analizinden farklıdır. EDA, IDA'yı kapsamaktadır.