Big Data ve Cloud Eğitimi

Big data günümüzde üretilen, geleneksel yol/yöntemlerle yönetilmesi efektif ve ekonomik olmayan
boyuttaki büyük verinin adıdır. Big data dünyasında çeşitli teknolojiler, büyük boyutlu veriyi
yönetmek adına kullanıcıların hizmetine sunulmaktadır. Bu teknolojilerle yazılımcıların boyutu her
geçen gün artmakta olan devasa bilgi okyanusu ile mücadele edebilmesi kolaylaştırmaktadır
Bulut sistemleri farklı sistem gereksinimlerine göre kullanıcıların ihtiyacı olan altyapıyı sağlayıp
uygulamaların geliştirilmesi ve çalıştırılmasını sağlanmaktadır.
Bu eğitim programı, katılımcılara Big Data teknolojileri ve Cloud çözümleriyle büyük boyutlu veri ile
çalışma pratiği sağlamak, ayrıca geliştirilen uygulamaların taşınabilirliğinin nasıl artırılabileceğini en
etkin çözümlerle ortaya konulması amaçlıyoruz.

Eğitim Hedefleri

Hadoop MapReduce ile dağıtık mimari üzerinde veri işleme
HDFS dosya sistemi üzerinde büyük boyutlu veri depolama
Hadoop Java arayüzü üzerinden HDFS dosya sisteminde okuma/yazma işlemleri gerçekleştirme
NoSQL ile büyük ölçekli verileri performanslı depolama, sorgulama
MongoDB replica set kullanımıyla büyük boyutlu verilerin ulaşılabilirliğini arttırma
Elasticsearch ile metin ve data analizi, büyük ölçekli veri sorgulama
Nginx ile load-balancig ve fail-over yönetimi, ayrıca Elasticsearch Cluster’ını güvenli kılma
Hazelcast ile verilerinizi sunucularınız üzerinde dağıtıklaştırabilme
OpenShift PaaS ile Cloud tabanlı uygulamalar oluşturmak, diğer sistemlerle entegre etmek hybrid
ortamlarda dağıtma
Docker ile uygulamalarınızı sanallaştırma ve sunucular arasında kolaylıkla taşıma

1. Oturum: MongoDB
2. Oturum: MongoDB
3. Oturum: MongoDB
4. Oturum: Hadoop
5. Oturum: Hadoop
6. Oturum: Hadoop
7. Oturum: ElasticSearch
8. Oturum: ElasticSearch
9. Oturum: ElasticSearch
10. Oturum: ElasticSearch
11. Oturum: Nginx & Hazelcast
12. Oturum: Docker
13. Oturum: Docker
14. Oturum: Docker & OpenShift

Copy Protected by Chetan's WP-Copyprotect.