Курсы Big Data

Курсы Big Data

«Большие данные» - это термин, который относится к решениям, предназначенным для хранения и обработки больших наборов данных Первоначально разработанные Google, эти решения для крупных данных эволюционировали и вдохновляли другие подобные проекты, многие из которых доступны как с открытым исходным кодом Некоторые примеры включают Apache Hadoop, Cassandra и Cloudera Impala Согласно сообщениям Gartner, BigData является следующим большим шагом в области ИТ сразу после Cloud Computing и станет ведущей тенденцией в ближайшие несколько лет Учебные курсы BigData на базе NobleProg начинаются с введения в элементарные концепции Big Data, а затем продвигаются к языкам программирования и методологиям, используемым для выполнения анализа данных Инструменты и инфраструктура для обеспечения возможности хранения больших объемов данных, распределенной обработки и масштабируемости обсуждаются, сравниваются и внедряются в демонстрационные сеансы Обучение BigData доступно в различных форматах, в том числе на живом тренинге на месте, а также обучение в режиме реального времени с использованием интерактивной настройки удаленного рабочего стола Местное обучение BigData может проводиться в прямом эфире на территории заказчика или в местных учебных центрах NobleProg.

Machine Translated

Отзывы

★★★★★
★★★★★

Big Data Содержание курса

Название курса
Длительность
Обзор
Название курса
Длительность
Обзор
21 часов
Python является масштабируемым, гибким и широко используемым языком программирования для науки о данных и машинного обучения. Spark - это двигатель обработки данных, используемый в поисках, анализе и трансформации крупных данных, в то время как Hadoop - это программная библиотека для хранения и обработки данных в большом масштабе. Этот инструктор-управляемый, живый тренинг (онлайн или на сайте) предназначен для разработчиков, которые хотят использовать и интегрировать Spark, Hadoop, и Python для обработки, анализа и трансформации больших и сложных наборов данных. К концу обучения участники смогут:
    Установите необходимую среду для начала обработки больших данных с помощью Spark, Hadoop, и Python. Понимает особенности, основные компоненты и архитектуру Спарка и Hadoop. Узнайте, как интегрировать Spark, Hadoop, и Python для обработки больших данных. Исследуйте инструменты в экосистеме Спарка (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka и Flume). Создайте совместные системы рекомендаций по фильтру, похожие на Netflix, YouTube, Amazon, Spotify и Google. Используйте Apache Mahout для масштабирования алгоритмов машинного обучения.
Формат курса
    Интерактивная лекция и дискуссия. Много упражнений и практики. Реализация в живой лабораторной среде.
Курс персонализации опций
    Для получения персонализированного обучения на этот курс, пожалуйста, свяжитесь с нами для организации.
14 часов
Waikato Environment for Knowledge Analysis (Weka) является программным обеспечением для визуализации добычи данных с открытым исходным кодом. Он предоставляет коллекцию алгоритмов машинного обучения для подготовки данных, классификации, кластеров и других видов деятельности по добыче данных. Этот инструктор-управляемый, живый обучение (онлайн или онлайн) направлено на аналитиков данных и ученых данных, которые хотят использовать Weka для выполнения задач по добыче данных. К концу обучения участники смогут:
    Настройка и настройка Weka Понимает Weka окружающую среду и рабочий баланс. Выполнение задач по добыче данных с использованием Weka.
Формат курса
    Интерактивная лекция и дискуссия. Много упражнений и практики. Реализация в живой лабораторной среде.
Курс персонализации опций
    Для получения персонализированного обучения на этот курс, пожалуйста, свяжитесь с нами для организации.
14 часов
IBM SPSS Modeler представляет собой программное обеспечение, используемое для обработки данных и текстовой аналитики. Он предоставляет набор инструментов по добыче данных, которые могут построить прогнозирующие модели и выполнять задания по анализу данных. Этот инструктор-управляемый, живый обучение (онлайн или онлайн) направлено на аналитиков данных или любого, кто хочет использовать SPSS Modeler для осуществления деятельности по добыче данных. К концу обучения участники смогут:
    Узнайте основные принципы Data Mining. Узнайте, как импортировать и оценивать качество данных с моделиром. Разработать, внедрять и эффективно оценивать модели данных.
Формат курса
    Интерактивная лекция и дискуссия. Много упражнений и практики. Реализация в живой лабораторной среде.
Курс персонализации опций
    Для получения персонализированного обучения на этот курс, пожалуйста, свяжитесь с нами для организации.
35 часов
Участники, которые завершают этот учебный курс, получат практическое, реальное понимание Big Data и связанных с ним технологий, методологий и инструментов. Участникам будет предоставлена возможность внедрить эти знания в практику с помощью практических упражнений. Групповое взаимодействие и обратная связь инструктора являются важным компонентом класса. Курс начинается с введения в элементарные концепции Big Data, затем прогрессирует в языки программирования и методологии, используемые для выполнения Data Analysis. Наконец, мы обсуждаем инструменты и инфраструктуру, которые позволяют Big Data хранение, распределенную обработку и Scala устойчивость. Формат курса
    Частная лекция, частичная дискуссия, практическая практика и реализация, время от времени квизирование для измерения прогресса.
21 часов
In this instructor-led, live training in Казахстан, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to:
  • Learn how to use Spark with Python to analyze Big Data.
  • Work on exercises that mimic real world cases.
  • Use different tools and techniques for big data analysis using PySpark.
7 часов
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
21 часов
Открытие знаний в базах данных (KDD) - это процесс обнаружения полезных знаний из коллекции данных. Реальные приложения для этой техники добычи данных включают в себя маркетинг, обнаружение мошенничества, телекоммуникации и производство. В этом учебном курсе, во главе с инструктором, мы внедряем процессы, связанные с КДД, и проводим ряд упражнений для практики реализации этих процессов. аудитории
    Аналитики данных или кто-то, кто заинтересован в изучении интерпретации данных для решения проблем
Формат курса
    После теоретической дискуссии о КДД инструктор представит реальные случаи, требующие применения КДД для решения проблемы. Участники будут готовить, выбирать и очищать наборы данных образцов и использовать свои предварительные знания о данных, чтобы предложить решения, основанные на результатах своих наблюдений.
14 часов
Apache Kylin является экстремальным, распределенным аналитическим двигателем для больших данных. В этом учебном курсе участники узнают, как использовать Apache Kylin для создания хранилища данных в режиме реального времени. К концу обучения участники смогут:
    Используйте данные потока в режиме реального времени с помощью Kylin Используйте мощные функции Apache Kylin's, богатый SQL интерфейс, спарк кубинг и вторичная заданность запроса
Примечание
    Мы используем последнюю версию Kylin (по этому письму, Apache Kylin v2.0)
аудитории
    Большие инженеры данных [ 0 ] Аналитики
Формат курса
    Частная лекция, частичная дискуссия, упражнения и тяжелая практика
14 часов
Datameer - платформа бизнес-аналитики и аналитики, построенная на Hadoop Это позволяет конечным пользователям получать доступ, исследовать и сопоставлять крупномасштабные, структурированные, полуструктурированные и неструктурированные данные простым способом В этом обученном, живом обучении участники узнают, как использовать Datameer для преодоления крутой кривой обучения Hadoop, когда они проходят настройку и анализ серии больших источников данных К концу этого тренинга участники смогут: Создавайте, курайте и интерактивно изучайте озеро данных предприятия Доступ к хранилищам данных бизнес-аналитики, транзакционным базам данных и другим аналитическим магазинам Используйте пользовательский интерфейс электронной таблицы для разработки конвейеров обработки данных endtoend Доступ к предварительно построенным функциям для изучения сложных отношений данных Используйте мастера draganddrop для визуализации данных и создания информационных панелей Используйте таблицы, диаграммы, графики и карты для анализа результатов запроса Аудитория Аналитики данных Формат курса Часть лекций, обсуждение частей, упражнения и тяжелая практика handson ,.
14 часов
Интеллектуальный анализ данных - это процесс выявления закономерностей в больших данных с помощью таких методов, как машинное обучение. Используя Excel в качестве аналитического пакета данных, пользователи могут выполнять анализ и анализ данных. Это интерактивное обучение под руководством инструктора (локальное или дистанционное) предназначено для ученых, которые хотят использовать Excel для интеллектуального анализа данных. К концу этого тренинга участники смогут:
  • Исследуйте данные с помощью Excel для анализа и анализа данных.
  • Используйте алгоритмы Microsoft для интеллектуального анализа данных.
  • Понимать концепции в интеллектуальном Excel данных Excel .
Формат курса
  • Интерактивная лекция и обсуждение.
  • Много упражнений и практики.
  • Практическая реализация в среде живых лабораторий.
Параметры настройки курса
  • Чтобы заказать индивидуальное обучение для этого курса, пожалуйста, свяжитесь с нами, чтобы договориться.
21 часов
Dremio является платформой данных с открытым исходным кодом, которая ускоряет поиск различных типов источников данных. Dremio интегрируется с относительными базами данных, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch и другими источниками данных. Он поддерживает SQL и обеспечивает веб-УИ для строительных запросов. В этом учебном курсе участники узнают, как установить, настроить и использовать Dremio в качестве унифицирующего слоя инструментов анализа данных и базовых хранилищ данных. К концу обучения участники смогут:
    Настройка и установка Dremio Выполнение запросов по нескольким источникам данных, независимо от расположения, размера или структуры Интегрируйте Dremio с BI и источниками данных, такими как Tableau и Elasticsearch
аудитории
    Ученые данных Business Аналитики Инженеры данных
Формат курса
    Частная лекция, частичная дискуссия, упражнения и тяжелая практика
Ноты
    Для получения персонализированного обучения на этот курс, пожалуйста, свяжитесь с нами для организации.
14 часов
The objective of the course is to enable participants to gain a mastery of how to work with the SQL language in Oracle database for data extraction at intermediate level.
21 часов
Apache Drill - это схематический, распределенный, inmemory столбчатый механизм запросов SQL для Hadoop, NoSQL и других облачных и файловых систем хранения Сила Apache Drill заключается в возможности объединения данных из нескольких хранилищ данных с использованием одного запроса Apache Drill поддерживает множество баз данных NoSQL и файловых систем, включая HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, хранилище Azure Blob, облачные хранилища Google, Swift, NAS и локальные файлы Apache Drill - это версия системы Dremel от Google с открытым исходным кодом, которая доступна в качестве службы инфраструктуры под названием Google BigQuery В этом обученном, живом обучении участники узнают основы Apache Drill, а затем используют мощь и удобство SQL для интерактивного запроса больших данных по нескольким источникам данных без написания кода Участники также узнают, как оптимизировать свои запросы Drill для распределенного выполнения SQL К концу этого тренинга участники смогут: Выполнение «самообслуживания» исследования структурированных и полуструктурированных данных на Hadoop Запрос, известный как неизвестные данные с использованием SQL-запросов Понимать, как Apache Drills получает и выполняет запросы Напишите SQL-запросы для анализа различных типов данных, включая структурированные данные в Hive, полуструктурированные данные в таблицах HBase или MapRDB и данные, сохраненные в таких файлах, как Parquet и JSON Используйте сверло Apache для выполнения обнаружения схемы thethefly, минуя необходимость сложных операций ETL и схемы Интегрируйте сверло Apache с инструментами BI (Business Intelligence), такими как Tableau, Qlikview, MicroStrategy и Excel Аудитория Аналитики данных Ученые данных Программисты SQL Формат курса Часть лекций, обсуждение частей, упражнения и тяжелая практика handson ,.
14 часов
Apache Arrow is an open-source in-memory data processing framework. It is often used together with other data science tools for accessing disparate data stores for analysis. It integrates well with other technologies such as GPU databases, machine learning libraries and tools, execution engines, and data visualization frameworks. In this onsite instructor-led, live training, participants will learn how to integrate Apache Arrow with various Data Science frameworks to access data from disparate data sources. By the end of this training, participants will be able to:
  • Install and configure Apache Arrow in a distributed clustered environment
  • Use Apache Arrow to access data from disparate data sources
  • Use Apache Arrow to bypass the need for constructing and maintaining complex ETL pipelines
  • Analyze data across disparate data sources without having to consolidate it into a centralized repository
Audience
  • Data scientists
  • Data engineers
Format of the Course
  • Part lecture, part discussion, exercises and heavy hands-on practice
Note
  • To request a customized training for this course, please contact us to arrange.
14 часов
  This instructor-led, live training (online or onsite) is aimed at software developers, managers, and business analyst who wish to use big data systems to store and retrieve large amounts of data. By the end of this training, participants will be able to:
  • Query large amounts of data efficiently.
  • Understand how Big Data system store and retrieve data
  • Use the latest big data systems available
  • Wrangle data from data systems into reporting systems
  • Learn to write SQL queries in:
    • MySQL
    • Postgres
    • Hive Query Language (HiveQL/HQL)
    • Redshift 
Format of the Course
  • Interactive lecture and discussion.
  • Lots of exercises and practice.
  • Hands-on implementation in a live-lab environment.
Course Customization Options
  • To request a customized training for this course, please contact us to arrange.
35 часов
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information. High-value government solutions will be created from a mashup of the most disruptive technologies:
  • Mobile devices and applications
  • Cloud services
  • Social business technologies and networking
  • Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured. But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog. The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it. The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge. Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.). Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
21 часов
Аудитория Если вы попытаетесь понять, какие данные у вас есть или вы хотите проанализировать неструктурированные данные, доступные в сети (например, Twitter, Linked in и т Д), Этот курс для вас Это в основном предназначено для лиц, принимающих решения, и людей, которым необходимо выбирать, какие данные стоит собирать и что стоит анализировать Он не нацелен на людей, настраивающих решение, однако эти люди получат выгоду от большой картины Режим доставки Во время курса делегатам будут представлены рабочие примеры, в основном, технологий с открытым исходным кодом За короткими лекциями последуют презентации и простые упражнения участников Используемое содержимое и программное обеспечение Все используемые программы обновляются каждый раз, когда запускается курс, поэтому мы проверяем новейшие версии Он охватывает процесс получения, форматирования, обработки и анализа данных, чтобы объяснить, как автоматизировать процесс принятия решений с машинным обучением ,.
35 часов
Day 1 - provides a high-level overview of essential Big Data topic areas. The module is divided into a series of sections, each of which is accompanied by a hands-on exercise. Day 2 - explores a range of topics that relate analysis practices and tools for Big Data environments. It does not get into implementation or programming details, but instead keeps coverage at a conceptual level, focusing on topics that enable participants to develop a comprehensive understanding of the common analysis functions and features offered by Big Data solutions. Day 3 - provides an overview of the fundamental and essential topic areas relating to Big Data solution platform architecture. It covers Big Data mechanisms required for the development of a Big Data solution platform and architectural options for assembling a data processing platform. Common scenarios are also presented to provide a basic understanding of how a Big Data solution platform is generally used.  Day 4 - builds upon Day 3 by exploring advanced topics relatng to Big Data solution platform architecture. In particular, different architectural layers that make up the Big Data solution platform are introduced and discussed, including data sources, data ingress, data storage, data processing and security.  Day 5 - covers a number of exercises and problems designed to test the delegates ability to apply knowledge of topics covered Day 3 and 4. 
21 часов
«Большие данные» - это термин, который относится к решениям, предназначенным для хранения и обработки больших наборов данных Первоначально разработанные Google, эти решения для крупных данных эволюционировали и вдохновляли другие подобные проекты, многие из которых доступны как с открытым исходным кодом R - популярный язык программирования в финансовой индустрии ,.
14 часов
Когда традиционные технологии хранения не обрабатывают объем данных, необходимых для хранения, есть альтернативы Этот курс помогает привлечь участников к тому, что является альтернативой для хранения и анализа больших данных, и каковы их плюсы и минусы Этот курс в основном сосредоточен на обсуждении и представлении решений, хотя бесплатные упражнения доступны по требованию ,.
14 часов
Курс является частью набора навыков Ученых данных (Domain: Data and Technology) ,.
35 часов
Большие данные - это наборы данных, которые настолько объемны и сложны, что традиционные прикладные программы обработки данных неадекватны для решения этих проблем Большие проблемы с данными включают в себя сбор данных, хранение данных, анализ данных, поиск, обмен, передачу, визуализацию, запрос, обновление и конфиденциальность информации ,.
14 часов
Vespa - отличная технология обработки данных и обслуживания, созданная Yahoo Он используется для ответа на запросы пользователей, предоставления рекомендаций и предоставления персонализированного контента и рекламы в режиме реального времени Эта обучаемая тренировка, предназначенная для инструкторов, знакомит с задачами предоставления обширных данных и участия участников через создание приложения, которое может вычислять ответы на запросы пользователей, в больших наборах данных в реальном времени К концу этого тренинга участники смогут: Используйте Vespa для быстрого вычисления данных (хранения, поиска, ранжирования, организации) во время обслуживания, пока пользователь ждет Внедрение Vespa в существующие приложения, включающие поиск функций, рекомендации и персонализацию Интеграция и развертывание Vespa с существующими большими системами данных, такими как Hadoop и Storm Аудитория Разработчики Формат курса Часть лекций, обсуждение частей, упражнения и тяжелая практика handson ,.
14 часов
Для обеспечения соответствия регуляторов CSP (провайдеры услуг связи) могут подключаться к Big Data Analytics, которые не только помогают им удовлетворять требованиям, но и проекта они могут повысить удовлетворенность клиентов и, таким образом, уменьшить отток Действительно, поскольку соблюдение связано с качеством обслуживания, связанным с контрактом, любая инициатива по , улучшит «конкурентное преимущество» ПСУ Поэтому важно, чтобы Регуляторы должны иметь возможность консультировать / направлять набор аналитических практик Big Data для CSP, которые будут быть взаимной выгодой между регулирующими органами и ПСУ 2 дня курса: 8 модулей, 2 часа каждый = 16 часов ,.
35 часов
Достижения в области технологий и растущий объем информации трансформируют то, как осуществляется правоохранительная деятельность Проблемы, стоящие перед большими данными, почти столь же сложны, как обещание Big Data Одной из таких проблем является эффективное хранение данных; Эффективный анализ его - другой В этом обученном на курсах тренинге, участники узнают мышление, с помощью которого можно подойти к технологиям Big Data, оценить их влияние на существующие процессы и политику и внедрить эти технологии с целью выявления преступной деятельности и предотвращения преступности Изучаются примеры из правоохранительных организаций по всему миру, чтобы получить представление о подходах, проблемах и результатах их внедрения К концу этого тренинга участники смогут: Комбинируйте технологию Big Data с традиционными процессами сбора данных, чтобы собрать историю во время расследования Реализовать промышленные решения для хранения и обработки данных для анализа данных Подготовьте предложение о принятии наиболее адекватных инструментов и процессов для обеспечения подхода к уголовному расследованию Аудитория Специалисты правоохранительных органов с технической базой Формат курса Часть лекций, обсуждение частей, упражнения и тяжелая практика handson ,.
14 часов
Эта обучающая сессия, основанная на классе, будет изучать большие данные Делегаты будут иметь компьютерные примеры и практические занятия по конкретным ситуациям для проведения соответствующих информационных инструментов ,.
14 часов
Цель : этот учебный курс направлен на то, чтобы помочь участникам понять, почему Big Data меняет нашу жизнь и как она изменяет то, как компании видят нас как потребителей Действительно, пользователи больших данных в компаниях находят, что большие данные раскрывают множество информации и информации, которые переводят на более высокую прибыль, снижение затрат и меньший риск Тем не менее, недостаток был разочарованием иногда, когда уделял слишком много внимания отдельным технологиям и не уделял достаточного внимания основам большого управления данными Участники курса узнают на этом курсе, как управлять большими данными, используя три уровня интеграции данных, управление данными и безопасность данных, чтобы превратить большие данные в реальную ценность бизнеса Различные упражнения, проводимые по тематическому исследованию управления клиентами, помогут участникам лучше понять основные процессы ,.
7 часов
This instructor-led, live training in Казахстан (online or onsite) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data. By the end of this training, participants will:
  • Understand the evolution and trends for machine learning.
  • Know how machine learning is being used across different industries.
  • Become familiar with the tools, skills and services available to implement machine learning within an organization.
  • Understand how machine learning can be used to enhance data mining and analysis.
  • Learn what a data middle backend is, and how it is being used by businesses.
  • Understand the role that big data and intelligent applications are playing across industries.
7 часов
Apache Sqoop — интерфейс командной строки для перемещения данных из реляционных баз данных и Hadoop. Apache Flume является распределенным программным обеспечением для управления большими данными. Используя Sqoop и Flume, пользователи могут передавать данные между системами и импортировать большие данные в архитектуры хранения данных, такие как Hadoop. Это обучение под руководством инструктора (на месте или удаленное) предназначено для инженеров-программистов, которые хотят использовать Sqoop и Flume для передачи данных между системами. К концу обучения участники смогут:
  • Глотать большие данные с Sqoop и Flume.
  • Проемные данные из нескольких источников данных.
  • Перемещение данных из реляционных баз данных в HDFS и Hive.
  • Экспортные данные из HDFS в реляционную базу данных.
Формат курса
  • Интерактивная лекция и дискуссия.
  • Много упражнений и практики.
  • Практическая реализация в условиях живой лаборатории.
Параметры настройки курса
  • Чтобы запросить индивидуальное обучение для этого курса, пожалуйста, свяжитесь с нами, чтобы организовать.
28 часов
Talend Open Studio для Big Data является открытым кодом ETL-инструментом для обработки больших данных. Она включает в себя среду развития для взаимодействия с Big Data источниками и целями, а также для выполнения работ без необходимости написания кода. Это инструктор-управляемое, живое обучение (онлайн или на сайте) направлено на технических лиц, которые хотят развернуть Talend Open Studio для Big Data для упрощения процесса чтения и крушения через Big Data. К концу обучения участники смогут:
    Настройка и настройка Talend Open Studio для Big Data. Свяжитесь с Big Data системами, такими как Cloudera, HortonWorks, MapR, Amazon EMR и Apache. Понимать и установить большие компоненты данных и соединители Open Studio. Настройка параметров для автоматического генерирования кода MapReduce. Используйте интерфейс Open Studio's drag-and-drop для выполнения Hadoop рабочих мест. Прототип крупных трубопроводов данных. Автоматизированные проекты интеграции больших данных.
Формат курса
    Интерактивная лекция и дискуссия. Много упражнений и практики. Реализация в живой лабораторной среде.
Курс персонализации опций
    Для получения персонализированного обучения на этот курс, пожалуйста, свяжитесь с нами для организации.

Last Updated:

выходные Big Data курсы, курсы Big Data выходного дня, вечерние Big Data курсы, Big Data технические учебные курсы, Big Data буткемп, Big Data буткэмп, Big Data курсы с инструктором, Big Data тренинг с инструктором, выходной Big Data тренинг, тренинг Big Data выходного дня, вечерние Big Data курсы, Big Data коачинг, Big Data тренерство, Big Data тренинг, Big Data инструктор, Big Data тренер, Big Data коач, Big Data курсы, Big Data занятия, Big Data локальные, Big Data частные занятия, Big Data частные курсы, Big Data индивидуальный тренинг, Big Data индивидуальные занятия

Скидки

В настоящее время акции не проводятся

Информационная рассылка

Мы уважаем конфиденциальность Ваших персональных данных. Мы обязуемся не передавать Ваши данные третьим лицам. Вы всегда можете изменить свои настройки конфиденциальности или полностью отказаться от подписки.

Наши клиенты

is growing fast!

We are looking for a good mixture of IT and soft skills in Kazakhstan!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

Этот сайт в других странах / регионах