Описание систем для обработки больших данных HPE
Системы обработки больших данных HPE представляют собой унифицированную платформу, созданную специально для анализа и обработки всех типов корпоративных данных в режиме реального времени. Данная платформа содержит предназначенный для автоматической обработки и анализа неструктурированных данных программный комплекс HPE IDOL, а также высокопроизводительный механизм HPE Vertica, обеспечивающий анализ структурированных данных в режиме реального времени.
Основные функции и преимущества решений
- Системы обработки больших данных HPE обеспечивают максимальное быстродействие: ответ на запросы пользователей выдается моментально, с нужным качеством и без замедления других процессов. Решения обеспечивают высокую производительность существующих приложений, позволяют разрабатывать новые аналитические алгоритмы и легко масштабируются.
- Доступны функций расширенной аналитики: анализ временных рядов, анализ разрывов и предиктивный анализ. Эти и другие функции позволят ускорить масштабируемые в широком
- диапазоне возможности машинного обучения, статистического анализа и построения диаграмм - при этом пользователи систем смогут использовать привычные статистические пакеты и языки.
- Представленные решения обеспечивают совместимость с имеющимися инструментами: с программными продуктами для извлечения, передачи и загрузки данных (например, Attunity, Informatica, Syncsort, Talend, Pentaho) и с решениями для визуализации на базе SQL (Logi Analytics, Looker, MicroStrategy, Qlik, Tableau, Talena). Все компоненты и инструменты системы соответствуют новейшей (SQL 2011) версии стандарта ANSI SQL.
- Системы обработки больших данных HPE способность вмещать и обрабатывать огромные объемы данных: концепция массового параллелизма является идеальной технологией для масштабирования аналитической обработки данных.
- Тесная интеграция с Hadoop позволяет воспользоваться всеми преимуществами данной платформы, избежать снижения производительности и возможных сбоев. Системы обеспечивают использование Hadoop в качестве экономичного решения, позволяющего долго хранить данные и легко управлять ими, ускорив при этом выполнение как обычных, так и аналитических запросов к хранилищу данных.