Участие РДТЕХ в круглом столе "Новая отрасль бизнеса или опора существующего?"
В круглом столе принимают участие: Алексей ЛАГУТИН, ведущий аналитик, РДТЕХ Алексей МЕЩЕРЯКОВ, руководитель направления платформенных решений, SAS Россия/СНГ Никита РОГАТОВ, заместитель начальника отдела инфраструктурного программного обеспечения, «Открытые Технологии» Дмитрий СЕРГЕЕВ, директор по развитию программных решений, «Инфосистемы Джет» Руслан ХАЙРУЛЛОВ, заместитель директора департамента инжиниринговый центр, компания «Техносерв» Дмитрий ШЕПЕЛЯВЫЙ, заместитель генерального директора, SAP СНГ Александр ЯКОВЛЕВ, менеджер по развитию бизнеса СХД, Fujitsu Ирина ЯХИНА, руководитель подразделения технологических решений, Hitachi Data Systems
Что именно вы понимаете под быстрыми данными? Дайте, пожалуйста, собственное определение. Чем обусловлено появление термина «быстрые данные»? Как соотносятся между собой эти два понятия – «большие данные» и «быстрые данные»?
Алексей ЛАГУТИН:
Предполагаю, что есть две основные причины, по которым в последнее время активно продвигается термин «быстрые данные». Первая причина – маркетинговая. Технологическую основу того, что сегодня называется Big Data, составляют open-source – инструменты и платформы. Традиционные крупные поставщики коммерческих решений фактически оказались в стороне от фарватера этого движения. Отдельные оригинальные продукты типа СУБД Vertica от HP общей погоды не делают. Очевидно, что у вчерашних монополистов рынка в такой ситуации нет большой мотивации вкладываться в продвижение Big Data. И нужно было придумать новый рыночный сегмент. Поэтому в очередной раз был выполнен хорошо отработанный маневр: под растяжкой Fast Data баллотируются проверенные временем продукты и технологии.
Вторая причина – объективная сложность моделей Big Data и высокие требования к пользователям. Как свидетельствует эволюция аналитических бизнес-приложений, на протяжении последних 20 лет инженерные требования к пользователю таких систем снижались обратно пропорционально расширению функционала систем. Многочисленные сотрудники всевозможных аналитических подразделений во всем мире привыкли считать, что ответы на разнообразные вопросы находятся если не на первом, то на втором экране информационной системы. Тут появляются большие данные и предлагают совершенно иной подход, в рамках которого под каждую задачу фактически собирается новая мини-система. От пользователя вдруг требуется не только понимание бизнес-задачи, но и техническое умение обращаться с данными. А еще все эти сложные алгоритмы… В результате в тех организациях, где не были сформированы специализированные группы data scientists, у традиционных аналитиков по поводу больших данных возникло легкое замешательство.
На этом фоне быстрые данные представляются логичным компромиссом – решать простые задачи традиционными методами. Но делать это быстро! И полезно и всем понятно.
Потребность в решении аналитических задач на больших объемах данных, поступающих в реальном времени, действительно существует. Например, оперативное выявление мошенничества в гетерогенных сетях, блокирование фишинговых атак или комплексное противодействие финансовым злоупотреблениям. И если продвижение темы быстрых данных поможет структурировать ИТ-бюджеты и выделить финансирование на решение этих задач, то это уже неплохо.
Читать всю статью на connect-wit.ru