UncategorizedгаджетыНовостиразработчиктехнология

Джон ДеДжардинс о непрерывном интеллекте и вычислениях в памяти

Подпишитесь на:






Вступление [00:15]

Томас Беттс: Здравствуйте, и спасибо, что посмотрели еще один выпуск подкаста InfoQ. Я Томас Беттс, соведущий подкаста. Ведущий редактор по архитектуре и дизайну в InfoQ и старший главный инженер-программист Blackbaud.

У меня была возможность поговорить с Джоном ДеДжарденом из Hazelcast. Джон ранее был на подкасте, чтобы поговорить о сетках данных в памяти. Мы вернули его, чтобы обсудить концепцию непрерывного интеллекта. Это сдвиг парадигмы от традиционной бизнес-аналитики, основанный на соответствующем переходе от пакетного ETL и отчетности к непрерывной обработке потоковых данных. Хотя используемые языки, такие как Python и SQL, знакомы разработчикам и специалистам по данным, вы должны уделять особое внимание характеристикам данных временных рядов, особенно в сценариях, близких к реальному времени.

Мы рассказываем о текущем состоянии используемых инструментов и технологий, почему компании применяют непрерывный интеллект, чтобы оставаться конкурентоспособными, и даже немного расскажем, как будет выглядеть будущее обработки и анализа данных. Надеюсь, вам понравится наше обсуждение.

Джон, спасибо, что присоединились ко мне сегодня в подкасте InfoQ.

Джон ДеДжардинс: Спасибо, что пригласили меня. Рад быть здесь.

Томас Беттс: Я хотел начать с этой первой строчки из вашей биографии, фразы «сверхбыстрая вычислительная платформа в оперативной памяти». Теперь, когда я слышу в памяти, первое, что приходит мне в голову, – это кеширование. Я чувствую, что дело не только в этом. Не могли бы вы рассказать мне немного о том, что предоставляет платформа?

Обзор вычислений в памяти [01:33]

Джон ДеДжардинс: Конечно, конечно. Кэширование, безусловно, было одним из первых приложений хранения данных в памяти для ускорения работы. Собственно, Hazelcast уже давно известен как решение, помогающее с распределенным кешированием. Вместо того, чтобы просто кэшировать на вашем локальном сервере, вы могли бы распределить и масштабировать его по кластеру серверов, чтобы вы могли разместить больше данных и получить другие преимущества.

Но с тех пор Hazelcast и вычисления в памяти прошли долгий путь. На самом деле причина в том, что память стала намного дешевле, скажем, за последние 15 лет. По мере того, как он стал дешевле, вы можете разместить больше данных на сервере, больше DRAM, и это открыло больше возможностей для более высокой плотности в решениях такого типа. Это также открыло потенциал для большего количества вариантов использования.

Сегодня люди читают и пишут в Hazelcast, чтобы иметь время отклика менее миллисекунды, где бы ни находился их код приложения. Это первое и главное, для чего использовались вычисления в памяти. Это выходит за рамки кеша, который больше касается чтения, но также имеет быструю запись. Затем мы можем асинхронно записывать данные в систему записи. Ваши изменения записываются в Hazelcast, а затем мы записываем их асинхронно. Это ускоряет не только чтение, но и права.

Но следующее, что вы начнете делать, у вас есть все эти данные и память, вы хотите начать запрашивать данные или смотреть на группировку данных, агрегирование данных и фильтрацию данных. Вы начинаете использовать его как базу данных в памяти. Так что это вроде как первая фаза эволюции.

На следующем этапе эволюции вы могли делать гораздо больше, чем просто агрегировать или запрашивать эти данные, но на самом деле, если вы запускаете код в кластере, вы можете воспользоваться преимуществом локальности данных, что означает, что код работает вместе с данными. Кроме того, если вы сделаете данные кода осведомленными, вы можете убедиться, что он работает именно в том разделе и на сервере, где находится определенное подмножество данных. Это позволяет выполнять сверхбыстрые вычисления.

Теперь мы можем не только читать и записывать данные или выполнять базовые запросы, но мы даже можем выполнять относительно сложные вычисления или машинное обучение с данными. Таким образом, это своего рода то место, куда переместилась эволюция гридов данных, но мы сделали еще один шаг и сказали, что вычисления с низкой задержкой – это не только атомарные операции. Но как насчет того факта, что данные создаются непрерывно каждое мгновение? Вы можете подумать о таких вещах, как Интернет вещей, или даже о широком распространении мобильных устройств и о том факте, что люди все больше и больше делают на своих телефонах.

Объем создаваемых данных резко увеличился. Скорость этих данных взорвалась. Это больше данных, и они постоянно создаются. Возможность распознавать эти данные и мгновенно отвечать – еще одно преимущество, которое могут дать вычисления в памяти. Мы перешли на уровень потоковой обработки с малой задержкой или потоковой аналитики, как это иногда называют. В настоящее время большое количество данных распространяется через хранилище событий, такое как Kafka или Apache Pulsar. Возможность немедленно реагировать на эти события по мере создания данных – это уникальная возможность, которую могут предоставить вычисления в памяти. Это действительно открывает целый ряд новых вариантов использования.

Томас Беттс: Это настоящее путешествие. Мне нравится, вот с чего мы начали, и вот как все продвигалось, потому что это явно больше, чем кеширование. Мне нравится идея попасть туда и провести анализ в реальном времени.

Непрерывный интеллект в реальном времени или пакетный ETL [05:24]

Томас Беттс: Одна из тенденций, которые мы наблюдали за последние несколько лет, – это отход компаний от традиционного извлечения, преобразования и загрузки ETL в пользу сокращения аббревиатуры. Меньше пакетной обработки, больше потоковой передачи данных. У нас также есть, как вы описали, Интернет вещей и мобильные устройства. Но прямо в вашей сети у вас есть распределенная система с множеством микросервисов, отправляющих сообщения. Имея возможность наблюдать за этим в режиме реального времени, а не ждать ночной работы, какие преимущества вы видите в возможности проверять эти данные в режиме реального времени для проведения анализа по сравнению с ожиданием в обычном режиме?

Джон ДеДжардинс: Одно из преимуществ того, что сейчас мы действительно можем реагировать в момент создания данных, состоит в том, что мы смогли начать определять закономерности в более реальном времени. Это часто применялось для поиска таких вещей, как мошенничество при платежах, или для выявления рисков при торговле ценными бумагами или, возможно, нежелательного торгового поведения.

Это были некоторые из вариантов использования, и, конечно же, в IOT у вас есть данные датчиков. Еще одним важным вариантом использования была возможность мгновенно реагировать на данные этих датчиков. Но поскольку мы создали эту возможность для еще более низкой задержки, и поэтому Hazelcast, это единственная платформа потоковой аналитики, которая была построена на основе сетки данных. У вас есть такие технологии, как Apache Spark, которые у нас были в Cloudera, когда я раньше работал в Cloudera. Cloudera больше оптимизирована для пакетной или даже микропакетной и быстрой пакетной обработки, но не обязательно оптимизирована для непрерывного интеллекта.

Когда вы входите в парадигму непрерывной обработки с малой задержкой, теперь вы действительно можете начать думать об изменении поведения приложений, чтобы сделать их более интеллектуальными. Например, вы можете посмотреть данные кредитной карты. Вы не только ищете мошенничества, но, возможно, мы могли бы даже подумать о предложениях в реальном времени. Кто-то находится на кассе, но что, если бы вы могли выдвинуть предложение и, кстати, сказать, что вы находитесь в Best Buy и покупаете телевизор, но знаете ли вы, что есть распродажа по X, Y и Z?

Что ж, в момент оформления заказа вы все еще находитесь в магазине и, возможно, сможете что-то добавить. Точно так же в розничном интернет-магазине еще проще определить, на что кто-то нажимает, какие продукты они ищут? Анализируя каждый клик, который вы делаете на своем телефоне, браузере или планшете, и имея возможность сказать, этот парень смотрит на мониторы, ему может понадобиться монитор, но раньше это выглядело так, как если бы вы часто получали предложения впоследствии, а иногда и вы бы даже просто получили ту жуткую рекламу, которая будет следовать за вами после того, как вы что-то купите: «Эй, а тебе нужен кронштейн для монитора?» Вы типа, я только что купил монитор и купил дешевый кронштейн для монитора, но если бы вы сказали мне, что он мог бы дать мне сделку на модный кронштейн для монитора, я мог бы это сделать. Но теперь вы делаете мне предложение постфактум “.

Это похоже на старые времена в CVS, как раньше, я даже не знаю, продолжают ли они это делать, но это показывает, как часто я выхожу и делаю покупки лично в наши дни. Вы получали длинную распечатку купонов после того, как купили, и половина из них была на купоны на товары, которые вы только что купили. Вы думаете, я бы хотел иметь купоны раньше, и мне не приходилось копить их неделями и возвращаться.

Так что предложения такого рода в режиме реального времени – это то, что мы видим как большой всплеск в банковском деле, розничной торговле и даже в сфере путешествий, когда мы возвращаемся к путешествиям. Персонализация в реальном времени – отличное применение этой технологии. Тогда, конечно, получение данных в реальном времени и реагирование с малой задержкой имеет особое значение для таких вещей, как промышленный мониторинг. Одна из вещей, которые может сделать Hazelcast, – это то, что наша платформа также работает где угодно, а это означает, что у нас есть клиенты, использующие ее внутри промышленных объектов, так что они фактически находятся в этой локальной сети и, следовательно, могут отвечать в миллисекундах или микросекундах окна. время, которое действительно могло бы предотвратить катастрофический отказ или, возможно, сократить время работы, чтобы максимально продлить срок службы компонента до того, как он потребует обслуживания.

Весь этот вариант использования в реальном времени с низкой задержкой, он просто открывает гораздо больше способов заставить приложение вести себя по-другому, в отличие от традиционной науки о данных, типа: вы анализируете много данных, вы создаете модель, вы можете затем примените его и используйте для прогнозирования поведения. Затем, если вам нравится, что модель действительно набирает обороты, возможно, вы нанимаете разработчика, который возьмет эту модель и создаст оптимизированную версию этого алгоритма, которая может работать, но раньше это было очень нестандартное усилие, чтобы взять машинное обучение и прогнозную аналитику и встроить их в приложение, чтобы они действительно могли сделать это приложение более интеллектуальным.

Благодаря вычислениям в памяти и потоковой обработке вы можете делать это более естественно и многократно. Вот что открылось. Некоторые люди думают об этом, поскольку есть момент или окно возможностей, и чем уже окно возможностей, чтобы сделать предложение или предпринять действия для предотвращения проблемы, тем больше эти технологии действительно вступают в игру и повышают ценность.

Примеры из розничного бизнеса [10:53]

Томас Беттс: Думаю, вы что-то сказали о новой парадигме, и это одна из тех вещей, которые мы не часто видим, что что-то должно измениться, и компаниям потребуется некоторое время, чтобы принять их. Теперь у нас есть технология, которая может помочь нам в этом, как мы можем изменить наш бизнес? Что мы не могли делать раньше? Поскольку это могло быть, возвращаясь к сценарию розничной торговли, многие люди читали бы квитанции и говорили: «О, вот что мы продали на прошлой неделе. Или они не продаются, нам нужно выставить их на продажу, чтобы найти способы соблазнить покупателей “, но это всегда медленный цикл обратной связи. Итак, вы говорите о более быстрой обратной связи.

Джон ДеДжардинс: В розничной торговле есть множество нюансов, как это можно применить. О, мы можем делать предложения в реальном времени, но почему бы нам также не проанализировать, каких запасов у нас может быть слишком много? Время от времени это может меняться. Предложение в реальном времени нужного продукта для клиента, но, возможно, также продукта, который мы хотели бы предложить по более низкой цене для перемещения этого инвентаря.

Тогда, даже когда вы перейдете на сторону выполнения, аналитика в реальном времени может означать, что я собираюсь убедиться, что я доставлю этот продукт из места с большим уровнем запасов или близко к центру распределения. Вы можете встроить алгоритмы, чтобы узнать, из какого места лучше всего отправлять заказы и отправлять их. В реальном времени так много разных нюансов.

Один из основных вариантов использования на самом деле в розничной торговле – просто убедиться, что есть продукты, которые можно обещать для заказа, потому что вы можете думать о том, как в Черную пятницу, верно? Многие люди складывают вещи в тележки для покупок. Некоторые из них – это такие вещи, как одежда или другие вещи, имеющие размер и цвет. У вас может быть товар на складе, но у вас может не быть продукта определенного цвета и размера, потому что кто-то просто положил его в свою корзину.

Вы не хотите совершить ошибку и совершить заказ, а затем отказаться от него, связаться с клиентом и сказать ему, что он недоступен. Это может быть очень дорого с точки зрения упущенной выгоды, а также плохого опыта. В то же время, когда миллионы людей находятся на вашем сайте, складывают вещи в разные тележки для покупок и тому подобное, необходимо выполнить огромное количество очень простых вычислений, чтобы точно отслеживать, что доступно в вашем инвентарь.

Томас Беттс: Тот факт, что сейчас это всегда происходит круглосуточно и без выходных. Раньше ваш магазин был открыт 8, 10, 12 часов в день, и вы могли предсказать, о, в эти дни он будет загружен. Но теперь люди делают покупки круглосуточно. У вас бывают всплески в течение дня, но у вас нет затишья, и как это изменится? Особенно в дни больших покупок. Так что это открыло множество бизнес-сценариев. Очевидно, что для розничной торговли есть много других примеров, и я уверен, что мы могли бы поговорить о других примерах, с какими препятствиями сталкиваются люди? Что мешает всем этим заниматься прямо сейчас? Это технологическая проблема? Это бизнес-проблема? Что ты там видишь?

Джон ДеДжардинс: Это отличный вопрос. Я думаю, что одним из препятствий является то, что люди просто больше осознают, что возможно с новейшими технологиями. И еще я думаю, что еще один ингибитор – это ожидания того, что это будет сложно. Это особенно верно для традиционных розничных торговцев, которые могут вкладывать большие средства в свою существующую инфраструктуру, и у них может быть то, что некоторые люди могут назвать техническим долгом или чем-то еще, что мешает им действовать и быстро реагировать на внедрение технологий, как некоторые из чисто онлайн.

Вы могли бы видеть, как Amazon или Wayfair, вероятно, с большей вероятностью быстрее воспримут эти виды технологий, но на самом деле сейчас, с COVID, переходные процессы и традиционные розничные торговцы все понимают, что они должны реагировать на эти сбои. Вы начинаете видеть тот сдвиг, когда люди действительно хотят узнать об этих технологиях и о том, как они могут помочь им стать более конкурентоспособными.

Другой барьер – это иногда просто создание правильной инфраструктуры. Именно здесь вступает в игру облако и возможность просто быстро развернуть технологию в облаке, часто используя Kubernetes, и тот факт, что вы даже можете использовать модели развертывания на основе контейнеров не только в облаке, но и на периферии. Так что, если вы хотите купить онлайн-самовывоз в магазине и получать предложения в режиме реального времени, заставить эту технологию работать как в магазине, так и в облаке раньше было непросто, но теперь можно просто развертывать вещи с помощью контейнеров и современных инструментов разработки CICD, и это позволяет вам не только быстрее развертывать новые технологии, но и вносить изменения, потому что часть ценности этого нового подхода, включающего микросервисы, обработку в реальном времени и машинное обучение в реальном времени, и все эти технологии, заключается в возможности их точной настройки. . Вы развертываете модель машинного обучения.

Реальная сила в том, если бы вы могли развернуть две версии этой модели и провести некоторое тестирование AB и посмотреть, какая из них действительно имеет лучший коэффициент конверсии. Или, может быть, вы развертываете модель, а затем пытаетесь развертывать еще одну каждые две недели, чтобы увидеть, улучшаете ли вы коэффициент конверсии, и можете ли вы откатить их. Такая маневренность, которая возможна сегодня, я думаю, действительно помогает немного ускорить темп.

Еще одна вещь, в которую мы инвестируем, – это попытки больше работать с поставщиками науки о данных, в частности, наше партнерство с IBM, с их пакетом Watson, а также наше партнерство с поставщиками облачных услуг. машинное обучение и ваш Python в потоковую передачу в реальном времени и иметь возможность запускать это на платформе с низкой задержкой. Это еще один аспект или барьер, который мы работаем, чтобы помочь людям преодолеть, потому что время, которое требуется от науки о данных для создания нового алгоритма или модели машинного обучения, до возможности запустить его в производство, а затем выяснить, насколько хорошо он работает , сокращая этот цикл, вы, конечно же, открываете множество возможностей для большего.

Томас Беттс: Есть ли также вероятность того, что некоторые из этих моделей, я думаю, некоторые из них будут обнародованы. Вы можете загрузить модели для распознавания изображений, и я думаю, что я слышал некоторые для анализа мошенничества, что вы могли бы найти что-то, просто бросить это в свои данные и посмотреть, работает ли это. Это еще один способ стать быстрее.

Джон ДеДжардинс: Да. Фактически, большинство платформ машинного обучения начинают предлагать автономное машинное обучение, что на самом деле является той возможностью, чтобы иметь заранее определенные проверенные методы. Вы просто скажете ему, что это тот тип данных, который у меня есть, и он бросит на него кучу разных моделей и выяснит, какая из них будет работать лучше всего. Так что появляется все больше и больше инструментов, чтобы сделать это намного проще.

Как начать работу с Hazelcast для обработки потоков данных [17:32]

Томас Беттс: Ага. Думаю, вы уже упомянули несколько различных способов начать работу. Если кто-то хочет начать с этого, каков самый простой способ? Собираются ли они размещать себя или они собираются рассмотреть предложение управляемых услуг у одного из поставщиков облачных услуг? Допустим, у них, например, уже настроен Kafka, что нужно, чтобы оттуда начать?

Джон ДеДжардинс: Ага. Замечательно, если у вас уже есть Kafka, или если вы используете Pulsar или даже другие типы технологий сообщений, например, на основе JMS и тому подобное. Если вы уже получаете данные и настроены, в основном вы можете получить Hazelcast в качестве управляемой службы во всех трех облаках.

Джон ДеДжардинс: Мы также находимся в коннекторе слияния, на торговой площадке концентратора, и мы доступны на торговых площадках поставщиков облачных услуг. Но многие люди просто работают с Kubernetes, поэтому это может быть так же просто, как использование Helm или оператора. У нас есть и то, и другое, что позволит вам очень быстро развернуть Hazelcast.

Hazelcast доступен как с открытым исходным кодом, так и для предприятий, который предлагает гораздо больше функций, связанных с нулевым временем простоя, операционным совершенством и безопасностью, и тому подобное. Но вы можете начать работу и запустить Hazelcast в считанные минуты. У нас есть соединители для всех разных мест, где вы, возможно, захотите получать данные в реальном времени, например, Kafka, поэтому мы можем работать очень быстро. У нас есть партнерские отношения с Mongo, DataStax, Confluent, а также со всеми этими облачными провайдерами. Таким образом, мы находимся в экосистеме, которая поможет вам быстро освоиться. На нашем сайте также есть много примеров, обучающих программ. У нас даже есть готовые демонстрационные версии решений, которые помогут вам решить некоторые из основных сценариев использования.

Мышление по-другому при работе с непрерывными данными временных рядов [19:09]

Томас Беттс: Я имею в виду, вы сказали, что есть демо-версии, что вы считаете лучшими практиками? Если кто-то хочет составить отчет, он внес свои данные в вашу систему, как они их получат? Как вы проводите анализ данных в реальном времени? Это просто Python? Это что-то более продвинутое, чем вы делали раньше? Вы должны думать об этом иначе, чем когда это был пакетный статический набор данных?

Джон ДеДжардинс: Что ж, вам нужно думать по-другому, когда вы думаете об обработке потока событий или потоковой аналитике, потому что данные находятся в движении, на которые вы пытаетесь ответить. Вам нужно начать думать о том, что это за промежуток времени, который я пытаюсь проанализировать и через какое время отреагировать? Если я анализирую данные, связанные с кредитными картами, и пытаюсь совершить мошенничество, мое окно времени для ответа может составлять миллисекунды.

Фактически, для многих компаний, занимающихся обработкой карт, их окно для авторизации в случае мошенничества составляет от 40 до 50 миллисекунд, что действительно меняет то, как вы думаете о логике и как вы ее выражаете. Что касается языков, мы можем выполнять Python и другие основные языки, такие как C # или C ++, на платформе.

Кроме того, у нас есть базовый API конвейера, написанный на Java, но тогда мы также можем выразить эту логику на SQL. Для многих людей SQL является наиболее простым в использовании, поскольку он достаточно знаком, но есть много людей, которым удобнее работать с Java, и поэтому он работает довольно хорошо. У вас есть несколько разных способов достичь этого с языковой точки зрения, и мы постоянно стремимся улучшить API, чтобы предоставить больше способов принять эту технологию.

Томас Беттс: Если вы обращаетесь к нему через API, он все еще работает близко к металлу, поэтому нет большого сетевого транзита, потому что, как вы можете сказать, вы можете запустить запрос в процессе, который кажется наиболее близким к нему , но вы все еще работаете с данными.

Джон ДеДжардинс: Да, конечно. Это не то же самое, что запуск SQL и получение данных обратно. Вы запускаете SQL в кластере. В традиционном мире баз данных это было бы чем-то вроде хранимой процедуры, в которой функция, определяемая пользователем, в этом мире, но вы в основном хотите думать о крошечных окнах данных и обогащать их историческими данными. Итак, у вас есть то, что происходит сейчас и что происходило в течение определенного периода времени. Как и клиент, что они делают прямо сейчас, а затем что они делали в последние годы, что, как мы знаем, может представлять интерес? Может быть, если они смотрят медиа, а вы Comcast или Netflix, тогда вы думаете о том, какие шоу им нравятся и какие шоу я должен им порекомендовать? Таким образом, это может варьироваться в зависимости от этого варианта использования.

Но у вас есть окно данных, через которое вы хотели ответить, а затем у вас есть более широкие окна данных, в которых вы просматриваете соответствующие идеи. Например, при торговле акциями вы можете смотреть на скользящую среднюю и у вас может быть несколько скользящих средних, например, часовая скользящая средняя скажет вам, рушится ли фондовый рынок. Но тогда вы также захотите взглянуть на месячную или шестимесячную скользящую среднюю, возможно, чтобы увидеть, какова тенденция для конкретной ценной бумаги думать о более долгосрочной ставке. Это примеры окон, которые вы видите с данными в контексте потоковой обработки.

Томас Беттс: Я рад, что вы провели сравнение для хранения процедурных или пользовательских функций, потому что в моей голове я думал именно об этом и не хотел неправильно применять эту метафору. Это, о, я пишу процедуру магазина, чтобы запустить эту вещь на сервере, потому что я думаю, что когда вы видите, что разработчик внедряет какую-то новую технологию, вы склонны переносить то, как вы выполняли обработку в прошлом. Вы можете делать что-то неправильно, это не подходит для правильных инструментов, но все еще существует идея, что вы можете писать на SQL, вы можете писать на Java, но что вам нужно изменить, как вы думаете, это данные временных рядов.

Джон ДеДжардинс: Точно. С потоковой передачей событий вы много думаете о временных рядах и последовательности. Если это происходит, а затем происходит это, это означает нечто иное, чем если бы это было наоборот. Итак, есть весь этот аспект рассмотрения событий и понимания закономерностей, последовательности, времени и что это означает? Это совсем другое мышление, которое вам нужно. Поскольку вы работаете на платформе и поскольку она находится в памяти и имеет локальность данных, вы получите производительность, особенно с Hazelcast. Так что это почти само собой разумеющееся. На самом деле это другое мышление о том, как писать запросы.

Прогнозы на будущее [23:48]

Томас Беттс: Каково текущее состояние этой идеи непрерывной разведки и как вы ее видите в ближайшие три-пять лет?

Джон ДеДжардинс: Да, это хороший вопрос. Я думаю, что сегодня вам все еще нужно много думать о своих данных и о том, что у вас есть технический код, у вас есть уровень данных, а затем понимание бизнес-контекста, например, думаю ли я о ком-то в магазине, или я думаю о датчиках на заводе?

Джон ДеДжардинс: Вы должны собрать все эти разные вещи вместе, чтобы все работало хорошо. Мы наблюдаем, как все движется в направлении этой комбинации таких вещей, как автоматический ML, в сочетании с большим количеством фреймворков и ускорителей, которые помогут вам лучше и проще решать варианты использования. Я думаю, что в будущем это просто будет чем-то, что потребует меньшего количества технических специалистов, может быть еще немного технической работы, чтобы запустить эту вещь, может быть, кто-то технический будет наблюдать за ней и устранять неполадки, если она сломается, но я думаю, что в будущем будет легче определить большую часть логики и функциональности. Я думаю, вот к чему все идет.

Я думаю, что еще одна вещь, которую мы наблюдаем, – это то, что все пытаются сделать эти платформы не только способными обеспечивать автоматическую обработку данных для создания интеллектуальных приложений, но и хотят, чтобы сами платформы были интеллектуальными. Так что увеличение и уменьшение масштаба, устранение сбоев и отказоустойчивости, настройка производительности и определение кода узких мест – все это также станет более автономным. Сами платформы движутся в сторону большей самонастройки и самоуправления, вместо того, чтобы понимать, что происходит под покровом.

Томас Беттс: Определенно звучит как отличная дорожная карта. Это была действительно хорошая дискуссия, я многому научился, но, к сожалению, у нас нет времени. Итак, Джон, где люди могут узнать больше о вас или Hazelcast?

Джон ДеДжардинс: Просто зайдите на hazelcast.com, и вы найдете на этом сайте всевозможную информацию о вариантах использования клиентами. Вы можете щелкнуть, чтобы начать работу и очень быстро получить учебные пособия и доступ к программному обеспечению. Так что да, приходите к нам, мы рады помочь вам. Я думаю, вы можете многое сделать, просто зайдя на наш сайт и начав работать самостоятельно.

Томас Беттс: Отлично. Еще раз спасибо John DesJardins за то, что присоединился ко мне сегодня.

Джон ДеДжардинс: Спасибо, что пригласили меня. Было приятно. Отличные вопросы и отличное обсуждение, с нетерпением жду следующего раза.

Томас Беттс: Наши слушатели, я надеюсь, вы скоро присоединитесь к нам снова для еще одного подкаста InfoQ.

О госте

Джон ДеДжардинс – главный технический директор Hazelcast, где он продвигает инновации в продуктах и ​​поддерживает внедрение нашей сверхбыстрой вычислительной платформы в оперативной памяти. Его опыт в крупномасштабных вычислениях охватывает машинное обучение, микросервисы, большие данные, Интернет вещей и облако. Он активный писатель и оратор. Джон обладает более чем 25-летним опытом разработки и внедрения вычислительных решений глобального масштаба в ведущих компаниях Global 2000, работая в Hazelcast, Cloudera, Software AG и webMethods. Он получил степень бакалавра экономики в Университете Джорджа Мейсона, где он впервые построил прогнозные модели задолго до того, как это считалось крутым.

.
С этой страницы у вас также есть доступ к нашим записанным заметкам о шоу. Все они имеют интерактивные ссылки, которые переведут вас прямо к этой части аудио.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button