13 февраля 2018

GPU внутри Google Kubernetes


Google предоставил возможность использования графических ускорителей внутри контейнеров Google Kubernetes.

Технология контейнеризации продолжает набирать обороты и благодаря конкуренции на платформе Google Kubernetes, де-факто ставшей стандартом, облачные провайдеры стремятся предложить как можно больше сервиса, чтобы переманить клиентов в своё облако, благо, что переехать из одного облака в другое теперь можно в несколько кликов.

На этот раз Google предложил своим пользователям возможность использовать внутри контейнеров Google Kubernetes реальные графические адаптеры для вычислений, что позволяет легко, а главное относительно дешёво, реализовать свою модель искусственного интеллекта или 3D симуляцию, например виртуальную аэродинамическую трубу.

Зачем всё это надо?

Основная цель облачных решений - это снизить для конечного заказчика себестоимость поддержки ИТ инфраструктуры, за счёт унификации и полной автоматизации всех процедур. Однако, в случае контейнеризации добавляется ещё пара эффектов. 

Во-первых, благодаря тому, что в контейнере (в отличие от виртуальных машин) происходит экономия памяти и процессора за счёт совмещения контекстов ОС внутри одного узла, на одном и том же узле контейнеров помещается больше, чем виртуальных машин с теми же параметрами доступного размера памяти, что позволяет снизить цену на использование контейнеров относительно виртуальных машин. 

Во-вторых, обязанность по обслуживанию ОС перекладывается на администратора кластера Kubernetes (в данном случае облачного провайдера), что приводит к значительной экономии на лицензиях (в случае с платными ОС) и трудозатратах.

Более того, благодаря стандартизации контейнеров, конечные заказчики могут перемещать их между облаками, реагируя на снижение цен и прочие выгодные условия по акциям от облачных провайдеров, что потенциально позволяет съэкономить ещё больше. Возможность использования графических ускорителей продолжает это направление благодаря тому, что для некоторых классов задач, вычисления на базе GPU на порядки производительней, чем на базе CPU, а потому, использование каждого контейнера с GPU может заменить множество контейнеров с CPU, что потенциально может привести просто к огромной экономии.

В общем, если раньше, для качественного моделирования ваших продуктов в динамически меняющейся среде, например моста через пролив, требовалось построить собственный датацентр за приличные деньги, то теперь вы можете решить туже задачу прямо в браузере, из консоли Google Developer, с помощью создания виртуального кластера контейнеров с GPU, за цену сравнимую или меньшую, чем плата за электроэнергию для вашего старого датацентра.
Отправить комментарий