Русский
Русский
English
Статистика
Реклама

Запускаем Apache Spark на Kubernetes

Дорогие читатели, доброго дня. Сегодня поговорим немного про Apache Spark и его перспективы развития.





В современном мире Big Data Apache Spark является де факто стандартом при разработке задач пакетной обработки данных. Помимо этого, он также используется для создания стриминговых приложений, работающих в концепции micro batch, обрабатывающих и отгружающих данные маленькими порциями (Spark Structured Streaming). И традиционно он являлся частью общего стека Hadoop, используя в качестве менеджера ресурсов YARN (или, в некоторых случаях, Apache Mesos). К 2020 году его использование в традиционном виде для большинства компаний находится под большим вопросом в виду отсутствия приличных дистрибутивов Hadoop развитие HDP и CDH остановлено, CDH недостаточно проработан и имеет высокую стоимость, а остальные поставщики Hadoop либо прекратили своё существование, либо имеют туманное будущее. Поэтому всё больший интерес у сообщества и крупных компаний вызывает запуск Apache Spark с помощью Kubernetes став стандартом в оркестрации контейнеров и управлении ресурсами в приватных и публичных облаках, он решает проблему с неудобным планированием ресурсов задач Spark на YARN и предоставляет стабильно развивающуюся платформу с множеством коммерческих и открытых дистрибутивов для компаний всех размеров и мастей. К тому же на волне популярности большинство уже успело обзавестись парой-тройкой своих инсталляций и нарастить экспертизу в его использовании, что упрощает переезд.


Начиная с версии 2.3.0 Apache Spark обзавёлся официальной поддержкой запуска задач в кластере Kubernetes и сегодня, мы поговорим о текущей зрелости данного подхода, различных вариантах его использования и подводных камнях, с которыми предстоит столкнуться при внедрении.


Прежде всего, рассмотрим процесс разработки задач и приложений на базе Apache Spark и выделим типовые случаи, в которых требуется запустить задачу на кластере Kubernetes. При подготовке данного поста в качестве дистрибутива используется OpenShift и будут приведены команды, актуальные для его утилиты командной строки (oc). Для других дистрибутивов Kubernetes могут быть использованы соответствующие команды стандартной утилиты командной строки Kubernetes (kubectl) либо их аналоги (например, для oc adm policy).



Первый вариант использования spark-submit



В процессе разработки задач и приложений разработчику требуется запускать задачи для отладки трансформации данных. Теоретически для этих целей могут быть использованы заглушки, но разработка с участием реальных (пусть и тестовых) экземпляров конечных систем, показала себя в этом классе задач быстрее и качественнее. В том случае, когда мы производим отладку на реальных экземплярах конечных систем, возможны два сценария работы:


  • разработчик запускает задачу Spark локально в режиме standalone;

  • разработчик запускает задачу Spark на кластере Kubernetes в тестовом контуре.


Первый вариант имеет право на существование, но влечёт за собой ряд недостатков:


  • для каждого разработчика требуется обеспечить доступ с рабочего места до всех необходимых ему экземпляров конечных систем;
  • на рабочей машине требуется достаточное количество ресурсов для запуска разрабатываемой задачи.

Второй вариант лишён данных недостатков, поскольку использование кластера Kubernetes позволяет выделить необходимый пул ресурсов для запуска задач и обеспечить для него необходимые доступы к экземплярам конечных систем, гибко предоставляя к нему доступ с помощью ролевой модели Kubernetes для всех членов команды разработки. Выделим его в качестве первого варианта использования запуск задач Spark с локальной машины разработчика на кластере Kubernetes в тестовом контуре.


Расскажем подробнее о процессе настройки Spark для локального запуска. Чтобы начать пользоваться Spark его требуется установить:


mkdir /opt/sparkcd /opt/sparkwget http://mirror.linux-ia64.org/apache/spark/spark-2.4.5/spark-2.4.5.tgztar zxvf spark-2.4.5.tgzrm -f spark-2.4.5.tgz

Собираем необходимые пакеты для работы с Kubernetes:


cd spark-2.4.5/./build/mvn -Pkubernetes -DskipTests clean package

Полная сборка занимает много времени, а для создания образов Docker и их запуска на кластере Kubernetes в реальности нужны только jar файлы из директории assembly/, поэтому можно собрать только данный подпроект:


./build/mvn -f ./assembly/pom.xml -Pkubernetes -DskipTests clean package

Для запуска задач Spark в Kubernetes требуется создать образ Docker, который будет использоваться в качестве базового. Здесь возможны 2 подхода:


  • Созданный образ Docker включает в себя исполняемый код задачи Spark;
  • Созданный образ включает в себя только Spark и необходимые зависимости, исполняемый код размещается удалённо (например, в HDFS).

Для начала соберём образ Docker, содержащий тестовый пример задачи Spark. Для создания образов Docker у Spark есть соответствующая утилита под названием docker-image-tool. Изучим по ней справку:


./bin/docker-image-tool.sh --help

С её помощью можно создавать образы Docker и осуществлять их загрузку в удалённые реестры, но по умолчанию она имеет ряд недостатков:


  • в обязательном порядке создаёт сразу 3 образа Docker под Spark, PySpark и R;
  • не позволяет указать имя образа.

Поэтому мы будем использовать модифицированный вариант данной утилиты, приведённый ниже:


vi bin/docker-image-tool-upd.sh

#!/usr/bin/env bashfunction error {  echo "$@" 1>&2  exit 1}if [ -z "${SPARK_HOME}" ]; then  SPARK_HOME="$(cd "`dirname "$0"`"/..; pwd)"fi. "${SPARK_HOME}/bin/load-spark-env.sh"function image_ref {  local image="$1"  local add_repo="${2:-1}"  if [ $add_repo = 1 ] && [ -n "$REPO" ]; then    image="$REPO/$image"  fi  if [ -n "$TAG" ]; then    image="$image:$TAG"  fi  echo "$image"}function build {  local BUILD_ARGS  local IMG_PATH  if [ ! -f "$SPARK_HOME/RELEASE" ]; then    IMG_PATH=$BASEDOCKERFILE    BUILD_ARGS=(      ${BUILD_PARAMS}      --build-arg      img_path=$IMG_PATH      --build-arg      datagram_jars=datagram/runtimelibs      --build-arg      spark_jars=assembly/target/scala-$SPARK_SCALA_VERSION/jars    )  else    IMG_PATH="kubernetes/dockerfiles"    BUILD_ARGS=(${BUILD_PARAMS})  fi  if [ -z "$IMG_PATH" ]; then    error "Cannot find docker image. This script must be run from a runnable distribution of Apache Spark."  fi  if [ -z "$IMAGE_REF" ]; then    error "Cannot find docker image reference. Please add -i arg."  fi  local BINDING_BUILD_ARGS=(    ${BUILD_PARAMS}    --build-arg    base_img=$(image_ref $IMAGE_REF)  )  local BASEDOCKERFILE=${BASEDOCKERFILE:-"$IMG_PATH/spark/docker/Dockerfile"}  docker build $NOCACHEARG "${BUILD_ARGS[@]}" \    -t $(image_ref $IMAGE_REF) \    -f "$BASEDOCKERFILE" .}function push {  docker push "$(image_ref $IMAGE_REF)"}function usage {  cat <<EOFUsage: $0 [options] [command]Builds or pushes the built-in Spark Docker image.Commands:  build       Build image. Requires a repository address to be provided if the image will be              pushed to a different registry.  push        Push a pre-built image to a registry. Requires a repository address to be provided.Options:  -f file               Dockerfile to build for JVM based Jobs. By default builds the Dockerfile shipped with Spark.  -p file               Dockerfile to build for PySpark Jobs. Builds Python dependencies and ships with Spark.  -R file               Dockerfile to build for SparkR Jobs. Builds R dependencies and ships with Spark.  -r repo               Repository address.  -i name               Image name to apply to the built image, or to identify the image to be pushed.    -t tag                Tag to apply to the built image, or to identify the image to be pushed.  -m                    Use minikube's Docker daemon.  -n                    Build docker image with --no-cache  -b arg      Build arg to build or push the image. For multiple build args, this option needs to              be used separately for each build arg.Using minikube when building images will do so directly into minikube's Docker daemon.There is no need to push the images into minikube in that case, they'll be automaticallyavailable when running applications inside the minikube cluster.Check the following documentation for more information on using the minikube Docker daemon:  https://kubernetes.io/docs/getting-started-guides/minikube/#reusing-the-docker-daemonExamples:  - Build image in minikube with tag "testing"    $0 -m -t testing build  - Build and push image with tag "v2.3.0" to docker.io/myrepo    $0 -r docker.io/myrepo -t v2.3.0 build    $0 -r docker.io/myrepo -t v2.3.0 pushEOF}if [[ "$@" = *--help ]] || [[ "$@" = *-h ]]; then  usage  exit 0fiREPO=TAG=BASEDOCKERFILE=NOCACHEARG=BUILD_PARAMS=IMAGE_REF=while getopts f:mr:t:nb:i: optiondo case "${option}" in f) BASEDOCKERFILE=${OPTARG};; r) REPO=${OPTARG};; t) TAG=${OPTARG};; n) NOCACHEARG="--no-cache";; i) IMAGE_REF=${OPTARG};; b) BUILD_PARAMS=${BUILD_PARAMS}" --build-arg "${OPTARG};; esacdonecase "${@: -1}" in  build)    build    ;;  push)    if [ -z "$REPO" ]; then      usage      exit 1    fi    push    ;;  *)    usage    exit 1    ;;esac

С её помощью собираем базовый образ Spark, содержащий в себе тестовую задачу для вычисления числа Pi с помощью Spark (здесь {docker-registry-url} URL вашего реестра образов Docker, {repo} имя репозитория внутри реестра, совпадающее с проектом в OpenShift, {image-name} имя образа (если используется трёхуровневое разделение образов, например, как в интегрированном реестре образов Red Hat OpenShift), {tag} тег данной версии образа):


./bin/docker-image-tool-upd.sh -f resource-managers/kubernetes/docker/src/main/dockerfiles/spark/Dockerfile -r {docker-registry-url}/{repo} -i {image-name} -t {tag} build

Авторизуемся в кластере OKD с помощью консольной утилиты (здесь {OKD-API-URL} URL API кластера OKD):


oc login {OKD-API-URL}

Получим токен текущего пользователя для авторизации в Docker Registry:


oc whoami -t

Авторизуемся во внутреннем Docker Registry кластера OKD (в качестве пароля используем токен, полученный с помощью предыдущей команды):


docker login {docker-registry-url}

Загрузим собранный образ Docker в Docker Registry OKD:


./bin/docker-image-tool-upd.sh -r {docker-registry-url}/{repo} -i {image-name} -t {tag} push

Проверим, что собранный образ доступен в OKD. Для этого откроем в браузере URL со списком образов соответствующего проекта (здесь {project} имя проекта внутри кластера OpenShift, {OKD-WEBUI-URL} URL Web консоли OpenShift) https://{OKD-WEBUI-URL}/console/project/{project}/browse/images/{image-name}.


Для запуска задач должен быть создан сервисный аккаунт с привилегиями запуска подов под root (в дальнейшем обсудим этот момент):


oc create sa spark -n {project}oc adm policy add-scc-to-user anyuid -z spark -n {project}

Выполним команду spark-submit для публикации задачи Spark в кластере OKD, указав созданный сервисный аккаунт и образ Docker:


 /opt/spark/bin/spark-submit --name spark-test --class org.apache.spark.examples.SparkPi --conf spark.executor.instances=3 --conf spark.kubernetes.authenticate.driver.serviceAccountName=spark --conf spark.kubernetes.namespace={project} --conf spark.submit.deployMode=cluster --conf spark.kubernetes.container.image={docker-registry-url}/{repo}/{image-name}:{tag} --conf spark.master=k8s://https://{OKD-API-URL}  local:///opt/spark/examples/target/scala-2.11/jars/spark-examples_2.11-2.4.5.jar

Здесь:
--name имя задачи, которое будет участвовать в формировании имени подов Kubernetes;

--class класс исполняемого файла, вызываемый при запуске задачи;

--conf конфигурационные параметры Spark;

spark.executor.instances количество запускаемых экзекьюторов Spark;

spark.kubernetes.authenticate.driver.serviceAccountName имя служебной учётной записи Kubernetes, используемой при запуске подов (для определения контекста безопасности и возможностей при взаимодействии с API Kubernetes);

spark.kubernetes.namespace пространство имён Kubernetes, в котором будут запускаться поды драйвера и экзекьютеров;

spark.submit.deployMode способ запуска Spark (для стандартного spark-submit используется cluster, для Spark Operator и более поздних версий Spark client);

spark.kubernetes.container.image образ Docker, используемый для запуска подов;

spark.master URL API Kubernetes (указывается внешний так обращение происходит с локальной машины);

local:// путь до исполняемого файла Spark внутри образа Docker.

Переходим в соответствующий проект OKD и изучаем созданные поды https://{OKD-WEBUI-URL}/console/project/{project}/browse/pods.


Для упрощения процесса разработки может быть использован ещё один вариант, при котором создаётся общий базовый образ Spark, используемый всеми задачами для запуска, а снэпшоты исполняемых файлов публикуются во внешнее хранилище (например, Hadoop) и указываются при вызове spark-submit в виде ссылки. В этом случае можно запускать различные версии задач Spark без пересборки образов Docker, используя для публикации образов, например, WebHDFS. Отправляем запрос на создание файла (здесь {host} хост сервиса WebHDFS, {port} порт сервиса WebHDFS, {path-to-file-on-hdfs} желаемый путь к файлу на HDFS):


curl -i -X PUT "http://{host}:{port}/webhdfs/v1/{path-to-file-on-hdfs}?op=CREATE

При этом будет получен ответ вида (здесь {location} это URL, который нужно использовать для загрузки файла):


HTTP/1.1 307 TEMPORARY_REDIRECTLocation: {location}Content-Length: 0

Загружаем исполняемый файл Spark в HDFS (здесь {path-to-local-file} путь к исполняемому файлу Spark на текущем хосте):


curl -i -X PUT -T {path-to-local-file} "{location}"

После этого можем делать spark-submit с использованием файла Spark, загруженного на HDFS (здесь {class-name} имя класса, который требуется запустить для выполнения задачи):


/opt/spark/bin/spark-submit --name spark-test --class {class-name} --conf spark.executor.instances=3 --conf spark.kubernetes.authenticate.driver.serviceAccountName=spark --conf spark.kubernetes.namespace={project} --conf spark.submit.deployMode=cluster --conf spark.kubernetes.container.image={docker-registry-url}/{repo}/{image-name}:{tag} --conf spark.master=k8s://https://{OKD-API-URL}  hdfs://{host}:{port}/{path-to-file-on-hdfs}

При этом надо заметить, что для доступа к HDFS и обеспечения работы задачи может потребоваться изменить Dockerfile и скрипт entrypoint.sh добавить в Dockerfile директиву для копирования зависимых библиотек в директорию /opt/spark/jars и включить файл конфигурации HDFS в SPARK_CLASSPATH в entrypoint.sh.


Второй вариант использования Apache Livy


Далее, когда задача разработана и требуется протестировать полученный результат, возникает вопрос её запуска в рамках процесса CI/CD и отслеживания статусов её выполнения. Конечно, можно запускать её и с помощью локального вызова spark-submit, но это усложняет инфраструктуру CI/CD поскольку требует установку и конфигурацию Spark на агентах/раннерах CI сервера и настройки доступа к API Kubernetes. Для данного случая целевой реализацией выбрано использование Apache Livy в качестве REST API для запуска задач Spark, размещённого внутри кластера Kubernetes. С его помощью можно запускать задачи Spark на кластере Kubernetes используя обычные cURL запросы, что легко реализуемо на базе любого CI решения, а его размещение внутри кластера Kubernetes решает вопрос аутентификации при взаимодействии с API Kubernetes.



Выделим его в качестве второго варианта использования запуск задач Spark в рамках процесса CI/CD на кластере Kubernetes в тестовом контуре.


Немного про Apache Livy он работает как HTTP сервер, предоставляющий Web интерфейс и RESTful API, позволяющий удалённо запустить spark-submit, передав необходимые параметры. Традиционно он поставлялся в составе дистрибутива HDP, но также может быть развёрнут в OKD или любой другой инсталляции Kubernetes с помощью соответствующего манифеста и набора образов Docker, например, этого github.com/ttauveron/k8s-big-data-experiments/tree/master/livy-spark-2.3. Для нашего случая был собран аналогичный образ Docker, включающий в себя Spark версии 2.4.5 из следующего Dockerfile:


FROM java:8-alpineENV SPARK_HOME=/opt/sparkENV LIVY_HOME=/opt/livyENV HADOOP_CONF_DIR=/etc/hadoop/confENV SPARK_USER=sparkWORKDIR /optRUN apk add --update openssl wget bash && \    wget -P /opt https://downloads.apache.org/spark/spark-2.4.5/spark-2.4.5-bin-hadoop2.7.tgz && \    tar xvzf spark-2.4.5-bin-hadoop2.7.tgz && \    rm spark-2.4.5-bin-hadoop2.7.tgz && \    ln -s /opt/spark-2.4.5-bin-hadoop2.7 /opt/sparkRUN wget http://mirror.its.dal.ca/apache/incubator/livy/0.7.0-incubating/apache-livy-0.7.0-incubating-bin.zip && \    unzip apache-livy-0.7.0-incubating-bin.zip && \    rm apache-livy-0.7.0-incubating-bin.zip && \    ln -s /opt/apache-livy-0.7.0-incubating-bin /opt/livy && \    mkdir /var/log/livy && \    ln -s /var/log/livy /opt/livy/logs && \    cp /opt/livy/conf/log4j.properties.template /opt/livy/conf/log4j.propertiesADD livy.conf /opt/livy/confADD spark-defaults.conf /opt/spark/conf/spark-defaults.confADD entrypoint.sh /entrypoint.shENV PATH="/opt/livy/bin:${PATH}"EXPOSE 8998ENTRYPOINT ["/entrypoint.sh"]CMD ["livy-server"]

Созданный образ может быть собран и загружен в имеющийся у вас репозиторий Docker, например, внутренний репозиторий OKD. Для его развёртывания используется следующий манифест ({registry-url} URL реестра образов Docker, {image-name} имя образа Docker, {tag} тег образа Docker, {livy-url} желаемый URL, по которому будет доступен сервер Livy; манифест Route применяется в случае, если в качестве дистрибутива Kubernetes используется Red Hat OpenShift, в противном случае используется соответствующий манифест Ingress или Service типа NodePort):


---apiVersion: apps/v1kind: Deploymentmetadata:  labels:    component: livy  name: livyspec:  progressDeadlineSeconds: 600  replicas: 1  revisionHistoryLimit: 10  selector:    matchLabels:      component: livy  strategy:    rollingUpdate:      maxSurge: 25%      maxUnavailable: 25%    type: RollingUpdate  template:    metadata:      creationTimestamp: null      labels:        component: livy    spec:      containers:        - command:            - livy-server          env:            - name: K8S_API_HOST              value: localhost            - name: SPARK_KUBERNETES_IMAGE              value: 'gnut3ll4/spark:v1.0.14'          image: '{registry-url}/{image-name}:{tag}'          imagePullPolicy: Always          name: livy          ports:            - containerPort: 8998              name: livy-rest              protocol: TCP          resources: {}          terminationMessagePath: /dev/termination-log          terminationMessagePolicy: File          volumeMounts:            - mountPath: /var/log/livy              name: livy-log            - mountPath: /opt/.livy-sessions/              name: livy-sessions            - mountPath: /opt/livy/conf/livy.conf              name: livy-config              subPath: livy.conf            - mountPath: /opt/spark/conf/spark-defaults.conf              name: spark-config              subPath: spark-defaults.conf        - command:            - /usr/local/bin/kubectl            - proxy            - '--port'            - '8443'          image: 'gnut3ll4/kubectl-sidecar:latest'          imagePullPolicy: Always          name: kubectl          ports:            - containerPort: 8443              name: k8s-api              protocol: TCP          resources: {}          terminationMessagePath: /dev/termination-log          terminationMessagePolicy: File      dnsPolicy: ClusterFirst      restartPolicy: Always      schedulerName: default-scheduler      securityContext: {}      serviceAccount: spark      serviceAccountName: spark      terminationGracePeriodSeconds: 30      volumes:        - emptyDir: {}          name: livy-log        - emptyDir: {}          name: livy-sessions        - configMap:            defaultMode: 420            items:              - key: livy.conf                path: livy.conf            name: livy-config          name: livy-config        - configMap:            defaultMode: 420            items:              - key: spark-defaults.conf                path: spark-defaults.conf            name: livy-config          name: spark-config---apiVersion: v1kind: ConfigMapmetadata:  name: livy-configdata:  livy.conf: |-    livy.spark.deploy-mode=cluster    livy.file.local-dir-whitelist=/opt/.livy-sessions/    livy.spark.master=k8s://http://localhost:8443    livy.server.session.state-retain.sec = 8h  spark-defaults.conf: 'spark.kubernetes.container.image        "gnut3ll4/spark:v1.0.14"'---apiVersion: v1kind: Servicemetadata:  labels:    app: livy  name: livyspec:  ports:    - name: livy-rest      port: 8998      protocol: TCP      targetPort: 8998  selector:    component: livy  sessionAffinity: None  type: ClusterIP---apiVersion: route.openshift.io/v1kind: Routemetadata:  labels:    app: livy  name: livyspec:  host: {livy-url}  port:    targetPort: livy-rest  to:    kind: Service    name: livy    weight: 100  wildcardPolicy: None

После его применения и успешного запуска пода графический интерфейс Livy доступен по ссылке: http://{livy-url}/ui. С помощью Livy мы можем опубликовать нашу задачу Spark, используя REST запрос, например, из Postman. Пример коллекции с запросами представлен ниже (в массиве args могут быть переданы конфигурационные аргументы с переменными, необходимыми для работы запускаемой задачи):


{    "info": {        "_postman_id": "be135198-d2ff-47b6-a33e-0d27b9dba4c8",        "name": "Spark Livy",        "schema": "https://schema.getpostman.com/json/collection/v2.1.0/collection.json"    },    "item": [        {            "name": "1 Submit job with jar",            "request": {                "method": "POST",                "header": [                    {                        "key": "Content-Type",                        "value": "application/json"                    }                ],                "body": {                    "mode": "raw",                    "raw": "{\n\t\"file\": \"local:///opt/spark/examples/target/scala-2.11/jars/spark-examples_2.11-2.4.5.jar\", \n\t\"className\": \"org.apache.spark.examples.SparkPi\",\n\t\"numExecutors\":1,\n\t\"name\": \"spark-test-1\",\n\t\"conf\": {\n\t\t\"spark.jars.ivy\": \"/tmp/.ivy\",\n\t\t\"spark.kubernetes.authenticate.driver.serviceAccountName\": \"spark\",\n\t\t\"spark.kubernetes.namespace\": \"{project}\",\n\t\t\"spark.kubernetes.container.image\": \"{docker-registry-url}/{repo}/{image-name}:{tag}\"\n\t}\n}"                },                "url": {                    "raw": "http://{livy-url}/batches",                    "protocol": "http",                    "host": [                        "{livy-url}"                    ],                    "path": [                        "batches"                    ]                }            },            "response": []        },        {            "name": "2 Submit job without jar",            "request": {                "method": "POST",                "header": [                    {                        "key": "Content-Type",                        "value": "application/json"                    }                ],                "body": {                    "mode": "raw",                    "raw": "{\n\t\"file\": \"hdfs://{host}:{port}/{path-to-file-on-hdfs}\", \n\t\"className\": \"{class-name}\",\n\t\"numExecutors\":1,\n\t\"name\": \"spark-test-2\",\n\t\"proxyUser\": \"0\",\n\t\"conf\": {\n\t\t\"spark.jars.ivy\": \"/tmp/.ivy\",\n\t\t\"spark.kubernetes.authenticate.driver.serviceAccountName\": \"spark\",\n\t\t\"spark.kubernetes.namespace\": \"{project}\",\n\t\t\"spark.kubernetes.container.image\": \"{docker-registry-url}/{repo}/{image-name}:{tag}\"\n\t},\n\t\"args\": [\n\t\t\"HADOOP_CONF_DIR=/opt/spark/hadoop-conf\",\n\t\t\"MASTER=k8s://https://kubernetes.default.svc:8443\"\n\t]\n}"                },                "url": {                    "raw": "http://{livy-url}/batches",                    "protocol": "http",                    "host": [                        "{livy-url}"                    ],                    "path": [                        "batches"                    ]                }            },            "response": []        }    ],    "event": [        {            "listen": "prerequest",            "script": {                "id": "41bea1d0-278c-40c9-ad42-bf2e6268897d",                "type": "text/javascript",                "exec": [                    ""                ]            }        },        {            "listen": "test",            "script": {                "id": "3cdd7736-a885-4a2d-9668-bd75798f4560",                "type": "text/javascript",                "exec": [                    ""                ]            }        }    ],    "protocolProfileBehavior": {}}

Выполним первый запрос из коллекции, перейдём в интерфейс OKD и проверим, что задача успешно запущена https://{OKD-WEBUI-URL}/console/project/{project}/browse/pods. При этом в интерфейсе Livy (http://personeltest.ru/away/{livy-url}/ui) появится сессия, в рамках которой с помощью API Livy или графического интерфейса можно отслеживать ход выполнения задачи и изучать логи сессии.


Теперь покажем механизм работы Livy. Для этого изучим журналы контейнера Livy внутри пода с сервером Livy https://{OKD-WEBUI-URL}/console/project/{project}/browse/pods/{livy-pod-name}?tab=logs. Из них видно, что при вызове REST API Livy в контейнере с именем livy выполняется spark-submit, аналогичный используемому нами выше (здесь {livy-pod-name} имя созданного пода с сервером Livy). В коллекции также представлен второй запрос, позволяющий запускать задачи с удалённым размещением исполняемого файла Spark с помощью сервера Livy.


Третий вариант использования Spark Operator


Теперь, когда задача протестирована, встаёт вопрос её регулярного запуска. Нативным способом для регулярного запуска задач в кластере Kubernetes является сущность CronJob и можно использовать её, но в данный момент большую популярность имеет использование операторов для управления приложениями в Kubernetes и для Spark существует достаточно зрелый оператор, который, в том числе, используется в решениях Enterprise уровня (например, Lightbend FastData Platform). Мы рекомендуем использовать его текущая стабильная версия Spark (2.4.5) имеет достаточно ограниченные возможности по конфигурации запуска задач Spark в Kubernetes, при этом в следующей мажорной версии (3.0.0) заявлена полноценная поддержка Kubernetes, но дата её выхода остаётся неизвестной. Spark Operator компенсирует этот недостаток, добавляя важные параметры конфигурации (например, монтирование ConfigMap с конфигурацией доступа к Hadoop в поды Spark) и возможность регулярного запуска задачи по расписанию.



Выделим его в качестве третьего варианта использования регулярный запуск задач Spark на кластере Kubernetes в продуктивном контуре.


Spark Operator имеет открытый исходный код и разрабатывается в рамках Google Cloud Platform github.com/GoogleCloudPlatform/spark-on-k8s-operator. Его установка может быть произведена 3 способами:


  1. В рамках установки Lightbend FastData Platform/Cloudflow;
  2. С помощью Helm:
    helm repo add incubator http://storage.googleapis.com/kubernetes-charts-incubatorhelm install incubator/sparkoperator --namespace spark-operator
    

  3. Применением манифестов из официального репозитория (http://personeltest.ru/aways/github.com/GoogleCloudPlatform/spark-on-k8s-operator/tree/master/manifest). При этом стоит отметить следующее в состав Cloudflow входит оператор с версией API v1beta1. Если используется данный тип установки, то описания манифестов приложений Spark должны строиться на основе примеров из тегов в Git с соответствующей версией API, например, v1beta1-0.9.0-2.4.0. Версию оператора можно посмотреть в описании CRD, входящего в состав оператора в словаре versions:
    oc get crd sparkapplications.sparkoperator.k8s.io -o yaml
    


Если оператор установлен корректно, то в соответствующем проекте появится активный под с оператором Spark (например, cloudflow-fdp-sparkoperator в пространстве Cloudflow для установки Cloudflow) и появится соответствующий тип ресурсов Kubernetes с именем sparkapplications. Изучить имеющиеся приложений Spark можно следующей командой:


oc get sparkapplications -n {project}

Для запуска задач с помощью Spark Operator требуется сделать 3 вещи:


  • создать образ Docker, включающий в себя все необходимые библиотеки, а также конфигурационные и исполняемые файлы. В целевой картине это образ, созданный на этапе CI/CD и протестированный на тестовом кластере;
  • опубликовать образ Docker в реестр, доступный из кластера Kubernetes;
  • сформировать манифест с типом SparkApplication и описанием запускаемой задачи. Примеры манифестов доступны в официальном репозитории (например, github.com/GoogleCloudPlatform/spark-on-k8s-operator/blob/v1beta1-0.9.0-2.4.0/examples/spark-pi.yaml). Стоит отметить важные моменты касательно манифеста:
    1. в словаре apiVersion должна быть указана версия API, соответствующая версии оператора;
    2. в словаре metadata.namespace должно быть указано пространство имён, в котором будет запущено приложение;
    3. в словаре spec.image должен быть указан адрес созданного образа Docker в доступном реестре;
    4. в словаре spec.mainClass должен быть указан класс задачи Spark, который требуется запустить при запуске процесса;
    5. в словаре spec.mainApplicationFile должен быть указан путь к исполняемому jar файлу;
    6. в словаре spec.sparkVersion должна быть указана используемая версия Spark;
    7. в словаре spec.driver.serviceAccount должна быть указана сервисная учётная запись внутри соответствующего пространства имён Kubernetes, которая будет использована для запуска приложения;
    8. в словаре spec.executor должно быть указано количество ресурсов, выделяемых приложению;
    9. в словаре spec.volumeMounts должна быть указана локальная директория, в которой будут создаваться локальные файлы задачи Spark.


Пример формирования манифеста (здесь {spark-service-account} сервисный аккаунт внутри кластера Kubernetes для запуска задач Spark):


apiVersion: "sparkoperator.k8s.io/v1beta1"kind: SparkApplicationmetadata:  name: spark-pi  namespace: {project}spec:  type: Scala  mode: cluster  image: "gcr.io/spark-operator/spark:v2.4.0"  imagePullPolicy: Always  mainClass: org.apache.spark.examples.SparkPi  mainApplicationFile: "local:///opt/spark/examples/jars/spark-examples_2.11-2.4.0.jar"  sparkVersion: "2.4.0"  restartPolicy:    type: Never  volumes:    - name: "test-volume"      hostPath:        path: "/tmp"        type: Directory  driver:    cores: 0.1    coreLimit: "200m"    memory: "512m"    labels:      version: 2.4.0    serviceAccount: {spark-service-account}    volumeMounts:      - name: "test-volume"        mountPath: "/tmp"  executor:    cores: 1    instances: 1    memory: "512m"    labels:      version: 2.4.0    volumeMounts:      - name: "test-volume"        mountPath: "/tmp"

В данном манифесте указана сервисная учётная запись, для которой требуется до публикации манифеста создать необходимые привязки ролей, предоставляющие необходимые права доступа для взаимодействия приложения Spark с API Kubernetes (если нужно). В нашем случае приложению нужны права на создание Pod'ов. Создадим необходимую привязку роли:


oc adm policy add-role-to-user edit system:serviceaccount:{project}:{spark-service-account} -n {project}

Также стоит отметить, что в спецификации данного манифеста может быть указан параметр hadoopConfigMap, который позволяет указать ConfigMap с конфигурацией Hadoop без необходимости предварительного помещения соответствующего файла в образ Docker. Также он подходит для регулярного запуска задач с помощью параметра schedule может быть указано расписание запуска данной задачи.


После этого сохраняем наш манифест в файл spark-pi.yaml и применяем его к нашему кластеру Kubernetes:


oc apply -f spark-pi.yaml

При этом создастся объект типа sparkapplications:


oc get sparkapplications -n {project}> NAME       AGE> spark-pi   22h

При этом будет создан под с приложением, статус которого будет отображаться в созданном sparkapplications. Его можно посмотреть следующей командой:


oc get sparkapplications spark-pi -o yaml -n {project}

По завершении задачи POD перейдёт в статус Completed, который также обновится в sparkapplications. Логи приложения можно посмотреть в браузере или с помощью следующей команды (здесь {sparkapplications-pod-name} имя пода запущенной задачи):


oc logs {sparkapplications-pod-name} -n {project}

Также управление задачами Spark может быть осуществлено с помощью специализированной утилиты sparkctl. Для её установки клонируем репозиторий с её исходным кодом, установим Go и соберём данную утилиту:


git clone https://github.com/GoogleCloudPlatform/spark-on-k8s-operator.gitcd spark-on-k8s-operator/wget https://dl.google.com/go/go1.13.3.linux-amd64.tar.gztar -xzf go1.13.3.linux-amd64.tar.gzsudo mv go /usr/localmkdir $HOME/Projectsexport GOROOT=/usr/local/goexport GOPATH=$HOME/Projectsexport PATH=$GOPATH/bin:$GOROOT/bin:$PATHgo -versioncd sparkctlgo build -o sparkctlsudo mv sparkctl /usr/local/bin

Изучим список запущенных задач Spark:


sparkctl list -n {project}

Создадим описание для задачи Spark:


vi spark-app.yaml

apiVersion: "sparkoperator.k8s.io/v1beta1"kind: SparkApplicationmetadata:  name: spark-pi  namespace: {project}spec:  type: Scala  mode: cluster  image: "gcr.io/spark-operator/spark:v2.4.0"  imagePullPolicy: Always  mainClass: org.apache.spark.examples.SparkPi  mainApplicationFile: "local:///opt/spark/examples/jars/spark-examples_2.11-2.4.0.jar"  sparkVersion: "2.4.0"  restartPolicy:    type: Never  volumes:    - name: "test-volume"      hostPath:        path: "/tmp"        type: Directory  driver:    cores: 1    coreLimit: "1000m"    memory: "512m"    labels:      version: 2.4.0    serviceAccount: spark    volumeMounts:      - name: "test-volume"        mountPath: "/tmp"  executor:    cores: 1    instances: 1    memory: "512m"    labels:      version: 2.4.0    volumeMounts:      - name: "test-volume"        mountPath: "/tmp"

Запустим описанную задачу с помощью sparkctl:


sparkctl create spark-app.yaml -n {project}

Изучим список запущенных задач Spark:


sparkctl list -n {project}

Изучим список событий запущенной задачи Spark:


sparkctl event spark-pi -n {project} -f

Изучим статус запущенной задачи Spark:


sparkctl status spark-pi -n {project}

В заключение хотелось бы рассмотреть обнаруженные минусы эксплуатации текущей стабильной версии Spark (2.4.5) в Kubernetes:


  1. Первый и, пожалуй, главный минус это отсутствие Data Locality. Несмотря на все недостатки YARN были и плюсы в его использовании, например, принцип доставки кода к данным (а не данных к коду). Благодаря ему задачи Spark выполнялись на узлах, где располагались данные, участвующие в вычислениях, и заметно уменьшалось время на доставку данных по сети. При использовании Kubernetes мы сталкиваемся с необходимостью перемещения по сети данных, задействованных в работе задачи. В случае, если они достаточно большие, то время выполнения задачи может существенно увеличиться, а также потребоваться достаточно большой объём дискового пространства, выделенного экземплярам задачи Spark для их временного хранения. Данный недостаток может быть снижен за счёт использования специализированных программных средств, обеспечивающих локальность данных в Kubernetes (например, Alluxio), но это фактически означает необходимость хранения полной копии данных на узлах кластера Kubernetes.
  2. Второй важный минус это безопасность. По умолчанию функции, связанные с обеспечением безопасности касательно запуска задач Spark отключены, вариант использования Kerberos в официальной документации не охвачен (хотя соответствующие параметры появились в версии 3.0.0, что потребует дополнительной проработки), а в документации по обеспечению безопасности при использовании Spark (http://personeltest.ru/aways/spark.apache.org/docs/2.4.5/security.html) в качестве хранилищ ключей фигурируют только YARN, Mesos и Standalone Cluster. При этом пользователь, под которым запускаются задачи Spark, не может быть указан напрямую мы лишь задаём сервисную учётную запись, под которой будет работать под, а пользователь выбирается исходя из настроенных политик безопасности. В связи с этим либо используется пользователь root, что не безопасно в продуктивном окружении, либо пользователь с случайным UID, что неудобно при распределении прав доступа к данным (решаемо созданием PodSecurityPolicies и их привязкой к соответствующим служебным учётным записям). На текущий момент решается либо помещением всех необходимых файлов непосредственно в образ Docker, либо модификацией скрипта запуска Spark для использования механизма хранения и получения секретов, принятого в Вашей организации.
  3. Запуск задач Spark с помощью Kubernetes официально до сих пор находится в экспериментальном режиме и в будущем возможны значительные изменения в используемых артефактах (конфигурационных файлах, базовых образов Docker и скриптах запуска). И действительно при подготовке материала тестировались версии 2.3.0 и 2.4.5, поведение существенно отличалось.

Будем ждать обновлений недавно вышла свежая версия Spark (3.0.0), принёсшая ощутимые изменения в работу Spark на Kubernetes, но сохранившая экспериментальный статус поддержки данного менеджера ресурсов. Возможно, следующие обновления действительно позволят в полной мере рекомендовать отказаться от YARN и запускать задачи Spark на Kubernetes, не опасаясь за безопасность Вашей системы и без необходимости самостоятельной доработки функциональных компонентов.


Fin.

Источник: habr.com
К списку статей
Опубликовано: 20.07.2020 16:23:27
0

Сейчас читают

Комментариев (0)
Имя
Электронная почта

Блог компании неофлекс

Apache

Big data

Kubernetes

Блог компании «неофлекс»

Spark

Bigdata

Apache spark

Категории

Последние комментарии

© 2006-2021, personeltest.ru