começar a Ray clustering on Databricks
Databricks simplifica o processo de início de um cluster Ray, tratando o clustering e a configuração do Job da mesma forma que faz com qualquer Job Apache Spark. Isso ocorre porque o agrupamento Ray é, na verdade, começado em cima do agrupamento gerenciar Apache Spark.
execução Ray on Databricks
from ray.util.spark import setup_ray_cluster
import ray
# If the cluster has four workers with 8 CPUs each as an example
setup_ray_cluster(num_worker_nodes=4, num_cpus_per_worker=8)
# Pass any custom configuration to ray.init
ray.init(ignore_reinit_error=True)
Essa abordagem funciona em qualquer escala de clustering, de alguns a centenas de nós. O Ray clustering em Databricks também oferece suporte à autoescala.
Depois de criar o clustering do Ray, o senhor pode executar qualquer código de aplicativo Ray em um notebook Databricks.
Databricks recomenda a instalação de todas as bibliotecas necessárias para o seu aplicativo com %pip install <your-library-dependency> para garantir que elas estejam disponíveis para o seu clustering Ray e para o aplicativo em questão. A especificação de dependências na chamada da função Ray init instala as dependências em um local inacessível para os nós Apache Spark worker , o que resulta em incompatibilidades de versão e erros de importação.
Por exemplo, o senhor pode executar um aplicativo Ray simples em um notebook Databricks da seguinte forma:
import ray
import random
import time
from fractions import Fraction
ray.init()
@ray.remote
def pi4_sample(sample_count):
    """pi4_sample runs sample_count experiments, and returns the
    fraction of time it was inside the circle.
    """
    in_count = 0
    for i in range(sample_count):
        x = random.random()
        y = random.random()
        if x*x + y*y <= 1:
            in_count += 1
    return Fraction(in_count, sample_count)
SAMPLE_COUNT = 1000 * 1000
start = time.time()
future = pi4_sample.remote(sample_count=SAMPLE_COUNT)
pi4 = ray.get(future)
end = time.time()
dur = end - start
print(f'Running {SAMPLE_COUNT} tests took {dur} seconds')
pi = pi4 * 4
print(float(pi))
Encerrar um Ray clustering
O Ray clustering é desligado automaticamente nas seguintes circunstâncias:
- O senhor desvincula o Notebook interativo do clustering Databricks.
 - Seu trabalho no site Databricks foi concluído.
 - Seu clustering Databricks foi reiniciado ou encerrado.
 - Não há atividade para o tempo de parada especificado.
 
Para encerrar um Ray clustering em execução em Databricks, o senhor pode chamar o ray.utils.spark.shutdown_ray_cluster API.
from ray.utils.spark import shutdown_ray_cluster
import ray
shutdown_ray_cluster()
ray.shutdown()