Как подключить HBase и Spark с помощью Python?
у меня есть смущающе параллельная задача, для которой я использую Spark для распределения вычислений. Эти вычисления находятся в Python, и я использую PySpark для чтения и предварительной обработки данных. Входные данные для моей задачи хранятся в HBase. К сожалению, мне еще предстоит найти удовлетворительный (т. е. простой в использовании и масштабируемый) способ чтения/записи данных HBase из/в Spark с помощью Python.
то, что я исследовал ранее:
подключение изнутри моего Python процессы, использующие
happybase
. Этот пакет позволяет подключаться к HBase из Python с помощью API бережливости HBase. Таким образом, я в основном пропускаю Spark для чтения/записи данных и пропускаю потенциальные оптимизации HBase-Spark. Скорость чтения кажется достаточно быстрой, но скорость записи медленная. Это мое лучшее решение.использование SparkContext
newAPIHadoopRDD
иsaveAsNewAPIHadoopDataset
которые используют интерфейс MapReduce HBase. Примеры для этого были однажды включены в код Spark база (посмотреть здесь). Однако теперь они считаются устаревшими в пользу Привязок Spark HBase (посмотреть здесь). Я также нашел этот метод медленным и громоздким (для чтения, письма работали хорошо), например, как строки, возвращенные изnewAPIHadoopRDD
должен был быть проанализирован и преобразован различными способами, чтобы закончить с объектами Python, которые я хотел. Он также поддерживал только одну колонку за раз.
альтернативы, которые я знаю из:
в настоящее время я использую CDH Cloudera и версии 5.7.0 предлагает
hbase-spark
(примечания к выпуску CDH и подробный блоге). Этот модуль (ранее известный какSparkOnHBase
) официально станет частью HBase 2.0. К сожалению, это замечательное решение работает только с Scala / Java.Huawei Spark-SQL-on-HBase / Астро (я не вижу разницы между два...). Он не выглядит таким надежным и хорошо поддерживаемым, как я хотел бы, чтобы мое решение было.
1 ответов
нашел комментарий одним из создателей hbase-spark
, что, похоже, предполагает, что есть способ использовать PySpark для запроса HBase с помощью Spark SQL.
и в самом деле, шаблон, описанный здесь можно применить к запросу HBase с Spark SQL с помощью PySpark, как показано в следующем примере:
from pyspark import SparkContext
from pyspark.sql import SQLContext
sc = SparkContext()
sqlc = SQLContext(sc)
data_source_format = 'org.apache.hadoop.hbase.spark'
df = sc.parallelize([('a', '1.0'), ('b', '2.0')]).toDF(schema=['col0', 'col1'])
# ''.join(string.split()) in order to write a multi-line JSON string here.
catalog = ''.join("""{
"table":{"namespace":"default", "name":"testtable"},
"rowkey":"key",
"columns":{
"col0":{"cf":"rowkey", "col":"key", "type":"string"},
"col1":{"cf":"cf", "col":"col1", "type":"string"}
}
}""".split())
# Writing
df.write\
.options(catalog=catalog)\ # alternatively: .option('catalog', catalog)
.format(data_source_format)\
.save()
# Reading
df = sqlc.read\
.options(catalog=catalog)\
.format(data_source_format)\
.load()
Я пробовал hbase-spark-1.2.0-cdh5.7.0.jar
(как распространяется Cloudera) для этого, но попал в беду (org.apache.hadoop.hbase.spark.DefaultSource does not allow create table as select
при написании, java.util.NoSuchElementException: None.get
при чтении). Как оказывается, настоящая версия CDH не включает в себя изменения на hbase-spark
которые позволяют интеграции Spark SQL-HBase.
что тут работа для меня-это shc
пакет Spark, найдено здесь. Единственное изменение, которое я должен был сделать в вышеуказанном скрипте, - это изменить:
data_source_format = 'org.apache.spark.sql.execution.datasources.hbase'
вот как я представляю приведенный выше сценарий на моем кластере CDH, следуя примеру из shc
README:
spark-submit --packages com.hortonworks:shc:1.0.0-1.6-s_2.10 --repositories http://repo.hortonworks.com/content/groups/public/ --files /opt/cloudera/parcels/CDH/lib/hbase/conf/hbase-site.xml example.py
большая часть работы на shc
кажется, уже слились в hbase-spark
модуль HBase, для выпуска в версии 2.0. При этом Spark SQL-запрос HBase возможен с использованием вышеупомянутого шаблона (см.:https://hbase.apache.org/book.html#_sparksql_dataframes для деталей). Мой пример выше показывает, как это выглядит для пользователей PySpark.
наконец, предостережение: мой пример данных выше имеет только строки. Преобразование данных Python не поддерживается shc
, поэтому у меня были проблемы с числами и поплавки не отображаются в HBase или со странными значениями.