spark使用SEARCH AGGREGATION

首页/精选主题/

spark使用

托管Hadoop集群

...基于 Hadoop 框架的大数据综合处理平台,提供开箱即用的 Spark、HBase、Presto、Hive 等大数据生态常见组件,同时可选 Hue、Sqoop、Oozie、Pig 等多种辅助工具。 为满足存储计算分离的需求,UHadoop 现已支持独立管理的 HDFS 存储集群,可...

spark使用问答精选

Spark和Hadoop对于大数据的关系?

回答:Hadoop生态Apache™Hadoop®项目开发了用于可靠,可扩展的分布式计算的开源软件。Apache Hadoop软件库是一个框架,该框架允许使用简单的编程模型跨计算机集群对大型数据集进行分布式处理。 它旨在从单个服务器扩展到数千台机器,每台机器都提供本地计算和存储。 库本身不是设计用来依靠硬件来提供高可用性,而是设计为在应用程序层检测和处理故障,因此可以在计算机集群的顶部提供高可用性服务,...

娣辩孩 | 1218人阅读

大数据Spark技术是否可以替代Hadoop?

回答:1998年9月4日,Google公司在美国硅谷成立。正如大家所知,它是一家做搜索引擎起家的公司。无独有偶,一位名叫Doug Cutting的美国工程师,也迷上了搜索引擎。他做了一个用于文本搜索的函数库(姑且理解为软件的功能组件),命名为Lucene。左为Doug Cutting,右为Lucene的LOGOLucene是用JAVA写成的,目标是为各种中小型应用软件加入全文检索功能。因为好用而且开源(...

ctriptech | 628人阅读

Hadoop与Spark相比有存在优势的方面吗?

问题描述:该问题暂无描述

Object | 644人阅读

请问USDP社区版2.x怎么安装Spark2.X

回答:可以自行在某些节点上尝试安装 Spark 2.x,手动修改相应 Spark 配置文件,进行使用测试,不安装 USDP 自带的 Spark 3.0.1

316750094 | 715人阅读

Spark SQL和Shark在架构上有哪些区别?

回答:Spark Shark |即Hive onSparka.在实现上是把HQL翻译成Spark上的RDD操作,然后通过Hive的metadata获取数据库里的表信息,Shark获取HDFS上的数据和文件夹放到Spark上运算.b.它的最大特性就是快以及与Hive完全兼容c.Shark使用了Hive的API来实现queryparsing和logic plan generation,最后的Physical...

liaoyg8023 | 780人阅读

spark使用精品文章

  • Spark 快速入门

    ...doop更广泛地说还包括在其生态系统上的其他系统. 为什么使用Spark? Hadoop的MapReduce计算模型存在问题: Hadoop的MapReduce的核心是Shuffle(洗牌).在整个Shuffle的过程中,至少产生6次I/O流.基于MapReduce计算引擎通常会将结果输出到次盘上,进行...

    wangshijun 评论0 收藏0
  • 搭建Spark集群?没想到你是这样的k8s

    在本文的例子中,你将使用 Kubernetes 和 Docker 创建一个功能型Apache Spark集群。 你将使用Spark standalone模式 安装一个 Spark master服务和一组Spark workers。 对于已熟悉这部分内容的读者,可以直接跳到 tl;dr 章节。 源代码 Docker 镜像...

    bitkylin 评论0 收藏0
  • TiSpark (Beta) 用户指南

    ...k 也需要你搭建一个 Spark 集群。本文简单介绍如何部署和使用 TiSpark。本文假设你对 Spark 有基本认知。你可以参阅 Apache Spark 官网 了解 Spark 相关信息。 一、概述 TiSpark 是将 Spark SQL 直接运行在 TiDB 存储引擎 TiKV 上的 OLAP 解决方...

    warnerwu 评论0 收藏0
  • Spark SQL知识点与实战

    ...数据结构和正在执行的计算的更多信息。在内部,Spark SQL使用这些额外的信息去做一些额外的优化,有多种方式与Spark SQL进行交互,比如: SQL和DatasetAPI。当计算结果的时候,使用的是相同的执行引擎,不依赖你正在使用哪种API或...

    番茄西红柿 评论0 收藏2637
  • Spark SQL知识点大全与实战

    ...据结构和正在执行的计算的更多信息。 在内部,Spark SQL使用这些额外的信息去做一些额外的优化,有多种方式与Spark SQL进行交互,比如: SQL和DatasetAPI。 当计算结果的时候,使用的是相同的执行引擎,不依赖你正在使用哪种API...

    番茄西红柿 评论0 收藏2637
  • Spark作为ETL工具与SequoiaDB的结合应用

    ...dalone、Spark on YARN、Spark on Mesos。三种模式的主要区别在于使用的资源管理调度工具不一样。这里以Standalone模式为例进行说明。 在部署之前,将需要部署Spark的机器两两之间的信任关系配置好,并根据Spark版本对JDK版本的需求安装...

    阿罗 评论0 收藏0
  • Spark作为ETL工具与SequoiaDB的结合应用

    ...dalone、Spark on YARN、Spark on Mesos。三种模式的主要区别在于使用的资源管理调度工具不一样。这里以Standalone模式为例进行说明。 在部署之前,将需要部署Spark的机器两两之间的信任关系配置好,并根据Spark版本对JDK版本的需求安装...

    2450184176 评论0 收藏0
  • 带你入门Spark(资源整理)

    ...绍文章,层次条理分明,内容详尽。推荐必读。 2.2 谁在使用Spark? 这个页面列举了部分使用Spark的公司和组织,有使用场景的介绍,可做简单了解。 2.3 Spark与Hadoop对比 这篇介绍是我看到过最详尽的,讲到很多Spark基本原理和...

    Baaaan 评论0 收藏0
  • Spark SQL学习笔记

    ...taset API。Spark SQL的一种用法是直接执行SQL查询语句,你可使用最基本的SQL语法,也可以选择HiveQL语法。Spark SQL可以从已有的Hive中读取数据。 DataFrame是一种分布式数据集合,每一条数据都由几个命名字段组成。概念上来说,她和...

    qieangel2013 评论0 收藏0
  • IBM美女工程师Holden Karau:寻找友善的人一起共事

    ...说,你如何在命令行和Spark之间做出选择? 通常来说,我使用命令行会更加得心应手,但是对于调试工作之外的探索性工作来说,使用notebooks这样的工具确实很有帮助。当然,你也可以用Databricks Cloud,但是我使用Jupyter和Zeppelin...

    MudOnTire 评论0 收藏0
  • Spark编译

    ...在Spark2.0.0之后Java 7已经被标识成deprecated了,但是不影响使用,但是在Spark2.2.0版本之后Java 7的支持将会被移除; Maven需要3.3.9+版本 编译 JDK7+ 的安装 可参考教程 Maven 3.3.9+安装 可参考教程 Scala 安装 可参考教程 spark-2.2.0.tgz...

    SillyMonkey 评论0 收藏0
  • Spark 』2. spark 基本概念解析

    ...少 CPU,etc。然后 Cluster Manager 会通过调度告诉客户端可以使用,然后客户端就可以把程序送到每个 Worker Node 上面去执行了。 4. Worker Node 集群中任何一个可以运行spark应用代码的节点。Worker Node就是物理节点,可以在上面启动Execut...

    Luosunce 评论0 收藏0
  • Spark 』2. spark 基本概念解析

    ...少 CPU,etc。然后 Cluster Manager 会通过调度告诉客户端可以使用,然后客户端就可以把程序送到每个 Worker Node 上面去执行了。 4. Worker Node 集群中任何一个可以运行spark应用代码的节点。Worker Node就是物理节点,可以在上面启动Execut...

    guyan0319 评论0 收藏0
  • Spark 』5. 这些年,你不能错过的 spark 学习资源

    ... 』6. 深入研究 spark 运行原理之 job, stage, task 『 Spark 』7. 使用 Spark DataFrame 进行大数据分析 『 Spark 』8. 实战案例 | Spark 在金融领域的应用 | 日内走势预测 『 Spark 』9. 搭建 IPython + Notebook + Spark 开发环境

    mist14 评论0 收藏0
  • Spark 』5. 这些年,你不能错过的 spark 学习资源

    ... 』6. 深入研究 spark 运行原理之 job, stage, task 『 Spark 』7. 使用 Spark DataFrame 进行大数据分析 『 Spark 』8. 实战案例 | Spark 在金融领域的应用 | 日内走势预测 『 Spark 』9. 搭建 IPython + Notebook + Spark 开发环境

    whidy 评论0 收藏0

推荐文章

相关产品

<