归档: 2016/5


  1. Spark-K均值聚类

    聚类

    最有名的非监督学习的算法,试图找到数据中的自然数组,一群互相相似而与其他点不同的数据点往往代码某种意义的一个簇群,聚类算法就是把这些相似的数据划分到同一簇群中。


  2. Spark-决策树

    回归

    回归是预测一个数值型数量,比如大小,收入和温度,而分类是指预测标号(label)或类别(category),比如邮件是否为垃圾邮件
    分类和回归都需要从一组输入和输出中学习预测规则,属于监督学习

    特征

    类别型特征和数值型特征,类别型特征只能在几个离散值中取一个
    回归问题的目标为数值型特征,分类问题的特征是类别型特征
    12.5,12,0.1,晴朗,0 为特征 所有特征的集合为训练集


  3. Spark-推荐引擎

    推荐引擎

    基于内容的过滤

    利用物品的内容或是属性信息以及某些相似度定义,来求出与该物品类似的物品,这些属性通常是文本内容(标题,名称,标签,其他元数据)


  4. Spark-accumulator和broadcast

    累加器和广播变量

    累加器是用来对信息进行聚合,而广播变量用来高效分发较大的对象


  5. Spark-特殊的RDD

    pair RDD

    键值对类型的RDD,一个重要的RDD


  6. Spark-RDD

    RDD

    RDD(Resilient Distributed Datasets)弹性分布式数据集,是在集群应用中分享数据的一种高效,通用,容错的抽象,是Spark提供的最重要的抽象的概念,它是一种有容错机制的特殊集合,可以分布在集群的节点上,以函数式编操作集合的方式,进行各种并行操作。


  7. Spark-运行内幕

    运行内幕

    1.Driver创建DAGScheduler,TaskScheduler,在实例化过程中,注册当前程序给master,master接受注册,分配资源;一般情况下,当通过Action触发job,SparkContext会通过DAGScheduler来把job中的RDD构成的DAG划分为不同的Stage,每个Stage内部是一系列业务逻辑完全相同,处理数据不同的Tasks,构成TaskSet,而TaskScheduler和SchedulerBackend负责具体Task运行。
    spark运行架构


  8. Hello World


  9. Spark-wordcount

    Scala开发Spark

    jar包下载

    在spark-1.6.1-bin-hadoop2.6找到spark-assembly-1.6.1-hadoop2.6.0.jar放到Scala的环境配置中


  10. Spark学习-环境搭建

    Spark部署

    前提是必须安装了hadoop
    参考链接

    下载资源

    Spark下载 Scala下载