Posted on | In | visitors

在上篇文章mac下Spark的安装与使用的一个示例中,我们使用RDD的Map和Reduce操作对一个文本中的文字做了简单的字数检查。本篇文章的目的是讲述Spark 中的流数据处理。结构分为三个部分:第一部分简单对Spark进行介绍,第二部分介绍Spark Streaming,最后一部分通过一个简单的Demo讲讲Spark是如何通过Spark Streaming进行流式数据的处理。

Posted on | In | visitors

最近接触大数据,所以当然有必要学习下Hadoop和Spark(概念请自行百google或者百度)。Spark是Apache目前最火的一款快速处理大数据的开源框架,当然Hadoop也是一款处理大数据的框架,只是Sparck青出于蓝而胜于蓝,在出生之后就得到迅猛发展,所以有学者说日后Spark可能会将Hadoop淘汰(不是我说的,是学者说的哦)。

Posted on | In | visitors

开始Service层的编码之前,我们首先需要进行Dao层编码之后的思考:在Dao层我们只完成了针对表的相关操作包括写了接口方法和映射文件中的sql语句,并没有编写逻辑的代码,例如对多个Dao层方法的拼接,当我们用户成功秒杀商品时我们需要进行商品的减库存操作(调用SeckillDao接口)和增加用户明细(调用SuccessKilledDao接口),这些逻辑我们都需要在Service层完成。

AltStyle によって変換されたページ (->オリジナル) /