存档

‘Apache’ 分类的存档

盘点业内十大顶级开源ERP系统

2015年7月21日 1 条评论

OenERP

1.  OpenERP  :提供全面的ERP和CRM模块

最为开源ERP中的重量级产品,OpenERP对于大多数企业来说都提供了足够的可扩展性,同时还提供了销售管理、销售点管理、采购、库存管理、财务管理、项目管理、制造、人力资源等等功能模块。OpenERP开发的初衷是为了提供SAP、Microsoft Dynamics等、CRM、人力资源管理、销售点管理、项目管理等众多方面。

OpenERP使用Python开发,数据库采用开源的PostgreSQL,它的核心和所有模块都是开放源代码的,采用GNU GPL开源协议。你可以自由使用、修改和发布,只要你也保证开源即可。

任何有一定技术基础的专业人员都可以下载和安装OpenERP,每月的订阅费只要39美元,任何企业都可以承担得起。订阅费包括安装包、自动升级和bug修复、在线托管和2小时的技术支持。

 

Openbravo

2.  Openbravo :功能极大丰富,但近年发展势头呈下降趋势

Openbravo的产品理念基于强调业务灵活性,是一个基于web的可扩展ERP系统,可以在任何网页浏览器中运行,目前在各行业已经拥有超过6000家企业用户。
Openbravo ERP系统所包括的功能可实现生产管理、仓库管理、销售管理、财务管理。同时内置CRM(客户关系管理)和BI(商业智能)。

 

ERP5

3.  ERP5 :面向行业用户和政府部门关键任务的可靠性和成熟度

ERP5是一个基于web的全功能的ERP系统,采用了最新的软件技术开发,其面向文档的技术方法独特且富有创新性,其功能包括客户关系管理、生产管理、供应链管理、产品设计管理、财务管理、人力资源管理、电子商务等多个模块。

ERP5开源ERP项目的创始者和推动者——法国Nexedi公司在不同领域有效的展开了ERP5的应用,比如航空,服装,银行,医疗及政府机构。ERP5被应用于非洲,亚洲,欧洲,南美及北美的不同规模的企业。 ERP5的开源特质不仅削减了软件许可证费用, 并提供了完全自由的软件更新,而且可以根据客户的商业需求进行独立于销售方的系统定制。

值得注意的是,2013年11月Nexedi在上海外高桥自由贸易区投资成立了“纳宇软件科技”公司,成为第一个正式进入中国市场的Top10开源ERP厂商。

 

NewImage

4.  Apache OFBiz:全面的企业软件框架

OFBiz是Apache的顶级开源项目,提供了创建基于最新JavaEE/XML规范和技术标准,构建大中型企业级、跨平台、跨数据库、跨应用服务器的多层、分布式电子商务类Web应用系统的框架。

OFBiz不仅是一个产品及订单管理系统,它还提供了一整套功能,涵盖企业所需的方方面面。除了管理产品及其相关内容(如电子商店)外,Apache OFBiz还能履行许多其它重要角色,包括客户关系管理、项目进度、计费管理、人力资源管理以及订单管理。

compiere
5.  Compiere:面向中小企业的ERP&CRM“云ERP”

Compiere的开发者Consona自夸Compiere是当今最实施成本最低、适用性最强和最现代化的ERP系统。
通过Compiere,你只需短短几小时就可以使用申购-采购-发票-付款、报价-订单-发票-收款、产品与定价、资产管理、客户关系、供应商关系、员工关系、财务管理、经营业绩分析等强大功能了。

值得注意的是,Compiere可以托管在亚马逊EC2云端运行,这也是首个支持云端部署的ERP系统。

 

webERP

6.  webERP:完全基于web的中小企业财务&ERP系统

顾名思义,WebERP是完全在线运行的ERP系统,可以在包括IE、火狐、Chrome等各种浏览器中运行。WebERP的开发者表示WebERP最适合的行业是制造业和经销商,零售业使用WebERP需要与第三方POS软件集成。

WebERP是一套ERP与财务管理软件,它支持多公司、多币种、多税种、多库存管理;权限角色管理便于员工、客户和供应商使用;订单管理支持发 票的跟踪与管理;销售费用管理及强大的销售分析功能,为管理者提供决策支持;提供全面的财务特性包括总帐、应收/应付帐目等,且拥有简单易于操作的Web 界面。

中小企业会发现WebERP非常简单高效,但对于大型企业来说WebERP的功能还不够强大。WebERP目前可以从Sourceforge下载。

 

opentaps
7.  opentaps:电商和零售的最爱

Opentaps全面集成了ERP和CRM套件功能,支持电商、库存管理、供应链管理和财务管理。此外Opentaps还提供可靠的业务报告和商业智能系统,而且还原生支持移动设备访问。

OpenTaps是在OFBiz基础上开发的开源的ERP及CRM企业级应用平台,其包含一个完整的应用程序套件,可与移动、商业集成。它支持客户关系管理、订单管理、存活和仓库、购买和支持链自动化、在线和卖点存储、帐户和财务管理等。

OpenTaps基于Java开发,支持大部分主流关系型数据,包括MySQL、PostgreSQL、Oracle、Sybase与Microsoft SQL Server等。 Opentaps的价格为600美元/用户,最低起售为10用户版本。

 

dolibarr

8.  Dolibarr:用户社区活跃的免费开源ERP系统

Dolibarr的特点是拥有一个活跃的用户社区,其商业模式类似苹果iTunes应用商店:Dolibarr系统本身完全免费,但是一些流行的模块或插件如项目管理、数字文档等则需要用户从从Dolibarr应用商店下载。

 

aDempiere
9.  ADempiere:回归纯粹的开源社区模式,近年发展势头呈现上升态势,值得关注

2006年,一些Compiere ERP的开发者不满公司主导的商业模式,另起炉灶成立了ADempiere。

ADempiere是一个由开源社区所领导的ERP 项目。由于Compiere是由公司为主导,虽然开放源码,但是在语言本地化以及文件数据都需要透过商业服务付费取得。而 ADempiere 的整个项目(包括源码、说明文件)都以开放的方式发布。

PostBooks

10.  PostBooks:商业ERP的孪生兄弟

PostBooks是xTuple公司推出的一套开源ERP软件,简单易用,适合各种规模企业,尤其是中小企业。Postbooks最初是为制造业编写的应用,但随着时间推移逐渐增加了CRM和财务等模块。PostBooks是xTuple商业ERP产品的开源版本,xTuple的多个商业产品都与开源版本共享相同的源码,例如xTuple Standard、xTuple Manufacturing和xTuple Enterprise。

Postbooks的可视化客户端可运行于Linux、MAC和Windows上(基于Qt组件库),使用的是PostgreSQL数据库,支持国际化。 PostBooks包含了会计、销售、CRM、购买、产品定义、清单、OpenRPT(一个强大的开源报告撰写工具)等模块。

文章出自http://www.ctocio.com/hotnews/17865.html

分类: Apache, OpenSolaris 标签: ,

新手福利:Apache Spark入门攻略

2015年7月17日 没有评论

本文聚焦Apache Spark入门,了解其在大数据领域的地位,覆盖Apache Spark的安装及应用程序的建立,并解释一些常见的行为和操作。

一、 为什么要使用Apache Spark

时下,我们正处在一个“大数据”的时代,每时每刻,都有各种类型的数据被生产。而在此紫外,数据增幅的速度也在显著增加。从广义上看,这些数据包含交易数据、社交媒体内容(比如文本、图像和视频)以及传感器数据。那么,为什么要在这些内容上投入如此多精力,其原因无非就是从海量数据中提取洞见可以对生活和生产实践进行很好的指导。

在几年前,只有少部分公司拥有足够的技术力量和资金去储存和挖掘大量数据,并对其挖掘从而获得洞见。然而,被雅虎2009年开源的Apache Hadoop对这一状况产生了颠覆性的冲击——通过使用商用服务器组成的集群大幅度地降低了海量数据处理的门槛。因此,许多行业(比如Health care、Infrastructure、Finance、Insurance、Telematics、Consumer、Retail、Marketing、E-commerce、Media、 Manufacturing和Entertainment)开始了Hadoop的征程,走上了海量数据提取价值的道路。着眼Hadoop,其主要提供了两个方面的功能:

  • 通过水平扩展商用主机,HDFS提供了一个廉价的方式对海量数据进行容错存储。
  • MapReduce计算范例,提供了一个简单的编程模型来挖掘数据并获得洞见。

下图展示了MapReduce的数据处理流程,其中一个Map-Reduce step的输出将作为下一个典型Hadoop job的输入结果。

在整个过程中,中间结果会借助磁盘传递,因此对比计算,大量的Map-Reduced作业都受限于IO。然而对于ETL、数据整合和清理这样的用例来说,IO约束并不会产生很大的影响,因为这些场景对数据处理时间往往不会有较高的需求。然而,在现实世界中,同样存在许多对延时要求较为苛刻的用例,比如:

  1. 对流数据进行处理来做近实时分析。举个例子,通过分析点击流数据做视频推荐,从而提高用户的参与度。在这个用例中,开发者必须在精度和延时之间做平衡。
  2. 在大型数据集上进行交互式分析,数据科学家可以在数据集上做ad-hoc查询。

毫无疑问,历经数年发展,Hadoop生态圈中的丰富工具已深受用户喜爱,然而这里仍然存在众多问题给使用带来了挑战:

1.每个用例都需要多个不同的技术堆栈来支撑,在不同使用场景下,大量的解决方案往往捉襟见肘。

2.在生产环境中机构往往需要精通数门技术。

3.许多技术存在版本兼容性问题。

4.无法在并行job中更快地共享数据。

而通过Apache Spark,上述问题迎刃而解!Apache Spark是一个轻量级的内存集群计算平台,通过不同的组件来支撑批、流和交互式用例,如下图。

二、 关于Apache Spark

Apache Spark是个开源和兼容Hadoop的集群计算平台。由加州大学伯克利分校的AMPLabs开发,作为Berkeley Data Analytics Stack(BDAS)的一部分,当下由大数据公司Databricks保驾护航,更是Apache旗下的顶级项目,下图显示了Apache Spark堆栈中的不同组件。

Apache Spark的5大优势:

1.更高的性能,因为数据被加载到集群主机的分布式内存中。数据可以被快速的转换迭代,并缓存用以后续的频繁访问需求。很多对Spark感兴趣的朋友可能也会听过这样一句话——在数据全部加载到内存的情况下,Spark可以比Hadoop快100倍,在内存不够存放所有数据的情况下快Hadoop 10倍。

2.通过建立在Java、Scala、Python、SQL(应对交互式查询)的标准API以方便各行各业使用,同时还含有大量开箱即用的机器学习库。

3.与现有Hadoop v1 (SIMR) 和2.x (YARN) 生态兼容,因此机构可以进行无缝迁移。

4.方便下载和安装。方便的shell(REPL: Read-Eval-Print-Loop)可以对API进行交互式的学习。

5.借助高等级的架构提高生产力,从而可以讲精力放到计算上。

同时,Apache Spark由Scala实现,代码非常简洁。

三、安装Apache Spark

下表列出了一些重要链接和先决条件:

Current Release 1.0.1 @ http://d3kbcqa49mib13.cloudfront.net/spark-1.0.1.tgz
Downloads Page https://spark.apache.org/downloads.html
JDK Version (Required) 1.6 or higher
Scala Version (Required) 2.10 or higher
Python (Optional) [2.6, 3.0)
Simple Build Tool (Required) http://www.scala-sbt.org
Development Version git clone git://github.com/apache/spark.git
Building Instructions https://spark.apache.org/docs/latest/building-with-maven.html
Maven 3.0 or higher

如图6所示,Apache Spark的部署方式包括standalone、Hadoop V1 SIMR、Hadoop 2 YARN/Mesos。Apache Spark需求一定的Java、Scala或Python知识。这里,我们将专注standalone配置下的安装和运行。

1.安装JDK 1.6+、Scala 2.10+、Python [2.6,3] 和sbt

2.下载Apache Spark 1.0.1 Release

3.在指定目录下Untar和Unzip spark-1.0.1.tgz

akuntamukkala@localhost~/Downloads$ pwd
/Users/akuntamukkala/Downloads akuntamukkala@localhost~/Downloads$ tar -zxvf spark- 1.0.1.tgz -C /Users/akuntamukkala/spark

4.运行sbt建立Apache Spark

akuntamukkala@localhost~/spark/spark-1.0.1$ pwd /Users/akuntamukkala/spark/spark-1.0.1 akuntamukkala@localhost~/spark/spark-1.0.1$ sbt/sbt assembly

5.发布Scala的Apache Spark standalone REPL

/Users/akuntamukkala/spark/spark-1.0.1/bin/spark-shell

如果是Python

/Users/akuntamukkala/spark/spark-1.0.1/bin/ pyspark

6.查看SparkUI @ http://localhost:4040

四、Apache Spark的工作模式

Spark引擎提供了在集群中所有主机上进行分布式内存数据处理的能力,下图显示了一个典型Spark job的处理流程。

下图显示了Apache Spark如何在集群中执行一个作业。

Master控制数据如何被分割,利用了数据本地性,并在Slaves上跟踪所有分布式计算。在某个Slave不可用时,其存储的数据会分配给其他可用的Slaves。虽然当下(1.0.1版本)Master还存在单点故障,但后期必然会被修复。

五、弹性分布式数据集(Resilient Distributed Dataset,RDD)

弹性分布式数据集(RDD,从Spark 1.3版本开始已被DataFrame替代)是Apache Spark的核心理念。它是由数据组成的不可变分布式集合,其主要进行两个操作:transformation和action。Transformation是类似在RDD上做 filter()、map()或union() 以生成另一个RDD的操作,而action则是count()、first()、take(n)、collect() 等促发一个计算并返回值到Master或者稳定存储系统的操作。Transformations一般都是lazy的,直到action执行后才会被执行。Spark Master/Driver会保存RDD上的Transformations。这样一来,如果某个RDD丢失(也就是salves宕掉),它可以快速和便捷地转换到集群中存活的主机上。这也就是RDD的弹性所在。

下图展示了Transformation的lazy:

我们可以通过下面示例来理解这个概念:从文本中发现5个最常用的word。下图显示了一个可能的解决方案。

在上面命令中,我们对文本进行读取并且建立字符串的RDD。每个条目代表了文本中的1行。

scala> val hamlet = sc.textFile(“/Users/akuntamukkala/temp/gutenburg.txt”)
hamlet: org.apache.spark.rdd.RDD[String] = MappedRDD[1] at textFile at <console>:12
scala> val topWordCount = hamlet.flatMap(str=>str.split(“ “)). filter(!_.isEmpty).map(word=>(word,1)).reduceByKey(_+_).map{case (word, count) => (count, word)}.sortByKey(false)
topWordCount: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[10] at sortByKey at <console>:14

1. 通过上述命令我们可以发现这个操作非常简单——通过简单的Scala API来连接transformations和actions。

2. 可能存在某些words被1个以上空格分隔的情况,导致有些words是空字符串,因此需要使用filter(!_.isEmpty)将它们过滤掉。

3. 每个word都被映射成一个键值对:map(word=>(word,1))。

4. 为了合计所有计数,这里需要调用一个reduce步骤——reduceByKey(_+_)。 _+_ 可以非常便捷地为每个key赋值。

5. 我们得到了words以及各自的counts,下一步需要做的是根据counts排序。在Apache Spark,用户只能根据key排序,而不是值。因此,这里需要使用map{case (word, count) => (count, word)}将(word, count)流转到(count, word)。

6. 需要计算最常用的5个words,因此需要使用sortByKey(false)做一个计数的递减排序。

上述命令包含了一个.take(5) (an action operation, which triggers computation)和在 /Users/akuntamukkala/temp/gutenburg.txt文本中输出10个最常用的words。在Python shell中用户可以实现同样的功能。

RDD lineage可以通过toDebugString(一个值得记住的操作)来跟踪。

scala> topWordCount.take(5).foreach(x=>println(x))
(1044,the)
(730,and)
(679,of)
(648,to)
(511,I)

常用的Transformations:

Transformation & Purpose Example & Result
filter(func) Purpose: new RDD by selecting those data elements on which func returns true scala> val rdd = sc.parallelize(List(“ABC”,”BCD”,”DEF”)) scala> val filtered = rdd.filter(_.contains(“C”)) scala> filtered.collect() Result:
Array[String] = Array(ABC, BCD)
map(func) Purpose: return new RDD by applying func on each data element scala> val rdd=sc.parallelize(List(1,2,3,4,5)) scala> val times2 = rdd.map(_*2) scala> times2.collect() Result:
Array[Int] = Array(2, 4, 6, 8, 10)
flatMap(func) Purpose: Similar to map but func returns a Seq instead of a value. For example, mapping a sentence into a Seq of words scala> val rdd=sc.parallelize(List(“Spark is awesome”,”It is fun”)) scala> val fm=rdd.flatMap(str=>str.split(“ “)) scala> fm.collect() Result:
Array[String] = Array(Spark, is, awesome, It, is, fun)
reduceByKey(func,[numTasks]) Purpose: To aggregate values of a key using a function. “numTasks” is an optional parameter to specify number of reduce tasks scala> val word1=fm.map(word=>(word,1)) scala> val wrdCnt=word1.reduceByKey(_+_) scala> wrdCnt.collect() Result:
Array[(String, Int)] = Array((is,2), (It,1), (awesome,1), (Spark,1), (fun,1))
groupByKey([numTasks]) Purpose: To convert (K,V) to (K,Iterable<V>) scala> val cntWrd = wrdCnt.map{case (word, count) => (count, word)} scala> cntWrd.groupByKey().collect() Result:
Array[(Int, Iterable[String])] = Array((1,ArrayBuffer(It, awesome, Spark, fun)), (2,ArrayBuffer(is)))
distinct([numTasks]) Purpose: Eliminate duplicates from RDD scala> fm.distinct().collect() Result:
Array[String] = Array(is, It, awesome, Spark, fun)

常用的集合操作:

Transformation and Purpose Example and Result
union()
Purpose: new RDD containing all elements from source RDD and argument.
Scala> val rdd1=sc.parallelize(List(‘A’,’B’))
scala> val rdd2=sc.parallelize(List(‘B’,’C’))
scala> rdd1.union(rdd2).collect()
Result:
Array[Char] = Array(A, B, B, C)
intersection()
Purpose: new RDD containing only common elements from source RDD and argument.
Scala> rdd1.intersection(rdd2).collect()
Result:
Array[Char] = Array(B)
cartesian()
Purpose: new RDD cross product of all elements from source RDD and argument
Scala> rdd1.cartesian(rdd2).collect()
Result:
Array[(Char, Char)] = Array((A,B), (A,C), (B,B), (B,C))
subtract()
Purpose: new RDD created by removing data elements in source RDD in common with argument
scala> rdd1.subtract(rdd2).collect() Result:
Array[Char] = Array(A)
join(RDD,[numTasks])
Purpose: When invoked on (K,V) and (K,W), this operation creates a new RDD of (K, (V,W))
scala> val personFruit = sc.parallelize(Seq((“Andy”, “Apple”), (“Bob”, “Banana”), (“Charlie”, “Cherry”), (“Andy”,”Apricot”)))
scala> val personSE = sc.parallelize(Seq((“Andy”, “Google”), (“Bob”, “Bing”), (“Charlie”, “Yahoo”), (“Bob”,”AltaVista”)))
scala> personFruit.join(personSE).collect()
Result:
Array[(String, (String, String))] = Array((Andy,(Apple,Google)), (Andy,(Apricot,Google)), (Charlie,(Cherry,Yahoo)), (Bob,(Banana,Bing)), (Bob,(Banana,AltaVista)))
cogroup(RDD,[numTasks])
Purpose: To convert (K,V) to (K,Iterable<V>)
scala> personFruit.cogroup(personSe).collect()
Result:
Array[(String, (Iterable[String], Iterable[String]))] = Array((Andy,(ArrayBuffer(Apple, Apricot),ArrayBuffer(google))), (Charlie,(ArrayBuffer(Cherry),ArrayBuffer(Yahoo))), (Bob,(ArrayBuffer(Banana),ArrayBuffer(Bing, AltaVista))))

更多transformations信息,请查看http://spark.apache.org/docs/latest/programming-guide.html#transformations

常用的actions

Action & Purpose Example & Result
count() Purpose: get the number of data elements in the RDD scala> val rdd = sc.parallelize(list(‘A’,’B’,’c’)) scala> rdd.count() Result:
long = 3
collect() Purpose: get all the data elements in an RDD as an array scala> val rdd = sc.parallelize(list(‘A’,’B’,’c’)) scala> rdd.collect() Result:
Array[char] = Array(A, B, c)
reduce(func) Purpose: Aggregate the data elements in an RDD using this function which takes two arguments and returns one scala> val rdd = sc.parallelize(list(1,2,3,4)) scala> rdd.reduce(_+_) Result:
Int = 10
take (n) Purpose: : fetch first n data elements in an RDD. computed by driver program. Scala> val rdd = sc.parallelize(list(1,2,3,4)) scala> rdd.take(2) Result:
Array[Int] = Array(1, 2)
foreach(func) Purpose: execute function for each data element in RDD. usually used to update an accumulator(discussed later) or interacting with external systems. Scala> val rdd = sc.parallelize(list(1,2,3,4)) scala> rdd.foreach(x=>println(“%s*10=%s”. format(x,x*10))) Result:
1*10=10 4*10=40 3*10=30 2*10=20
first() Purpose: retrieves the first data element in RDD. Similar to take(1) scala> val rdd = sc.parallelize(list(1,2,3,4)) scala> rdd.first() Result:
Int = 1
saveAsTextFile(path) Purpose: Writes the content of RDD to a text file or a set of text files to local file system/ HDFS scala> val hamlet = sc.textFile(“/users/akuntamukkala/ temp/gutenburg.txt”) scala> hamlet.filter(_.contains(“Shakespeare”)). saveAsTextFile(“/users/akuntamukkala/temp/ filtered”) Result:
akuntamukkala@localhost~/temp/filtered$ ls _SUCCESS part-00000 part-00001

更多actions参见http://spark.apache.org/docs/latest/programming-guide.html#actions

六、RDD持久性

Apache Spark中一个主要的能力就是在集群内存中持久化/缓存RDD。这将显著地提升交互速度。下表显示了Spark中各种选项。

Storage Level Purpose
MEMORY_ONLY (Default level) This option stores RDD in available cluster memory as deserialized Java objects. Some partitions may not be cached if there is not enough cluster memory. Those partitions will be recalculated on the fly as needed.
MEMORY_AND_DISK This option stores RDD as deserialized Java objects. If RDD does not fit in cluster memory, then store those partitions on the disk and read them as needed.
MEMORY_ONLY_SER This options stores RDD as serialized Java objects (One byte array per partition). This is more CPU intensive but saves memory as it is more space efficient. Some partitions may not be cached. Those will be recalculated on the fly as needed.
MEMORY_ONLY_DISK_SER This option is same as above except that disk is used when memory is not sufficient.
DISC_ONLY This option stores the RDD only on the disk
MEMORY_ONLY_2, MEMORY_AND_DISK_2, etc. Same as other levels but partitions are replicated on 2 slave nodes

上面的存储等级可以通过RDD. cache()操作上的 persist()操作访问,可以方便地指定MEMORY_ONLY选项。关于持久化等级的更多信息,可以访问这里http://spark.apache.org/docs/latest/programming-guide.html#rdd-persistence。

Spark使用Least Recently Used (LRU)算法来移除缓存中旧的、不常用的RDD,从而释放出更多可用内存。同样还提供了一个unpersist() 操作来强制移除缓存/持久化的RDD。

七、变量共享

Accumulators。Spark提供了一个非常便捷地途径来避免可变的计数器和计数器同步问题——Accumulators。Accumulators在一个Spark context中通过默认值初始化,这些计数器在Slaves节点上可用,但是Slaves节点不能对其进行读取。它们的作用就是来获取原子更新,并将其转发到Master。Master是唯一可以读取和计算所有更新合集的节点。举个例子:

akuntamukkala@localhost~/temp$ cat output.log
error
warning
info
trace
error
info
info
scala> val nErrors=sc.accumulator(0.0)
scala> val logs = sc.textFile(“/Users/akuntamukkala/temp/output.log”)
scala> logs.filter(_.contains(“error”)).foreach(x=>nErrors+=1)
scala> nErrors.value
Result:Int = 2

Broadcast Variables。实际生产中,通过指定key在RDDs上对数据进行合并的场景非常常见。在这种情况下,很可能会出现给slave nodes发送大体积数据集的情况,让其负责托管需要做join的数据。因此,这里很可能存在巨大的性能瓶颈,因为网络IO比内存访问速度慢100倍。为了解决这个问题,Spark提供了Broadcast Variables,如其名称一样,它会向slave nodes进行广播。因此,节点上的RDD操作可以快速访问Broadcast Variables值。举个例子,期望计算一个文件中所有路线项的运输成本。通过一个look-up table指定每种运输类型的成本,这个look-up table就可以作为Broadcast Variables。

akuntamukkala@localhost~/temp$ cat packagesToShip.txt ground
express
media
priority
priority
ground
express
media
scala> val map = sc.parallelize(Seq((“ground”,1),(“med”,2), (“priority”,5),(“express”,10))).collect().toMap
map: scala.collection.immutable.Map[String,Int] = Map(ground -> 1, media -> 2, priority -> 5, express -> 10)
scala> val bcMailRates = sc.broadcast(map)

上述命令中,我们建立了一个broadcast variable,基于服务类别成本的map。

scala> val pts = sc.textFile(“/Users/akuntamukkala/temp/packagesToShip.txt”)

在上述命令中,我们通过broadcast variable的mailing rates来计算运输成本。

scala> pts.map(shipType=>(shipType,1)).reduceByKey(_+_). map{case (shipType,nPackages)=>(shipType,nPackages*bcMailRates. value(shipType))}.collect()

通过上述命令,我们使用accumulator来累加所有运输的成本。详细信息可通过下面的PDF查看http://ampcamp.berkeley.edu/wp-content/uploads/2012/06/matei-zaharia-amp-camp-2012-advanced-spark.pdf。

八、Spark SQL

通过Spark Engine,Spark SQL提供了一个便捷的途径来进行交互式分析,使用一个被称为SchemaRDD类型的RDD。SchemaRDD可以通过已有RDDs建立,或者其他外部数据格式,比如Parquet files、JSON数据,或者在Hive上运行HQL。SchemaRDD非常类似于RDBMS中的表格。一旦数据被导入SchemaRDD,Spark引擎就可以对它进行批或流处理。Spark SQL提供了两种类型的Contexts——SQLContext和HiveContext,扩展了SparkContext的功能。

SparkContext提供了到简单SQL parser的访问,而HiveContext则提供了到HiveQL parser的访问。HiveContext允许企业利用已有的Hive基础设施。

这里看一个简单的SQLContext示例。

下面文本中的用户数据通过“|”来分割。

John Smith|38|M|201 East Heading Way #2203,Irving, TX,75063 Liana Dole|22|F|1023 West Feeder Rd, Plano,TX,75093 Craig Wolf|34|M|75942 Border Trail,Fort Worth,TX,75108 John Ledger|28|M|203 Galaxy Way,Paris, TX,75461 Joe Graham|40|M|5023 Silicon Rd,London,TX,76854

定义Scala case class来表示每一行:

case class Customer(name:String,age:Int,gender:String,address: String)

下面的代码片段体现了如何使用SparkContext来建立SQLContext,读取输入文件,将每一行都转换成SparkContext中的一条记录,并通过简单的SQL语句来查询30岁以下的男性用户。

val sparkConf = new SparkConf().setAppName(“Customers”)
val sc = new SparkContext(sparkConf)
val sqlContext = new SQLContext(sc)
val r = sc.textFile(“/Users/akuntamukkala/temp/customers.txt”) val records = r.map(_.split(‘|’))
val c = records.map(r=>Customer(r(0),r(1).trim.toInt,r(2),r(3))) c.registerAsTable(“customers”)
sqlContext.sql(“select * from customers where gender=’M’ and age <
            30”).collect().foreach(println) Result:[John Ledger,28,M,203 Galaxy Way,Paris,
            TX,75461]

更多使用SQL和HiveQL的示例请访问下面链接https://spark.apache.org/docs/latest/sql-programming-guide.html、https://databricks-training.s3.amazonaws.com/data-exploration-using-spark-sql.html。

九、Spark Streaming

Spark Streaming提供了一个可扩展、容错、高效的途径来处理流数据,同时还利用了Spark的简易编程模型。从真正意义上讲,Spark Streaming会将流数据转换成micro batches,从而将Spark批处理编程模型应用到流用例中。这种统一的编程模型让Spark可以很好地整合批量处理和交互式流分析。下图显示了Spark Streaming可以从不同数据源中读取数据进行分析。

Spark Streaming中的核心抽象是Discretized Stream(DStream)。DStream由一组RDD组成,每个RDD都包含了规定时间(可配置)流入的数据。图12很好地展示了Spark Streaming如何通过将流入数据转换成一系列的RDDs,再转换成DStream。每个RDD都包含两秒(设定的区间长度)的数据。在Spark Streaming中,最小长度可以设置为0.5秒,因此处理延时可以达到1秒以下。

Spark Streaming同样提供了 window operators,它有助于更有效率在一组RDD( a rolling window of time)上进行计算。同时,DStream还提供了一个API,其操作符(transformations和output operators)可以帮助用户直接操作RDD。下面不妨看向包含在Spark Streaming下载中的一个简单示例。示例是在Twitter流中找出趋势hashtags,详见下面代码。

spark-1.0.1/examples/src/main/scala/org/apache/spark/examples/streaming/TwitterPopularTags.scala
val sparkConf = new SparkConf().setAppName(“TwitterPopularTags”)
val ssc = new StreamingContext(sparkConf, Seconds(2))
val stream = TwitterUtils.createStream(ssc, None, filters)

上述代码用于建立Spark Streaming Context。Spark Streaming将在DStream中建立一个RDD,包含了每2秒流入的tweets。

val hashTags = stream.flatMap(status => status.getText.split(“ “).filter(_.startsWith(“#”)))

上述代码片段将Tweet转换成一组words,并过滤出所有以a#开头的。

val topCounts60 = hashTags.map((_, 1)).reduceByKeyAndWindow(_ + _, Seconds(60)).map{case (topic, count) => (count, topic)}. transform(_.sortByKey(false))

上述代码展示了如何整合计算60秒内一个hashtag流入的总次数。

topCounts60.foreachRDD(rdd => {
val topList = rdd.take(10)
println(“nPopular topics in last 60 seconds (%s
total):”.format(rdd.count())) topList.foreach{case (count, tag) => println(“%s (%s
tweets)”.format(tag, count))} })

上面代码将找出top 10趋势tweets,然后将其打印。

ssc.start()

上述代码让Spark Streaming Context 开始检索tweets。一起聚焦一些常用操作,假设我们正在从一个socket中读入流文本。

al lines = ssc.socketTextStream(“localhost”, 9999, StorageLevel.MEMORY_AND_DISK_SER)

更多operators请访问http://spark.apache.org/docs/latest/streaming-programming-guide.html#transformations

Spark Streaming拥有大量强大的output operators,比如上文提到的 foreachRDD(),了解更多可访问   http://spark.apache.org/docs/latest/streaming-programming-guide.html#output-operations

十、附加学习资源

原文链接:Apache Spark:An Engine for Large-Scale Data Processing  由OneAPM工程师翻译。(责编/仲浩)

分类: Apache 标签:

OpenStack实践

2014年8月8日 没有评论

作者:Baihuogou DevOps Team

我们在公司内部部署OpenStack主要是内部管理虚拟机的需要。公司内部之前使用virt-manager来管理内部虚拟机,但是缺点有二:

1. 无法集中管理多台宿主机。

2. 虽然提供图形界面,但是是桌面软件形式,需要安装软件。

所以现在需要一个新的管理软件来解决这些问题,满足两个特性:

1. 能够集中管理多台宿主机。

2. 不需要安装软件就能访问管理界面,比如访问Web页面。

符合这两个特性的比较知名的有CloudStack,OpenNebula,OpenStack,对比CloudStack,OpenNebula,OpenStack的社区更活跃,文档更齐全,支持厂商更多,所以我们最终选择了OpenStack来搭建内部私有云。

OpenStack是一个NASARackspace合作研发的云计算‎软件,以Apache许可证授权,并且是一个自由软件和开放源代码项目。

最初是OpenStack的官方Debian文档一步步搭建,但是卡在安装配置MySQL导致后面无法正常启动,排查了一会儿仍无法解决问题。后面发现了一个图形化安装OpenStack的解决方案,Mirantis OpenStack。 先安装Mirantis OpenStack操作系统,启动后会提示进入网页,在网页上就可以看到可用节点,配置OpenStack各个组件节点,配置网络并验证网络联通性,配置好之后全自动安装。

1. Mirantis界面

2. Mirantis 设置

我们正在把以前的服务向OpenStack平台迁移,已经有20多个虚拟机,包括推荐系统使用的Hadoop集群。

3. OpenStack 概况

4. OpenStack 虚拟机管理器

5. OpenStack 实例

6. OpenStack镜像

需要注意:

1. 如果需要重启OpenStack 计算节点,需要手动停止所有实例(Instance),否则会出现Horizon显示的状态与实例实际状态不一致的问题。只能用`nova reset-state`命令来重置。

2. 一般来说,新开一个实例会应用OpenStack默认的安全策略,即只开放22端口。需要新建安全组,打开需要的端口,然后把实例加入这个安全组。

现在我们的OpenStack系统能基本运行,但是还有很多东西需要研究。后续将投入精力研究镜像制作,高可用等方面。

Apache 之道

2011年5月28日 没有评论

作者:姜宁

  • Apache CXF committer, PMC member
  • Apache Camel committer, PMC member
  • Apache ActiveMQ committer

作者通过三个部分内容阐述了 The Apache Way:

1、Apache 软件基金会的介绍
2、Apache 之道是什么

  • 社区胜于代码 (Community over Code)
  • 任人为贤 (Meritocracy)
  • 共识决策 (Consensus)
  • 透明公开 (Transparency)
  • 非隶属关系 (Non-Affiliation)
  • 负责监督 (Responsible Oversight)

3、如何融入开源软件社区

  • 使用开源软件
  • 提交Bug报告
  • 完善开源社区文档
  • 参与邮件列表讨论
  • 成为开发者贡献代码

Apache 之道是 Apache 社区的文化体现,是一种重视协作的文化,Apache 已经成为协作开发的典范。

作者以其自身实际经历分享了他在Apache开源项目中的协作与成长,其理念不仅仅适用于开源软件社区,也同样适用于更为广泛的网络协作与分享,值得大家一读。

分类: Apache, Developers 标签: ,

Struts 2 Architecture

2009年10月26日 没有评论
Struts2是 Apache Struts的下一代产品, 它WebWork项目进行合并, 并以XWorkWebWork代码作为Struts2的基础.


Struts2 包含以下核心内容: Actions, Interceptors, Results, Validation, OGNL, Tags, View Template, JSP, FreeMarker, Velocity, Plugin.

可以说 Struts2 Java Web 开发的事实标准, 它具备以下能力:
  • 基于 Action的框架, 基于成熟的 XWork框架;
  • 拥有由积极活跃的开发人员与用户组成的成熟社区;
  • AnnotationXML配置选项;
  • 基于 POJO并易于测试的 Action;
  • Spring, SiteMesh Tiles的集成;
  • OGNL表达式语言的集成;
  • 基于主题的标签库与 Ajax标签;
  • 多种视图选项 (JSP , Velocity, Freemarker XSLT);
  • 使用插件来扩展或修改框架特性.

Struts2 用户请求的处理流程:

  1. User Sends request;
  2. FilterDispatcher determines the appropriate action;
  3. Interceptors are applied, 完成 validation, file upload等功能;
  4. Execution of Action;
  5. Output rendering;
  6. Return of Request;
  7. Display the result to user.

Struts 2 整体架构图:

更多Struts 2 的信息请访问: http://docs.huihoo.com/apache/struts/

Apache Geronimo 2.0-M6-rc1 通过 Java EE 5.0 测试

2007年6月8日 没有评论

Apache Geronimo 2.0-M6 已经成功通过 Java EE 5.0 认证测试套件, Apache Geronimo 2.0-M6 包含 Tomcat , Apache CXF 和 OpenJPA 等项目。

此外, BEA Weblogic, Kingdee Apusic, Oracle, SAP NetWeaver, GlassFish 等也通过了 J2EE 5 认证, IBM WebSphere, JBoss, JOnAS 尚未通过此认证 (截至2007.06.07)。

下载: Apache Geronimo 2.0-M6

分类: Apache 标签: