公司让我准备个题目分享,我想了解一下这个东东--spark,但是我看官方只提供了R,PATHON,JAVA,Scala的API,那我是c#的程序员,我该怎么用这个spark呢
纯小白,刚看一点spark的概念,有什么致命的理解错误请轻喷
有http的api没
Spark可以在Windows和类UNIX系统(如Linux,Mac OS)上运行。在一台机器上本地运行非常简单 - 只需要java在系统上安装PATH或者JAVA_HOME指向Java安装的环境变量即可。
Spark运行于Java 8+,Python 2.7 + / 3.4 +和R 3.1+。对于Scala API,Spark 2.2.0使用Scala 2.11。您将需要使用兼容的Scala版本(2.11.x)。
请注意,从Spark 2.2.0起,对2.6.5之前的Java 7,Python 2.6和旧Hadoop版本的支持已被删除。
请注意,Scala 2.10的支持已经不再适用于Spark 2.1.0,可能会在Spark 2.3.0中删除。
Apache Spark是一种快速和通用的集群计算系统。它提供Java,Scala,Python和R中的高级API,以及支持一般执行图的优化引擎。它还支持一组丰富的更高级别的工具,包括星火SQL用于SQL和结构化数据的处理,MLlib机器学习,GraphX用于图形处理和星火流。
这是官网的说明
你要分享一个你自己都不熟悉的东西?
是的,我学习之后分享一下....
我现在也是这个问题,多年了,请问博主现在能回答你自己的问题吗