在我的应用程序中,我使用并行化方法将数组保存到文件中。
代码如下:
val sourceRDD = sc.textFile(inputPath + "/source")
val destinationRDD = sc.textFile(inputPath + "/destination")
val source_primary_key = sourceRDD.map(rec => (rec.split(",")(0).toInt, rec))
val destination_primary_key = destinationRDD.map(rec => (rec.split(",")(0).toInt, rec))
val extra_in_source = source_primary_key.subtractByKey(destination_primary_key)
val extra_in_destination = destination_primary_key.subtractByKey(source_primary_key)
val source_subtract = source_primary_key.subtract(destination_primary_key)
val Destination_subtract = destination_primary_key.subtract(source_primary_key)
val exact_bestmatch_src = source_subtract.subtractByKey(extra_in_source).sortByKey(true).map(rec => (rec._2))
val exact_bestmatch_Dest = Destination_subtract.subtractByKey(extra_in_destination).sortByKey(true).map(rec => (rec._2))
val exact_bestmatch_src_p = exact_bestmatch_src.map(rec => (rec.split(",")(0).toInt))
val primary_key_distinct = exact_bestmatch_src_p.distinct.toArray()
for (i <- primary_key_distinct) {
var dummyVar: String = ""
val src = exact_bestmatch_src.filter(line => line.split(",")(0).toInt.equals(i))
var dest = exact_bestmatch_Dest.filter(line => line.split(",")(0).toInt.equals(i)).toArray
for (print1 <- src) {
var sourceArr: Array[String] = print1.split(",")
var exactbestMatchCounter: Int = 0
var index: Array[Int] = new Array[Int](1)
println(print1 + "source")
for (print2 <- dest) {
var bestMatchCounter = 0
var i: Int = 0
println(print1 + "source + destination" + print2)
for (i <- 0 until sourceArr.length) {
if (print1.split(",")(i).equals(print2.split(",")(i))) {
bestMatchCounter += 1
}
}
if (exactbestMatchCounter < bestMatchCounter) {
exactbestMatchCounter = bestMatchCounter
dummyVar = print2
index +:= exactbestMatchCounter //9,8,9
}
}
var z = index.zipWithIndex.maxBy(_._1)._2
if (exactbestMatchCounter >= 0) {
var samparr: Array[String] = new Array[String](4)
samparr +:= print1 + " BEST_MATCH " + dummyVar
var deletedest: Array[String] = new Array[String](1)
deletedest = dest.take(z) ++ dest.drop(1)
dest = deletedest
val myFile = sc.parallelize((samparr)).saveAsTextFile(outputPath)
我使用了并行化方法,我什至尝试使用以下方法将其另存为文件
val myFile = sc.textFile(samparr.toString())
val finalRdd = myFile
finalRdd.coalesce(1).saveAsTextFile(outputPath)
但它不断抛出错误:
线程“main”org . Apache . spark . spark异常:任务不可序列化
不能将 RDD 视为本地集合。针对它的所有操作都发生在分布式群集上。要正常工作,您在该 rdd 中运行的所有函数都必须是可序列化的。
该行
for (print1 <- src) {
在这里,您正在迭代RDD src,循环中的所有内容都必须序列化,因为它将在执行器上运行。
然而,在循环内部,您尝试运行< code>sc.parallelize()。SparkContext不可序列化。使用RDD和sparkcontext是在驱动程序上完成的事情,不能在RDD操作中完成。
我完全明白你想要完成什么,但是这看起来像是某种手工编码的连接源和目的地的操作。您不能像处理本地集合一样处理rdd中的循环。利用apis map、join、groupby等创建最终的rdd,然后保存它。
如果你绝对觉得你必须像这样在rdd上使用foreach循环,那么你不能使用sc.parallelize().saveAsTextFile()
而是使用hadoop文件api打开输出流并手动将数组写入文件。
最后,这段代码帮助我将数组保存到文件中。
new PrintWriter(outputPath) { write(array.mkString(" ")); close }