提问者:小点点

Spark JavaRdd到Dataframe的转换代码停止没有错误


我正在尝试转换JavaRDD

public static class PageRanksCase implements Serializable{

    private String node;
    private Double importance; 


    public void setNode(String node) { this.node = node; }
    public void setImportance(Double importance) { this.importance = importance; }

    public String getNode(String node) { return this.node; }
    public Double getImportance(String node) { return this.importance; }
}

这是我试图运行以将类转换为DataFrame的代码。

try{
    JavaRDD<PageRanksCase> finalData = GetTopNNodes(pairedrdd);
    System.out.println("coming here");
    DataFrame finalFrame = Service.sqlCtx().createDataFrame(finalData,PageRanksCase.class);
    System.out.println("coming here too");
    finalFrame.write().parquet(rdfanalyzer.spark.Configuration.storage() + "sib200PageRank.parquet");
}
catch(Exception e)
{ 
  System.out.println(e.getMessage());  // gives null here.
}

它确实打印来到这里,但它不会打印来到这里并且也不会给出任何错误。这是我将JavaPairRDD转换为JavaRDD的方法。

public static JavaRDD<PageRanksCase> GetTopNNodes(JavaPairRDD<String,Double> pairedrdd){

    return pairedrdd.map(new Function<Tuple2<String,Double>, PageRanksCase>() {

        @Override
        public PageRanksCase call(Tuple2<String, Double> line) throws Exception {
            PageRanksCase pgrank  = new PageRanksCase();
            pgrank.setImportance(line._2);
            pgrank.setNode(line._1());
            return pgrank;
        }
    });
}

有人知道这里发生了什么吗?


共1个答案

匿名用户

我最终使用Spark网站上提到的示例重新实现了代码。