Ein weiteres Beispiel für dasselbe Konzept - aber sagen wir - Sie haben zwei verschiedene Spalten - und Sie möchten auf jede von ihnen unterschiedliche Agg-Funktionen anwenden, d. H.
f.groupBy("col1").agg(sum("col2").alias("col2"), avg("col3").alias("col3"), ...)
Hier ist der Weg, um dies zu erreichen - obwohl ich noch nicht weiß, wie ich den Alias in diesem Fall hinzufügen soll
Siehe das folgende Beispiel - Verwenden von Karten
val Claim1 = StructType(Seq(StructField("pid", StringType, true),StructField("diag1", StringType, true),StructField("diag2", StringType, true), StructField("allowed", IntegerType, true), StructField("allowed1", IntegerType, true)))
val claimsData1 = Seq(("PID1", "diag1", "diag2", 100, 200), ("PID1", "diag2", "diag3", 300, 600), ("PID1", "diag1", "diag5", 340, 680), ("PID2", "diag3", "diag4", 245, 490), ("PID2", "diag2", "diag1", 124, 248))
val claimRDD1 = sc.parallelize(claimsData1)
val claimRDDRow1 = claimRDD1.map(p => Row(p._1, p._2, p._3, p._4, p._5))
val claimRDD2DF1 = sqlContext.createDataFrame(claimRDDRow1, Claim1)
val l = List("allowed", "allowed1")
val exprs = l.map((_ -> "sum")).toMap
claimRDD2DF1.groupBy("pid").agg(exprs) show false
val exprs = Map("allowed" -> "sum", "allowed1" -> "avg")
claimRDD2DF1.groupBy("pid").agg(exprs) show false
aggregateBy
hier anwendbar zu sein. Es ist schneller (zu viel schneller) alsgroupBy
. Oh warte - dasDataFrame
macht nicht ausaggregateBy
-agg
wird darauf hingewiesengroupBy
. Nun, das heißt,DataFrames
sind langsam ..