Laden Sie den Treiber mysql-connector-java herunter und bewahren Sie ihn im Ordner spark jar auf. Beachten Sie den folgenden Python-Code, indem Sie Daten in "acotr1" schreiben. Wir müssen die Tabellenstruktur acotr1 in der mysql-Datenbank erstellen
spark = SparkSession.builder.appName("prasadad").master('local').config('spark.driver.extraClassPath','D:\spark-2.1.0-bin-hadoop2.7\jars\mysql-connector-java-5.1.41-bin.jar').getOrCreate()
sc = spark.sparkContext
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
df = sqlContext.read.format("jdbc").options(url="jdbc:mysql://localhost:3306/sakila",driver="com.mysql.jdbc.Driver",dbtable="actor",user="root",password="****").load()
mysql_url="jdbc:mysql://localhost:3306/sakila?user=root&password=****"
df.write.jdbc(mysql_url,table="actor1",mode="append")