Spark 1.4串連mysql詭異的問題及解決

來源:互聯網
上載者:User

標籤:

在spark-default.conf檔案中明明配置了mysql的資料來源串連

隨後啟動spark-shell 執行如下測試代碼:

import org.apache.spark.{SparkContext, SparkConf}import org.apache.spark.sql.{SaveMode, DataFrame}import org.apache.spark.sql.hive.HiveContextval mySQLUrl = "jdbc:mysql://localhost:3306/yangsy?user=root&password=yangsiyi"  val people_DDL = s"""            CREATE TEMPORARY TABLE PEOPLE            USING org.apache.spark.sql.jdbc            OPTIONS (              url    ‘${mySQLUrl}‘,              dbtable     ‘person‘            )""".stripMargin    sqlContext.sql(people_DDL)    val person = sql("SELECT * FROM PEOPLE").cache()val name = "name"val targets = person.filter("name ="+name).collect()

collect()的時候報找不到driver

這個問題就很詭異了。。資料來源串連也沒錯啊,畢竟在hive的metastore也是用的這個啊。。最終只能在啟動spark-shell的時候同時引入jar包了= =

./spark-shell --jars /usr/local/spark-1.4.0-bin-2.5.0-cdh5.2.1/lib/mysql-connector-java-5.1.30-bin.jar 

隨後再執行就OK了。。詭異。。

或者在執行collect()之前引入mysql的jar包也可以

sqlContext.sql("add jar /usr/local/spark-1.4.0-bin-2.5.0-cdh5.2.1/lib/mysql-connector-java-5.1.30-bin.jar")

不過總感覺不妥。。有解決辦法的求指導哈~

Spark 1.4串連mysql詭異的問題及解決

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.