spark啟動問題,發現任務都是在localhost下面啟動並執行,原來啟動spark-shell的時候需要帶主節點的參數

來源:互聯網
上載者:User

標籤:核心   需要   .sh   cores   應用   host   互動   通過   spark叢集   

在Spark 叢集上運行一個應用,只需通過master的 spark://IP:PORT 連結傳遞到SparkContext構造器

在叢集上運行互動Spark 命令, 運行如下命令:

MASTER=spark://IP:PORT ./spark-shell

注意,如果你在一個 spark叢集上運行了spark-shell指令碼,spark-shell 將通過在conf/spark-env.sh下的SPARK_MASTER_IP和SPARK_MASTER_PORT自動化佈建MASTER .

你也可以傳遞一個參數-c <numCores> 來控制 spark-shell 在叢集上使用的核心數量

spark啟動問題,發現任務都是在localhost下面啟動並執行,原來啟動spark-shell的時候需要帶主節點的參數

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.