spark叢集更換python安裝環境

來源:互聯網
上載者:User

標籤:spark叢集   BMI   生產環境   整合   環境變數   建立   獨立   需要   軟連結   

由於需要用到很多第三方的包,比如numpy,pandas等,而生產環境又無法上網單個包安裝太麻煩,因此考慮把之前安裝的python的獨立環境換成Anaconda的整合式開發環境。以下是具體步驟: 1安裝Anaconda3-5.0.1-Linux-x86_64.sh指令碼 2給/opt/modules/anaconda3/bin/python3.6建立軟連結

ln -s /opt/modules/anaconda3/bin/python /usr/bin/python3
3修改root環境變數
/root/.bashrc
/root/.bash_profile
修改hdfs使用者環境變數,因為叢集操作大多有hdfs使用者完成。
su - hdfs
~/.bashrc
export PATH="/usr/bin:$PATH"
4修改pyspark2命令
vi /usr/bin/pyspark2
修改spark2-submit命令
vi /usr/bin/spark2-submit
修改PYSPARK_PYTHON這個變數
幾個節點都要修改,之後spark更換到新的python,常用的包都有了。

spark叢集更換python安裝環境

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.