取消
顯示的結果
而不是尋找
你的意思是:

火花+ Python - Java網關進程退出之前發送司機端口號?

lau_thiamkok
新的貢獻者二世

為什麼我的瀏覽器屏幕上我得到這個錯誤,

<類型的異常。異常的>:Java網關進程退出之前發送司機港口參數數量= (“Java網關進程退出之前發送司機端口號的,)消息= ' Java網關進程退出之前發送司機端口號的

因為,

# !python / Python27 /打印”的content - type: text / html;utf - 8字符集=“打印#啟用調試進口cgitb cgitb.enable()導入操作係統導入係統#路徑火花源文件夾操作係統。環境(' SPARK_HOME '] = " C: \ Apache \ spark-1.4.1”# Append pyspark to Python Path sys.path.append("C:\Apache\spark-1.4.1\python") from pyspark import SparkContext from pyspark import SparkConf from pyspark.sql import SQLContext print ("Successfully imported Spark Modules") # Initialize SparkContext sc = SparkContext('local') words = sc.parallelize(["scala","java","hadoop","spark","akka"]) print words.count() sc.stop()

我在Windows7多。我的版本是spark-1.4.1-bin-hadoop2.6火花。tgz——prebuild haddop 2.6及以後。

任何想法如何我可以修複它嗎?

5回複5

jmdvinodjmd
新的貢獻者二世

我麵臨同樣的問題....(有人發現解決方案嗎?

lau_thiamkok
新的貢獻者二世

我明白了在apache mod wsgi修複通過運行腳本。不要在cgi運行它! !

lau_thiamkok
新的貢獻者二世

這是一個工作示例wsgi上運行,

導入操作係統導入係統

火花源文件夾的路徑

年代。環境(' SPARK_HOME '] = " C: \ Apache \ spark-1.4.1”

附加pyspark Python路徑

ys.path.append (“C: \ Apache \ spark-1.4.1 \ python”)

從進口SparkContext pyspark pyspark進口SparkConf pyspark。sql進口SQLContext

這是我們的應用程序對象。它可以是任何名稱,

除了使用mod_wsgi時,一定是“應用程序”def應用程序(圍住,start_response):

#初始化SparkContext sc = SparkContext(當地的)單詞= sc.parallelize ([“scala”、“java”、“hadoop”、“火花”," akka "])數= words.count() #打印計數sc.stop () response_body =“成功導入模塊和火花總的話:”+ str(計數)# HTTP響應代碼和消息狀態= ' 200 OK”#這是HTTP頭所期望的客戶端。#他們必須包裹的元組對列表:#(標題名稱,標題值)。response_headers =[(“內容類型”、“文本/普通”),(內容長度,str (len (response_body)))) #送到服務器使用提供的函數start_response(地位、response_headers) #返回響應的身體。#注意到它是包裹在一個列表雖然可能有任何iterable。返回(response_body) < / pre >

蘇尼爾
新的貢獻者二世

你好我們是usinh蟒蛇+鼎暉,pyspark但使用Ipython非常有效

Java網關進程退出之前發送司機的端口號

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map