-
打包后的操作查看全部
-
寫完程序后的操作查看全部
-
寫代碼步驟 單詞出現(xiàn)個數(shù)計數(shù)查看全部
-
pwd:查看”當(dāng)前工作目錄“的完整路徑 ll: ls命令 列出制定文件下或當(dāng)前目錄 用法:ls [選項]... [文件]... 列出 FILE 的信息(默認(rèn)為當(dāng)前目錄)。 如果不指定-cftuvSUX 或--sort 選項,則根據(jù)字母大小排序。 cat 1.一次顯示整個文件。$ cat filename 2.從鍵盤創(chuàng)建一個文件。$ cat > filename 只能創(chuàng)建新文件,不能編輯已有文件. 3.將幾個文件合并為一個文件: $cat file1 file2 > file cd 切換當(dāng)前目錄至dirName 進入系統(tǒng)根目錄,上面命令執(zhí)行完后拿ls/ll命令看一下,當(dāng)前目錄已經(jīng)到系統(tǒng)根目錄了 chomd 用于改變文件或目錄的訪問權(quán)限,用它控制文件或目錄的訪問權(quán)限。查看全部
-
開發(fā)一個spark程序的步驟ssh無密登錄查看全部
-
spark 基于內(nèi)存的其中間數(shù)據(jù)不落在硬盤上大大提高了計算速度查看全部
-
比較spark hadoop查看全部
-
hadoop 應(yīng)用場景查看全部
-
spark組件 緊密集成的優(yōu)點查看全部
-
cluster managers 集群管理 spark自帶集群管理是單獨調(diào)度器查看全部
-
graphx 是處理圖的庫(社交網(wǎng)絡(luò)圖),并計算圖的稟性計算 想sparkstreaming sparksql一樣他繼承了rdds api 他提供了各種圖的而操作和常用圖計算例如 pangrank 應(yīng)用圖計算查看全部
-
mlib 一個包含通用機器學(xué)習(xí)功能的包, 包含分類聚類回歸等,還包括模型評估和數(shù)據(jù)導(dǎo)入 mlib提供的上面這些方法,都支持集群上的橫向擴展 用于機器學(xué)習(xí)查看全部
-
spark streaming 是實時流數(shù)據(jù)流處理組件,類似storm 提供api來操作實時流數(shù)據(jù) 從kafka接收數(shù)據(jù)做實統(tǒng)計查看全部
-
spark sql: 是spark 處理結(jié)構(gòu)化數(shù)據(jù)庫,就像hive sql,mysql一樣。 應(yīng)用場景,企業(yè)用來做報表統(tǒng)計查看全部
-
spark core: 包含了spark 的基本功能,包含任務(wù)調(diào)度,內(nèi)存管理,容錯機制等: 內(nèi)部定義了rdds(彈性分布式數(shù)據(jù)集) 提供了很多apis來創(chuàng)建和操作這些rdds 為其他組件提供最底層服務(wù)查看全部
舉報
0/150
提交
取消