-
打包后的操作查看全部
-
寫完程序后的操作查看全部
-
寫代碼步驟 單詞出現(xiàn)個(gè)數(shù)計(jì)數(shù)查看全部
-
pwd:查看”當(dāng)前工作目錄“的完整路徑 ll: ls命令 列出制定文件下或當(dāng)前目錄 用法:ls [選項(xiàng)]... [文件]... 列出 FILE 的信息(默認(rèn)為當(dāng)前目錄)。 如果不指定-cftuvSUX 或--sort 選項(xiàng),則根據(jù)字母大小排序。 cat 1.一次顯示整個(gè)文件。$ cat filename 2.從鍵盤創(chuàng)建一個(gè)文件。$ cat > filename 只能創(chuàng)建新文件,不能編輯已有文件. 3.將幾個(gè)文件合并為一個(gè)文件: $cat file1 file2 > file cd 切換當(dāng)前目錄至dirName 進(jìn)入系統(tǒng)根目錄,上面命令執(zhí)行完后拿ls/ll命令看一下,當(dāng)前目錄已經(jīng)到系統(tǒng)根目錄了 chomd 用于改變文件或目錄的訪問權(quán)限,用它控制文件或目錄的訪問權(quán)限。查看全部
-
開發(fā)一個(gè)spark程序的步驟ssh無密登錄查看全部
-
spark 基于內(nèi)存的其中間數(shù)據(jù)不落在硬盤上大大提高了計(jì)算速度查看全部
-
比較spark hadoop查看全部
-
hadoop 應(yīng)用場景查看全部
-
spark組件 緊密集成的優(yōu)點(diǎn)查看全部
-
cluster managers 集群管理 spark自帶集群管理是單獨(dú)調(diào)度器查看全部
-
graphx 是處理圖的庫(社交網(wǎng)絡(luò)圖),并計(jì)算圖的稟性計(jì)算 想sparkstreaming sparksql一樣他繼承了rdds api 他提供了各種圖的而操作和常用圖計(jì)算例如 pangrank 應(yīng)用圖計(jì)算查看全部
-
mlib 一個(gè)包含通用機(jī)器學(xué)習(xí)功能的包, 包含分類聚類回歸等,還包括模型評(píng)估和數(shù)據(jù)導(dǎo)入 mlib提供的上面這些方法,都支持集群上的橫向擴(kuò)展 用于機(jī)器學(xué)習(xí)查看全部
-
spark streaming 是實(shí)時(shí)流數(shù)據(jù)流處理組件,類似storm 提供api來操作實(shí)時(shí)流數(shù)據(jù) 從kafka接收數(shù)據(jù)做實(shí)統(tǒng)計(jì)查看全部
-
spark sql: 是spark 處理結(jié)構(gòu)化數(shù)據(jù)庫,就像hive sql,mysql一樣。 應(yīng)用場景,企業(yè)用來做報(bào)表統(tǒng)計(jì)查看全部
-
spark core: 包含了spark 的基本功能,包含任務(wù)調(diào)度,內(nèi)存管理,容錯(cuò)機(jī)制等: 內(nèi)部定義了rdds(彈性分布式數(shù)據(jù)集) 提供了很多apis來創(chuàng)建和操作這些rdds 為其他組件提供最底層服務(wù)查看全部
舉報(bào)
0/150
提交
取消