在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

怎樣在不使用Spark應用程序的情況下使Spark Core運行

454398 ? 來源:網絡整理 ? 作者:佚名 ? 2019-11-05 08:41 ? 次閱讀

步驟1:先決條件

Spark Core

這可能看起來很明顯,但是假設使一個問題成為現實。該包裝中包含USB微型連接器電纜,因此請確保也能觸及該電纜。

通過WiFi連接到互聯網的計算機

Core不能僅期望與本地WiFi交互。

串行通信軟件

Windows :膩子

Mac和Linux :屏幕

USB串行驅動程序

這是Windows特定的問題。如果您已經在同一Windows機器上安裝了Teensy甚至是Arduino,那么在通過USB連接Core時,您不需要做任何特別的事情。

請確保通過USB連接到筆記本電腦時,Core閃爍中速藍色

Core中間的大RGB LED兩側各有兩個按鈕。如果USB微型插頭面向12點鐘,則“模式”按鈕位于9點鐘(即左側),而“重置”按鈕位于3點鐘(右側)。

如果Core呈綠色常亮,則它可能具有較舊的WiFi憑據。按住“模式”按鈕10秒鐘,它將清除其現有的WiFi憑據,然后重新啟動。

步驟2:收集基于Web的激活的詳細信息

請注意,大多數說明可從Spark網站獲得。但是有一些跳躍的地方,因此將所有內容按執行順序并顯示在一個屏幕上要方便得多:

A)使用以下方法在https://www.spark.io/signup上創建一個帳戶電子郵件地址。

注意事項:輸入電子郵件地址時,請三重檢查。如果拼寫錯誤,Spark團隊將沒有自動解決系統。他們只能通過電子郵件解決問題,雖然他們非常有禮貌并且對此有所了解,但仍會花費一些時間;

B)將Core插入筆記本電腦的USB端口并發現其端口-

Windows:

打開設備管理器(devmgmt.msc);

轉到“端口(COM和LPT)”,然后將其扭曲打開(如果尚未打開)。查找Spark或“通用USB串行”條目并記下COM號。

Mac:

上拉終端(打開一個Finder并搜索“/Applications/Utilities/Terminal”);

運行以下命令:ls -ltr /dev/cu.*

時間戳最近的項目將是列表中的最后一項。它的文件名應以“ cu.usbmodem”開頭,然后包含幾位數字。

Linux:

打開一個終端,然后運行:ls -l /dev/ttyACM*

C)使用發現的端口-

Windows:

打開膩子;

選擇“ Serial”作為連接類型,將“ COM#”作為地址,將COM端口號指定為“#”,將9600作為速度。

Mac和Linux:

鍵入以下內容以確認通信程序在您的路徑中-which screen

類型screen /dev/[cu.usbmodem*|ttyACM*] 9600

D)獲取核心的標識符(序列號)并將其鏈接到WiFi-

在通信會話中輸入“ i”;

它將以24個字符的十六進制唯一ID答復,最有可能以53或54開頭,例如Your core id is 53ff6c06fe01dc23ba459867

將ID號復制為文本。在膩子中,只需單擊并拖動ID即可將其復制。 將其粘貼到文本文件中以確保安全;

返回到通信會話,然后鍵入“ w”。核心將切換為穩定的藍燈,而通信會話將提示輸入SSID(區分大小寫),安全性和密碼;

成功的嘗試應類似于此頁面上的最后一個屏幕截圖。

步驟3:使用網站激活:將序列號鏈接到Spark帳戶

登錄回到Spark IDE網站:https://www.spark.io/login;

在IDE的左窗格中,從底部查找第二個圖標(它將看起來像一個目標)。將鼠標懸停在其上將顯示“ Cores”一詞。單擊此按鈕;

單擊黃色的“添加新核心”按鈕。這將啟動一個彈出窗口;

從通信會話中粘貼ID號,然后單擊“聲明!”。按鈕;

最后一步將提供一個半隨機名稱。接受默認值或對其進行更改,然后單擊以命名。

步驟4:回到Web IDE并開始編碼

在Mac和Linux中,WiFi步驟成功后,屏幕會話應自動關閉;如果不是,請使用 control-a 然后使用 control-k 從其中取消屏幕會話。在Windows中,關閉Putty會話是安全的。

現在是時候編寫代碼并使Spark Core投入工作了:

https://www.spark.io/login

已經熟悉IDE的人應該很自在。同樣的人可能還會想知道為什么仍然連接到USB端口的設備的所有代碼都需要從附近的Web服務器發送給它的代碼。

一個答案是Spark Core是只尋找USB電源。只要Core仍與筆記本電腦連接到同一WiFi路由器,就可以在范圍內的任何位置對其進行重新編程

另一個答案是安裝Spark CLI工具和Spark Dev IDE,或者甚至設置了單獨的Spark Source環境。這些將需要等待將來的Instructable。
責任編輯:wv

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Core
    +關注

    關注

    0

    文章

    175

    瀏覽量

    43018
收藏 人收藏

    評論

    相關推薦

    請問DAC37J82不使用DAC PLL的情況下,寄存器的配置順序應該怎樣呢?

    請問DAC37J82不使用DAC PLL的情況下,寄存器的配置順序應該怎樣呢?有沒有推薦的寄存器配置順序表?
    發表于 11-26 06:04

    spark為什么比mapreduce快?

    mapreduce快的原因有以下幾點: 1:DAG相比hadoop的mapreduce大多數情況下可以減少磁盤I/O次數 因為mapreduce計算模型只能包含
    的頭像 發表于 09-06 09:45 ?320次閱讀

    plc什么情況下會導致程序丟失

    PLC(Programmable Logic Controller,可編程邏輯控制器)是一種廣泛應用于工業自動化領域的設備。它通過執行用戶編寫的程序來實現對機械設備的控制。然而,某些情況下,PLC
    的頭像 發表于 08-19 09:14 ?1696次閱讀

    廣汽能源與泰國Spark EV簽訂合作框架協議

    近日,廣汽能源科技(泰國)有限公司與Spark EV Co.Ltd.宣布達成重要合作,雙方共同簽署了一項合作框架協議,旨在泰國境內全面布局并運營超級充電場站,為新能源汽車的普及與發展注入強勁動力。
    的頭像 發表于 07-19 17:08 ?907次閱讀

    esp-wroom-32如何在不使用wifi功能的情況下獲取mac地址?

    你好 我想檢查 esp-wroom-32 模塊的mac_address。 我已經通過初始化wifi然后調用函數來esp_get_mac檢查了它。 但是,如果我想在不使用 wifi 功能的情況下獲取該 mac 地址。 有沒有其他方法可以檢查MAC地址。
    發表于 07-19 09:37

    spark運行的基本流程

    記錄和分享spark運行的基本流程。 一、spark的基礎組件及其概念 1. ClusterManager Standalone模式中即
    的頭像 發表于 07-02 10:31 ?477次閱讀
    <b class='flag-5'>spark</b><b class='flag-5'>運行</b>的基本流程

    Spark基于DPU的Native引擎算子卸載方案

    ?和 R?等多種高級編程語言,這使得Spark可以應對各種復雜的大數據應用場景,例如金融、電商、社交媒體等。 Spark 經過多年發展,作為基礎的計算框架,不管是
    的頭像 發表于 06-28 17:12 ?766次閱讀
    <b class='flag-5'>Spark</b>基于DPU的Native引擎算子卸載方案

    關于Spark的從0實現30s內實時監控指標計算

    前言 說起Spark,大家就會自然而然地想到Flink,而且會不自覺地將這兩種主流的大數據實時處理技術進行比較。然后最終得出結論:Flink實時性大于Spark。 的確,Flink中的數據計算
    的頭像 發表于 06-14 15:52 ?512次閱讀

    Spark+Hive”DPU環境的性能測評 | OLAP數據庫引擎選型白皮書(24版)DPU部分節選

    奇點云2024年版《OLAP數據庫引擎選型白皮書》中,中科馭數聯合奇點云針對Spark+Hive這類大數據計算場景的主力引擎,測評DPU環境對比CPU環境
    的頭像 發表于 05-30 16:09 ?583次閱讀
    “<b class='flag-5'>Spark</b>+Hive”<b class='flag-5'>在</b>DPU環境<b class='flag-5'>下</b>的性能測評 | OLAP數據庫引擎選型白皮書(24版)DPU部分節選

    TSIM是否支持TC3xx系列沒有硬件的情況下調試應用程序

    你好, TSIM是否支持TC3xx系列沒有硬件的情況下調試應用程序? AURIX TC3xx - Free Entry ToolChain 是否有助于實現上述目的?
    發表于 05-17 07:02

    如何利用DPU加速Spark大數據處理? | 總結篇

    一、總體介紹 1.1 背景介紹 近年來,隨著存儲硬件的革新與網絡技術的突飛猛進,如NVMe SSD和超高速網絡接口的普及應用,I/O性能瓶頸已得到顯著改善。然而,2020年及以后的技術背景,盡管
    的頭像 發表于 04-02 13:45 ?1119次閱讀
    如何利用DPU加速<b class='flag-5'>Spark</b>大數據處理? | 總結篇

    Spark基于DPU Snappy壓縮算法的異構加速方案

    一、總體介紹 1.1 背景介紹 Apache Spark是專為大規模數據計算而設計的快速通用的計算引擎,是一種與 Hadoop 相似的開源集群計算環境,但是兩者之間還存在一些不同之處,這些不同之處使
    的頭像 發表于 03-26 17:06 ?865次閱讀
    <b class='flag-5'>Spark</b>基于DPU Snappy壓縮算法的異構加速方案

    RDMA技術Apache Spark中的應用

    、電信、零售、醫療保健還是物聯網,Spark的應用幾乎遍及所有需要處理海量數據和復雜計算的領域。它的快速、易用和通用性,使得數據科學家和工程師能夠輕松實現數據挖掘、數據分析、實時處理等任務。 然而,Spark的燦爛光環背后,一
    的頭像 發表于 03-25 18:13 ?1600次閱讀
    RDMA技術<b class='flag-5'>在</b>Apache <b class='flag-5'>Spark</b>中的應用

    基于DPU和HADOS-RACE加速Spark 3.x

    、Python、Java、Scala、R)等特性大數據計算領域被廣泛使用。其中,Spark SQL 是 Spark 生態系統中的一個重要組件,它允許用戶以結構化數據的方式進行數據處理,提供了強大
    的頭像 發表于 03-25 18:12 ?1425次閱讀
    基于DPU和HADOS-RACE加速<b class='flag-5'>Spark</b> 3.x

    是否可以不使用freeRTOS的情況下運行Infenion AIROC藍牙包來配置CY43439?

    是否可以不使用 freeRTOS 的情況下運行 Infenion AIROC 藍牙包來配置 CY43439(將 CY43439 與 STM32H753 連接)?
    發表于 03-06 06:02
    主站蜘蛛池模板: 欧美另类高清xxxxx | 五月天亚洲 | 五月天婷婷导航 | 精品国产成人三级在线观看 | 欧美ab在线| 男女爱爱免费 | 岛国大片在线播放 | 九七婷婷狠狠成人免费视频 | 黄网在线免费观看 | 欧美系列在线 | 天天夜天干天天爽 | 色综合久久综合欧美综合网 | 亚1州区2区三区4区产品 | 亚洲欧美一区二区三区图片 | 免费看大黄 | 伊人狼人综合 | 国产私密 | 欧美高清xx | 你懂的视频在线看 | 欧美黑粗特黄午夜大片 | 国产婷婷一区二区三区 | 日本www色高清视频 日本www色视频 | 一级特黄aaa大片29 | 天天操天天干天天操 | 91久久国产青草亚洲 | a级男女性高爱潮高清试 | 国语对白一区二区三区 | 欧美色炮 | 男人资源| 国产全部理论片线观看 | 欧美黄一片 | 熊出没之环球大冒险旧版免费观看 | 亚洲一区二区视频在线观看 | 伊人久久大香线蕉综合7 | 精品三级三级三级三级三级 | 免费观看国产网址你懂的 | 狠狠五月天小说 | 午夜影院毛片 | 日本黄色一区 | 精品在线一区二区 | 五月天狠狠 |