跳到主要內容
不同於美國知名創投A16z合夥人Peter Levine斬釘截鐵的認為,雲端運算正在終結,甚至邊緣運算最終會反過來吃掉雲端。過去在行動通訊產業實務經驗相當豐富的工研院資通所先進通訊系統與標準發展技術部經理楊人順反而認為,雲端未來非但不會消失,還會擴大發展成為一個三層式雲端運算架構。
楊人順進一步來解釋說,「未來的雲端運算架構將分三層,最上層是傳統的中央雲(Central Cloud),雲與地面之間,還會增加兩層雲,一層是位在中間層的行動邊緣雲(Mobile Edge Cloud),另外距離地面附近還有一層是霧運算裝置(Fog Computing Device)組成的雲。」他表示,這三層雲架構的分布範圍將由大到小,來滿足不同用戶端的雲服務使用需求。例如屬於低延遲需求的服務,未來可以先緩衝在行動邊緣雲和地面雲來處理,並由中央雲負責做為後勤支援,只有少數情況下才全權由中央雲接手,例如,網路延遲容忍度較高,或是用於網頁的網路服務。
楊人順表示,邊緣運算興起的一大推力,在於需要滿足這些高解析度影像即時傳輸和辨識的新興應用,例如擴增實境(AR)及虛擬實境(VR)、車聯網等,因為這類型的新應用,對於網路頻寬和延遲要求極高,網路傳輸的延遲時間必須小於10毫秒,否則無法滿足用戶服務的品質需求,「但以目前的雲端技術,因為仰賴網際網路,端到端點的網路傳輸延遲都大於500毫秒的情況下,幾乎不可能做到,所以需要邊緣運算才能解決。」他說。
楊人順還提到邊緣運算有另一個貢獻,可以用來減少傳回雲端的資料總量,先將全部資料就近在邊緣裝置進行預處理,等到將重覆資料過濾後,資料量變少以後,才將處理後的資料傳回雲端,不僅可以節省網路頻寬的使用,也能降低雲端傳輸的成本。
楊人順指出,邊緣運算還可依通訊類型分為行動邊緣運算(Mobile Edge Computing)及霧運算(Fog Computing )。行動邊緣運算是較偏向電信通訊方面的應用,屬於由電信營運商經營管理的設備;而霧運算較看重本地端區域網路的資料處理功能,屬於資料通訊層的應用,可以包含個人或企業管理使用的網路設備,以便在一定區域內,來提供相關IoT服務,「行動邊緣運算與霧運算,未來勢必朝向整合的方向來發展。」他說。
邊緣運算雖然很適合用在需具有低延遲需求、分散式需求,以及區域型人工智慧特徵(如影像辨識)的應用。不過,楊人順特別看好將來的服務型機器人應用。楊人順解釋,有別於傳統工廠機器人,服務型機器人因為是以服務人為主,所以可以充當警察、餐廳接待生或賣場銷售員,或其它不同類型服務員。這些類型的服務型機器人,若要取得更廣泛的應用,就需要極低延遲的網路傳輸環境,因為一旦機器人動作太慢,就會讓被服務的人感覺不耐煩,所以邊緣運算就能派上用場。
「邊緣運算掀起的新風潮,不僅讓雲端運算架構開始變得很不一樣,也徹底顛覆IoT和工業4.0的技術,包含網路架構、設備軟硬體和資料庫與管理系統。」楊人順也建議,政府和產業應該聯手共同推動IoT和工業4.0的邊緣運算技術,在硬體之外,更要聚焦軟體的發展,包括了虛擬機器(VM)為基礎的分散式運算、資料庫和分散式資源管理等軟體系統,另外,也須加強投入行動邊緣運算技術的發展,以便於未來可用於AR、VR、車聯網、無人機等創新應用服務上。

留言

這個網誌中的熱門文章

2017通訊大賽「聯發科技物聯網開發競賽」決賽團隊29強出爐!作品都在11月24日頒獎典禮進行展示

2017通訊大賽「聯發科技物聯網開發競賽」決賽團隊29強出爐!作品都在11月24日頒獎典禮進行展示 LIS   發表於 2017年11月16日 10:31   收藏此文 2017通訊大賽「聯發科技物聯網開發競賽」決賽於11月4日在台北文創大樓舉行,共有29個隊伍進入決賽,角逐最後的大獎,並於11月24日進行頒獎,現場會有全部進入決賽團隊的展示攤位,總計約為100個,各種創意作品琳琅滿目,非常值得一看,這次錯過就要等一年。 「聯發科技物聯網開發競賽」決賽持續一整天,每個團隊都有15分鐘面對評審團做簡報與展示,並接受評審們的詢問。在所有團隊完成簡報與展示後,主辦單位便統計所有評審的分數,並由評審們進行審慎的討論,決定冠亞季軍及其他各獎項得主,結果將於11月24日的「2017通訊大賽頒獎典禮暨成果展」現場公佈並頒獎。 在「2017通訊大賽頒獎典禮暨成果展」現場,所有入圍決賽的團隊會設置攤位,總計約為100個,展示他們辛苦研發並實作的作品,無論是想觀摩別人的成品、了解物聯網應用有那些新的創意、尋找投資標的、尋找人才、尋求合作機會或是單純有興趣,都很適合花點時間到現場看看。 頒獎典禮暨成果展資訊如下: 日期:2017年11月24日(星期五) 地點:中油大樓國光廳(台北市信義區松仁路3號) 我要報名參加「2017通訊大賽頒獎典禮暨成果展」>>> 在參加「2017通訊大賽頒獎典禮暨成果展」之前,可以先在本文觀看各團隊的作品介紹。 決賽29強團隊如下: 長者安全救星 可隨意描繪或書寫之電子筆記系統 微觀天下 體適能訓練管理裝置 肌少症之行走速率檢測系統 Sugar Robot 賽亞人的飛機維修輔助器 iTemp你的溫度個人化管家 語音行動冰箱 MR模擬飛行 智慧防盜自行車 跨平台X-Y視覺馬達控制 Ironmet 菸消雲散 無人小艇 (Mini-USV) 救OK-緊急救援小幫手 穿戴式長照輔助系統 應用於教育之模組機器人教具 這味兒很台味 Aquarium Hub 發展遲緩兒童之擴增實境學習系統 蚊房四寶 車輛相控陣列聲納環境偵測系統 戶外團隊運動管理裝置 懷舊治療數位桌曆 SeeM智能眼罩 觸...

完形心理學!?讓我們了解“介面設計師”為什麼這樣設計

完形心理學!?讓我們了解“介面設計師”為什麼這樣設計 — 說服客戶與老闆、跟工程師溝通、強化設計概念的有感心理學 — 情況 1 : 為何要留那麼多空白? 害我還要滾動滑鼠(掀桌) 情況 2 : 為什麼不能直接用一頁展現? 把客戶的需求塞滿不就完工啦! (無言) 情況 3: 這種設計好像不錯,但是為什麼要這樣做? (直覺大神告訴我這樣設計,但我說不出來為什麼..) 雖然世界上有許多 GUI 已經走得又長又遠又厲害,但別以為這種古代人對話不會出現,一直以來我們只是習慣這些 GUI 被如此呈現,但為何要這樣設計我們卻不一定知道。 由於 完形心理學 歸納出人類大腦認知之普遍性的規則,因此無論是不是 UI/UX 設計師都很適合閱讀本篇文章。但還是想特別強調,若任職於傳統科技公司,需要對上說服老闆,需要平行說服(資深)工程師,那請把它收進最愛;而習慣套用設計好的 UI 套件,但不知道為何這樣設計的 IT 工程師,也可以透過本文來強化自己的產品說服力。 那就開始吧~(擊掌) 完形心理學,又稱作格式塔(Gestalt)心理學,於二十世紀初由德國心理學家提出 — 用以說明人類大腦如何解釋肉眼所觀察到的事物,並轉化為我們所認知的物件。它可說是現代認知心理學的基礎,其貫徹的概念就是「整體大於個體的總合 “The whole is other than the sum of the parts.” —  Kurt Koffka」。 若深究完整的理論將會使本文變得非常的艱澀,因此筆者直接抽取個人認為與 UI 設計較為相關的 7 個原則(如下),並搭配實際案例做說明。有興趣了解全部理論的話可以另外 Google。 1. 相似性 (Similarity)  — 我們的大腦會把相似的事物看成一體 如果數個元素具有類似的尺寸、體積、顏色,使用者會自動為它們建立起關聯。這是因為我們的眼睛和大腦較容易將相似的事物組織在一起。如下圖所示,當一連串方塊和一連串的圓形並排時,我們會看成(a)一列方塊和兩列圓形(b)一排圓形和兩排三角形。 對應用到介面設計上,FB 每則文章下方的按鈕圖標(按讚 Like / 留言Comment / 分享 Share)雖然功能各不相同,但由於它們在視覺上顏色、大小、排列上的相似性,用戶會將它們視認為...
opencv4nodejs Asynchronous OpenCV 3.x Binding for node.js   122     2715     414   0   0 Author Contributors Repository https://github.com/justadudewhohacks/opencv4nodejs Wiki Page https://github.com/justadudewhohacks/opencv4nodejs/wiki Last Commit Mar. 8, 2019 Created Aug. 20, 2017 opencv4nodejs           By its nature, JavaScript lacks the performance to implement Computer Vision tasks efficiently. Therefore this package brings the performance of the native OpenCV library to your Node.js application. This project targets OpenCV 3 and provides an asynchronous as well as an synchronous API. The ultimate goal of this project is to provide a comprehensive collection of Node.js bindings to the API of OpenCV and the OpenCV-contrib modules. An overview of available bindings can be found in the  API Documentation . Furthermore, contribution is highly appreciated....