跳到主要內容

擁有 17,000 顆星的 GitHub 大神開課!90 分鐘傳授,如何只用 JavaScript 建構神經網路

擁有 17,000 顆星的 GitHub 大神開課!90 分鐘傳授,如何只用 JavaScript 建構神經網路

【我們為什麼挑選這篇文章】GitHub 大神又來一位,身價 17,000 顆星星還不拜服?大神近日創辦一個線上課程,教你如何用 JaveScript 建構一個神經網路,不到 90 分鐘無痛學習,傳送門送給你,趕快存下。(責任編輯:陳伯安)
最近,一個關於用 JavaScript  實現神經網路的課程更新完了。
這個名為 Neural networks in JavaScript  的課程非常簡潔清晰,乃至於剛一終結就有大量網友在推特上瘋狂稱讚:
「羅伯特(課程創辦人)的 JavaScript 裡 的神經網路,集有趣與實用於一體。」
廣告
「都 2018  年了,我們 JavaScript  用戶將會統領一切!」

只要 90 分鐘的線上課程,簡單、高效、免費

JavaScript 里的神經網路,免費課程,這是今年 Scrimba  給大傢伙的聖誕禮物,來自創建 Brain.js  的羅伯特。」這位評論者 Per Harald Borgen  的推特個人介紹是 Scrimba  聯合創始人,官方聖誕禮物無疑了。
廣告
所以,這個備受稱讚的課程到底怎麼樣?
  1. 看起來是 19  個「影片」,掐頭去尾只有 17  節課,加起來都不到 90  分鐘,短小精悍。
  2. 「上課」的平台是在線前端學習平台 Scrimba,你可以邊聽課邊實踐,非常簡單方便。
  3. 你可以在這裡學到前向傳播和反向傳播、層和神經元、訓練和報錯、前饋神經網路、循環神經網路等內容。
  4. 這個課程重在講實踐,實踐部分遠遠多於理論部分,可以在課程中搭建異或門、計數器、基礎數學網路、圖像識別器、情緒分析器、推薦引擎和兒童書籍製作器。

一半課程要求學生實際操作寫程式

不算開頭的介紹和最終的結束環節,17  節課看起來很長,可是其實每節都只有三四分鐘,最長的第  節長達 12  分 25  秒,最短的第 11  節只有  分 32  秒,非常短,學起來非常省事。
  1. 課程介紹
  2. 我們的第一個神經網路
  3. 如何學習 – 傳播
  4. 如何學習 – 結構
  5. 如何學習 – 
  6. 使用對象
  7. 不止學數字
  8. 實踐課程:計數器
  9. 歸一化
  10. 實踐課程:股價預測
  11. 多步預測
  12. 實踐課程:學數學的循環神經網路
  13. 實踐課程:數字檢測器
  14. 實踐課程:兒童書籍製作器
  15. 實踐課程:情緒分析
  16. RNN 的輸入與輸出
  17. 實踐課程:簡明強化學習
  18. 實踐課程:推薦引擎
  19. 最終思考

實現「邊上課邊寫程式」的互動式學習感

17  節課里有  節都是實踐課程,需要現場寫程式完成課程的學習。
不過,如何實現在聽課的同時現場寫程式的?
有些在線課程,老師會把上課講到的實踐課程材料發給學生,然後學生課下自己嘗試使用。
但 Neural networks in JavaScript  不一樣,它直接在 Scrimba 上進行(就是開頭那位聯合創始人 Borgen  先生開的網站),每節課都是一個互動式的程式碼 + 影片頁面。
老師放 PPT  的時候,顯示的是 PPT
老師放實例演示的時候,就切換到了程式頁面:
重點是,這個程式頁面並不是錄好的影片,你可以暫停播放課程,直接參與到程式過程中,並運行程式碼。
Scrimba  主要用於學習前端,這個網站還有其他課程資源,都是以這種講課內容 + 程式碼 + 效果的形式展示的。

創辦人大神在 GitHub 上共有 17,000 顆星

右邊那位
Robert PlummerGPU.jsBrain.jsMedium.js 等項目的創建者,累計在 GitHub  超過 17000  顆星,目前是健身公司 iFit  的全站工程師。
課程名稱:Neural networks in JavaScript
傳送門 點這裡
(本文經原作者 量子位 授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈如何用 JavaScript 搭建神经网络?90 分钟免费课程,上手可操作丨教程 〉。)

超棒的工程師工具包

留言

這個網誌中的熱門文章

opencv4nodejs Asynchronous OpenCV 3.x Binding for node.js   122     2715     414   0   0 Author Contributors Repository https://github.com/justadudewhohacks/opencv4nodejs Wiki Page https://github.com/justadudewhohacks/opencv4nodejs/wiki Last Commit Mar. 8, 2019 Created Aug. 20, 2017 opencv4nodejs           By its nature, JavaScript lacks the performance to implement Computer Vision tasks efficiently. Therefore this package brings the performance of the native OpenCV library to your Node.js application. This project targets OpenCV 3 and provides an asynchronous as well as an synchronous API. The ultimate goal of this project is to provide a comprehensive collection of Node.js bindings to the API of OpenCV and the OpenCV-contrib modules. An overview of available bindings can be found in the  API Documentation . Furthermore, contribution is highly appreciated....

2017通訊大賽「聯發科技物聯網開發競賽」決賽團隊29強出爐!作品都在11月24日頒獎典禮進行展示

2017通訊大賽「聯發科技物聯網開發競賽」決賽團隊29強出爐!作品都在11月24日頒獎典禮進行展示 LIS   發表於 2017年11月16日 10:31   收藏此文 2017通訊大賽「聯發科技物聯網開發競賽」決賽於11月4日在台北文創大樓舉行,共有29個隊伍進入決賽,角逐最後的大獎,並於11月24日進行頒獎,現場會有全部進入決賽團隊的展示攤位,總計約為100個,各種創意作品琳琅滿目,非常值得一看,這次錯過就要等一年。 「聯發科技物聯網開發競賽」決賽持續一整天,每個團隊都有15分鐘面對評審團做簡報與展示,並接受評審們的詢問。在所有團隊完成簡報與展示後,主辦單位便統計所有評審的分數,並由評審們進行審慎的討論,決定冠亞季軍及其他各獎項得主,結果將於11月24日的「2017通訊大賽頒獎典禮暨成果展」現場公佈並頒獎。 在「2017通訊大賽頒獎典禮暨成果展」現場,所有入圍決賽的團隊會設置攤位,總計約為100個,展示他們辛苦研發並實作的作品,無論是想觀摩別人的成品、了解物聯網應用有那些新的創意、尋找投資標的、尋找人才、尋求合作機會或是單純有興趣,都很適合花點時間到現場看看。 頒獎典禮暨成果展資訊如下: 日期:2017年11月24日(星期五) 地點:中油大樓國光廳(台北市信義區松仁路3號) 我要報名參加「2017通訊大賽頒獎典禮暨成果展」>>> 在參加「2017通訊大賽頒獎典禮暨成果展」之前,可以先在本文觀看各團隊的作品介紹。 決賽29強團隊如下: 長者安全救星 可隨意描繪或書寫之電子筆記系統 微觀天下 體適能訓練管理裝置 肌少症之行走速率檢測系統 Sugar Robot 賽亞人的飛機維修輔助器 iTemp你的溫度個人化管家 語音行動冰箱 MR模擬飛行 智慧防盜自行車 跨平台X-Y視覺馬達控制 Ironmet 菸消雲散 無人小艇 (Mini-USV) 救OK-緊急救援小幫手 穿戴式長照輔助系統 應用於教育之模組機器人教具 這味兒很台味 Aquarium Hub 發展遲緩兒童之擴增實境學習系統 蚊房四寶 車輛相控陣列聲納環境偵測系統 戶外團隊運動管理裝置 懷舊治療數位桌曆 SeeM智能眼罩 觸...
自製直播音源線 Bird Liang   October 6, 2016   in  View Bird Liang, Chief Engineer (梁子凌 / 技術長兼工程輔導長) 負責 AppWorks 技術策略與佈署,同時主導工程輔導。人生的第一份正職工作是創業,之後在外商圈電子業中闖蕩多年,經歷過 NXP、Sony、Newport Imagining、Crossmatch 等企業,從事無線通訊、影像系統、手機、面板、半導體、生物辨識等不同領域產品開發。熱愛學習新事物,協助團隊解決技術問題。放棄了幾近退休般的生活加入 AppWorks,為的是幫助更多在創業路上的人,並重新體驗創業的熱情。台大農機系、台科大電子所畢業,熱愛賞鳥、演奏管風琴,亦是不折不扣的熱血 Maker。 隨著 Facebook 開放一般帳號直播,現在我們只要拿起手機,隨時隨地都可以開始直播。回想幾年前 AppWorks 剛開始進行 Demo Day 直播時,還要將 HDMI 訊號接進 PC 中、再編碼打進 YouTube 的複雜度,實不可同日而語。 但用手機或平板直播最大的問題往往不是影像而是聲音。iPhone 或 iPad 上的攝影機,感度和解析度早已不輸數年前的專業攝影機,只要現場光不太差,大概都可以拍出令人滿意的畫面。但直播的聲音一直是個大問題,手機上的麥克風跟人耳所聽到的聲音其實有很大的差距,在比較大的場子裡,光是仰賴內建麥克風的收音多半無法有令人滿意的效果。 在大型的活動中,現場通常會有 PA 系統,最理想的方式還是想辦法將 PA 的訊號餵進 iPad 或 iPhone 中,保證聲音乾淨又清楚,絕對不會有其它有的沒的現場音。 iPhone 的耳機孔雖然可以插帶有麥克風的耳機 (如 Apple 原廠的 EarPods),但它的訊號位準是電容式麥克風的位準。PA 控台的輸出幾乎都是 line level 的,兩者的訊號電壓相差百倍以上,我們得做個小東西來解決這個差距。 Line 與 Mic 在 mixer 上,我們常會看到輸入可以在兩種規格中切換: line level 和 mic level。Mic level 顧名思義就是從麥克風來的訊號,這個訊號的規格是從不需供電的傳統動圈麥克風來的。因為不需...