目前進度課程進度在第七週第一天,但我目前還在第六週,我是採用先丟下第五週作業,以先追上第六週進度的做法在學習,今天是平日我不想上班,台南的朋友來台中約吃午餐,順便我也想追一下進度,所以我我身體不適為由請假一天,預計到路易莎好好學習一整天,目前第六週作業一、二都完成了,前半天的時間我想放鬆一下自己的學習大腦,剛好來紀錄一下我前幾週下來的心得。
介紹一下目前課程有在使用的工具。(我打完之後自己看一遍,居然像在業配 XD)
- Lidemy 官網學習影片
- GitHub 課綱、補充教材、作業、作業檢討
- spectrum
- slack
- google form 匿名提問箱子
- 不定期老師直播、Medium 文章
- Lidemy 學習系統
- Notion
在沒有 Lidemy 學習系統的模板功能前,我有想說,我每天的心得都要按照一定的格式來記錄,也就是老師提供的 ORID 焦點學習法,這樣一定漏掉每天要回想、反省的部分,所以我用 Notion 創建自己的模板,每天寫,然後每天將文章複製到學習系統上,目前維持這樣,因為我覺得統一用 Notion 來管理我自己的紀錄,比較方便,學習系統上的文章就當作是與同學、老師、助教交流、分享與彙報進度。
原本只要按照「一、靜態學習環境」的課綱看影片,看完看補充教材,寫作業,作業檢討,交作業,就可以了,但這就是普通的線上課程,像之前我上過的 Hahow 課程一樣,你看完之後能領悟多少,能帶走的都是你的,但沒有人會督促你,沒有人會在你卡關的時候幫助你,甚至你不會知道有人跟你一樣卡在某個觀念。
導師程式實驗計畫擁有「二、互動學習環境」,雖然完全是線上的,一個人都不認識,可我卻可以感覺到老師助教的溫暖,不吝分享自己學習、求職的過程,專業的問題,最快幾分鐘內就可以回覆,最晚也不到一天,整個團隊的是效率高且資源相當豐富的!
每天我都會習慣繳完心得後,看看別人的心得,每天都會看到各種不同的人在努力,不管是進度落後的,超前兩週的,都可以看到他們還是很認真的在學習,每當繳完作業後都會反省自己是否不夠努力,有沒有違背當初報名的自己?
學習狀況最好的時候,假日的上午、下午、傍晚,都在路易莎學習,進度最高可以完成兩個作業,看完幾個章節的影片,整理當天學習的筆記,繳交心得,看大家的心得,看課程補充的文章,有一些零碎的時間,可以跟朋友吃飯,跟女友去逛街,帶他去練習騎機車,這就是我最喜歡的,學習的日子。
學習著太不好的時候,真的上班很累下班又有事情要處理的那天,真的能讀書的時候已經 10 點多了,想想明天又要上班,若不好好休息,也會影響到隔天的狀況,所以就乾脆把那天的學習重點放在一個很小的地方,可能是完成一個快完成的作業,或是把課程的影片看兩、三部,繳交心得完,看大家的心得,不禁會有一絲的愧疚跟罪惡感,怕是進度落後,達不到自己的目標。
今天早上我處於很思緒很慌的階段,因為我落後了,我不知道該怎麼辦,也是我請假追進度的原因,謝謝 Clay 助教分享的第六週的隨意聊,裡面提到自己每週都在進度上,但該學的東西都沒有好好學好,導致一開始求職的過程不是很順利,仔細想過後,他放下了自己的一些包袱,潛心的去好好學習,也告訴我們,若是進度落後沒關係,有持續進步才是最重要的,重點不是在這課程結束的時候,跟別人比賽你獲得了第幾名,而是在這堂課程中,你為自己贏得了多少知識與能力,這一段故事,讓我放下心,把一知半解的糊弄過去的問題,好好檢視一番,也做個紀錄,若現在的我真的不懂,那就讓在第十週、第十五週的我來解答吧!
- 我變得喜歡寫文章,喜歡每天晚上整理自己一天的思緒,把好的與不好的記錄下來。
- 對於 Git 的運用大大進步,也覺得它很好用!我甚至在跟朋友共用 Google Drive 的時候看到檔案版本很亂,主動想到版本控制,然後查詢之後發現 Google Drive 真的有提供版本控制,於是就用了!
- 變得喜歡用 command line,有時候真的覺得比 GUI 好用多了。
- 對於 RESTful API 以前都不知道大家在講什麼,上網查也看不懂,但我現在懂了!
- 對於 npm 管理套件的觀念提升!
- 對於 Github 協作的觀念提供!
- 更清楚 HTTP 協定的網路交換資料中的用途,在上網的時候卡頓,我都會想一次,從 Request 到 Response 可能是哪一個環節出問題了。
- 學會如何用 node.js 內建的 readsync 讀檔案!
- 學會網頁爬蟲!
- 學會如何用寄信 API !
- 多了很多關於學習的心得整理!
以上就是我第五週複習週的心得,時刻提醒自己「莫忘初心」,
也要記得 Huli 說的:happy coding, happy learning !
- Email 寄信小程式: 第一次知道原來有這種 API 服務可以設定網域寄信!真的太酷了,覺得以後一定用得到!
- 公車動態程式: 原本以為只有 Python 可以做到網頁爬蟲,上了這堂課之後才意識到,只要有發出 Request 跟處理字串的功能,就可以爬蟲了! 這啟發我以後可以多多練習爬蟲,先筆記起來以後大量練習!