不用程式寫爬蟲記錄(Kimono Desktop)
Contents
前幾天看到無痛爬梳自己來,用 Google Spreadsheet 爬取網頁資料
就想之前的Kimono
但現在官網要收掉這個服務
不過有官網友留下kimono desktop edition 離線版程式使用(只有MAC和Windows)
目前不知道有沒有辦法移植到Linux上面玩
| kimonolabs.com | kimono for desktop | |
|---|---|---|
| Create APIs with Chrome Ext | v | |
| Create APIs with Bookmarklet | v | v |
| Manage and configure APIs | v | v |
| Run APIs manually | v | |
| Run APIs on a schedule | v | |
| Cloud hosted API endpoints | v (w/ Firebase) | |
| Crawling & Pagination | v | v |
| Get data behind a login | v | v |
| Kimono Apps / Blocks | v | |
| Google sheets integration | v | |
| Webhooks & Email alerts | v | |
| Save scraped data to file | v | v |
| CSV & RSS output | v | v |
當然離線版沒有這麼多功能,可惜沒有排程可以用
但發現他程式透過NodeJS去寫,好像可以透過API方式去實作
在此先記錄一下筆記
首先,安裝kimono desktop edition 和chrome extension
相關套件網路就一堆,我就先偷懶拉o.<
不會寫程式也能爬,Kimono 幫你把網站變資料
API建立好,開kimono desktop edition可以看到剛剛家加入的任務



按下Start Crawl 可執行爬蟲
後來我發現kimono desktop edition可以開啟開發者工具
發現執行Web API可以跑爬蟲
看來排程執行爬蟲指日可待XD

|
|

看爬蟲API任務的狀態WEB API