海量數據採集與處理 江成 葉堂林 張京 9787563838493 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:首都經濟貿易大學
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$210
商品編號: 9787563838493
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*書籍均為代購,我們向大陸付款發訂後即無法取消,為避免造成不必要的損失,
下訂前請慎重考慮!下訂前請慎重考慮!謝謝。

*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202503*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:海量數據採集與處理
ISBN:9787563838493
出版社:首都經濟貿易大學
著編譯者:江成 葉堂林 張京
頁數:187
所在地:中國大陸 *此為代購商品
書號:1730120
可大量預訂,請先連絡。

內容簡介

本書以Python作為主要工具,著重講解海量數據採集與處理相關內容。力求通過由淺入深、先理論基礎后實踐應用的思路,培養學生應用Python解決實際問題的能力。全書內容分為上、下篇共9章。上篇主要介紹數據採集的基本概念、Python開發環境、數據採集常用的兩種框架Numpy和Pandas的使用;下篇對數據採集原理、爬蟲基礎庫的使用、頁面採集框架的使用、數據的存儲與使用、數據的清洗與預處理,以及綜合實例的應用進行介紹。本書在內容編寫與安排上盡量做到結構合理、邏輯嚴謹,可供信息管理與信息系統、大數據、計算機、人工智能等相關專業的學生使用;亦可供經濟管理類其他專業學生入門參考,用於交叉方向的科學研究。

作者簡介

葉堂林,教授,博士生導師,首都經濟貿易大學特大城市經濟社會發展研究院(首都高端智庫)執行院長。省部協同創新中心執行副主任、北京市經濟社會發展政策研究基地首席專家、國家社科基金重大項目首席專家,京津冀藍皮書主編。主要從事京津冀協同發展、都市圈治理、區域協同創新、數字經濟等領域的研究。近年來,主持完成和在研國家社科基金重大項目、國家自然科學基金面上項目、教育部人文社科專項等20餘項,出版專著20餘部,在《經濟學動態》等國內外權威期刊發表學術論文120餘篇。參与國家重大政策起草19項,獲省部級以上領導批示和採納近50項。

目錄

上篇 數據採集基礎
1 數據的採集與處理概述
1 1 大數據技術概述
1 2 數據採集概述
1 3 數據處理技術概述
1 4 Python數據採集和處理技術
本章習題
2 Python數據採集與處理環境
2 1 Python的安裝
2 2 集成開發器環境(IDE)介紹
2 3 請求庫的安裝
2 4 Web庫的安裝
2 5 資料庫的安裝
2 6 擴展庫
2 7 Python基本語法
本章習題
3 Numpy框架的使用
3 1 Numpy簡介
3 2 Numpy框架使用簡介
3 3 數組的創建
3 4 數組的運算
3 5 隨機數的操作
3 6 統計函數分析
本章習題
4 Pandas庫的使用
4 1 Pandas簡介
4 2 Pandas基本數據結構
4 3 Pandas基本功能介紹
4 4 Pandas分類類型
4 5 GroupBy高級應用
4 6 鏈式編程技術
本章習題
下篇 數據採集實戰應用
5 基於Python的爬蟲基礎類庫的使用
5 1 數據採集知識體系介紹
5 2 Python requests庫的基本使用
5 3 Python Urllib庫的基本使用
5 4 正則表達式的使用
5 5 XML文件的解析
5 6 多線程數據採集
本章習題
6 頁面採集框架的使用
6 1 Scrapy框架與Spider類
6 2 Scrapy與CrawlSpider類
6 3 Selenium框架與Webdriver庫
6 4 Splash框架與API
本章習題
7 數據的存儲與使用
7 1 數據存取基本文件介紹
7 2 關係型資料庫和非關係型資料庫
7 3 PyMySQL基本功能和使用操作
7 4 PyMongoDB基本功能和使用
7 5 Redis-py基本功能和使用操作
本章習題
8 數據清洗和預處理
8 1 數據編碼問題
8 2 數據的清洗
8 3 數據的預處理
8 4 數據類型轉換操作
8 5 字元串的操作
8 6 時序數據處理
8 7 分類字元串數據的量化處理
本章習題
9 綜合案例
9 1 金融新聞數據的採集與處理
9 2 獲取新浪財經數據
本章習題
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理