真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

怎么利用Python網(wǎng)絡(luò)爬蟲來提取信息

怎么利用Python網(wǎng)絡(luò)爬蟲來提取信息,相信很多沒有經(jīng)驗的人對此束手無策,為此本文總結(jié)了問題出現(xiàn)的原因和解決方法,通過這篇文章希望你能解決這個問題。

公司主營業(yè)務:網(wǎng)站建設(shè)、成都網(wǎng)站設(shè)計、移動網(wǎng)站開發(fā)等業(yè)務。幫助企業(yè)客戶真正實現(xiàn)互聯(lián)網(wǎng)宣傳,提高企業(yè)的競爭能力。創(chuàng)新互聯(lián)建站是一支青春激揚、勤奮敬業(yè)、活力青春激揚、勤奮敬業(yè)、活力澎湃、和諧高效的團隊。公司秉承以“開放、自由、嚴謹、自律”為核心的企業(yè)文化,感謝他們對我們的高要求,感謝他們從不同領(lǐng)域給我們帶來的挑戰(zhàn),讓我們激情的團隊有機會用頭腦與智慧不斷的給客戶帶來驚喜。創(chuàng)新互聯(lián)建站推出金沙免費做網(wǎng)站回饋大家。

下面小編就為大家?guī)硪黄狿ython網(wǎng)絡(luò)爬蟲與信息提取(實例講解)。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
課程體系結(jié)構(gòu):
1、Requests框架:自動爬取HTML頁面與自動網(wǎng)絡(luò)請求提交2、robots.txt:網(wǎng)絡(luò)爬蟲排除標準3、BeautifulSoup框架:解析HTML頁面4、Re框架:正則框架,提取頁面關(guān)鍵信息5、Scrapy框架:網(wǎng)絡(luò)爬蟲原理介紹,專業(yè)爬蟲框架介紹理念:The Website is the API …Python語言常用的IDE工具文本工具類IDE:IDLE、Notepad++、Sublime Text、Vim & Emacs、Atom、Komodo Edit集成工具IDE:PyCharm、Wing、PyDev & Eclipse、Visual Studio、Anaconda & Spyder、Canopy·IDLE是Python自帶的默認的常用的入門級編寫工具,它包含交互式文件式兩種方式。適用于較短的程序?!ublime Text是專為程序員開發(fā)的第三方專用編程工具,可以提高編程體驗,具有多種編程風格?!ing是Wingware公司提供的收費IDE,調(diào)試功能豐富,具有版本控制,版本同步功能,適合于多人共同開發(fā)。適用于編寫大型程序?!isual Studio是微軟公司維護的,可以通過配置PTVS編寫Python,主要以Windows環(huán)境為主,調(diào)試功能豐富?!clipse是一款開源的IDE開發(fā)工具,可以通過配置PyDev來編寫Python,但是配置過程復雜,需要有一定的開發(fā)經(jīng)驗?!yCharm分為社區(qū)版和專業(yè)版,社區(qū)版免費,具有簡單、集成度高的特點,適用于編寫較復雜的工程。適用于科學計算、數(shù)據(jù)分析的IDE:·Canopy是由Enthought公司維護的收費工具,支持近500個第三方庫,適合科學計算領(lǐng)域應用開發(fā)。·Anaconda是開源免費的,支持近800個第三方庫。Requests庫入門Requests的安裝:Requests庫是目前公認的爬取網(wǎng)頁最好的Python第三方庫,具有簡單、簡捷的特點。官方網(wǎng)站:http://www.python-requests.org在"C:\Windows\System32"中找到"cmd.exe",使用管理員身份運行,在命令行中輸入:“pip install requests”運行。
使用IDLE測試Requests庫:>>> import requests
>>> r = requests.get("http://www.baidu.com")#抓取百度頁面
>>> r.status_code
>>> r.encoding = 'utf-8'
>>> r.text
1
2
3
4
5
Requests庫的7個主要方法
get()方法r = requests.get(url)get()方法構(gòu)造一個向服務器請求資源的Request對象,返回一個包含服務器資源的Response對象。requests.get(url, params=None, **kwargs)url:擬獲取頁面的url鏈接params:url中的額外參數(shù),字典或字節(jié)流格式,可選**kwargs:12個控制訪問參數(shù)Requests庫的2個重要對象· Request· Response:Response對象包含爬蟲返回的內(nèi)容Response對象的屬性r.status_code :HTTP請求的返回狀態(tài),200表示連接成功,404表示失敗r.text :HTTP響應內(nèi)容的字符串形式,即,url對應的頁面內(nèi)容r.encoding : 從HTTP header中猜測的相應內(nèi)容編碼方式r.apparent_encoding : 從內(nèi)容中分析出的相應內(nèi)容編碼方式(備選編碼方式)r.content : HTTP響應內(nèi)容的二進制形式r.encoding :如果header中不存在charset,則認為編碼為ISO-8859-1 。r.apparent_encoding :根據(jù)網(wǎng)頁內(nèi)容分析出的編碼方式可以 看作是r.encoding的備選。Response的編碼:


r.encoding : 匯率查詢從HTTP header中猜測的響應內(nèi)容的編碼方式;如果header中不存在charset,則認為編碼為ISO-8859-1,r.text根據(jù)r.encoding顯示網(wǎng)頁內(nèi)容r.apparent_encoding : 根據(jù)網(wǎng)頁內(nèi)容分析出的編碼方式,可以看作r.encoding的備選爬取網(wǎng)頁的通用代碼框架Requests庫的異常
Response的異常r.raise_for_status() : 如果不是200,產(chǎn)生異常requests.HTTPError;在方法內(nèi)部判斷r.status_code是否等于200,不需要增加額外的if語句,該語句便于利用try-except進行異常處理import requests
 
def getHTMLText(url):
try:
  r = requests.get(url, timeout=30)
  r.raise_for_status() # 如果狀態(tài)不是200,引發(fā)HTTPError異常
  r.encoding = r.apparent_encoding
  return r.text
except: 
  return "產(chǎn)生異常"
 
if __name__ == "__main__":
url = "http://www.baidu.com"
print(getHTMLText(url))
1
2
3
4
5
6
7
8
9
10
11
12
13
14
通用代碼框架,可以使用戶爬取網(wǎng)頁變得更有效,更穩(wěn)定、可靠。HTTP協(xié)議HTTP,Hypertext Transfer Protocol,超文本傳輸協(xié)議。HTTP是一個基于“請求與響應”模式的、無狀態(tài)的應用層協(xié)議。HTTP協(xié)議采用URL作為定位網(wǎng)絡(luò)資源的標識。URL格式:http://host[:port][path]· host:合法的Internet主機域名或IP地址
· port:端口號,缺省端口號為80
· path:請求資源的路徑HTTP URL的理解:URL是通過HTTP協(xié)議存取資源的Internet路徑,一個URL對應一個數(shù)據(jù)資源。HTTP協(xié)議對資源的操作
理解PATCH和PUT的區(qū)別假設(shè)URL位置有一組數(shù)據(jù)UserInfo,包括UserID、UserName等20個字段。需求:用戶修改了UserName,其他不變?!?采用PATCH,僅向URL提交UserName的局部更新請求。· 采用PUT,必須將所有20個字段一并提交到URL,未提交字段被刪除。PATCH的主要好處:節(jié)省網(wǎng)絡(luò)帶寬Requests庫主要方法解析requests.request(method, url, **kwargs)· method:請求方式,對應get/put/post等7種例: r = requests.request(‘OPTIONS’, url, **kwargs)· url:擬獲取頁面的url鏈接· **kwargs:控制訪問的參數(shù),共13個,均為可選項params:字典或字節(jié)序列,作為參數(shù)增加到url中;kv = {'key1':'value1', 'key2':'value2'}
r = requests.request('GET', 'http://python123.io/ws',params=kv)
print(r.url)
'''
http://python123.io/ws?key1=value1&key2=value2
'''
1
2
3
4
5
6
data:字典、字節(jié)序列或文件對象,作為Request的內(nèi)容;json:JSON格式的數(shù)據(jù),作為Request的內(nèi)容;headers:字典,HTTP定制頭;hd = {'user-agent':'Chrome/10'}
 
r = requests.request('POST','http://www.yanlei.shop',headers=hd)
1
2
3
cookies:字典或CookieJar,Request中的cookie;auth:元組,支持HTTP認證功能;files:字典類型,傳輸文件;fs = {'file':open('data.xls', 'rb')}
 
r = requests.request('POST','http://python123.io/ws',files=fs)
1
2
3
timeout:設(shè)定超時時間,秒為單位;proxies:字典類型,設(shè)定訪問代理服務器,可以增加登錄認證allow_redirects:True/False,默認為True,重定向開關(guān);stream:True/False,默認為True,獲取內(nèi)容立即下載開關(guān);verify:True/False,默認為True,認證SSL證書開關(guān);cert:本地SSL證書路徑#方法及參數(shù)
requests.get(url, params=None, **kwargs)
requests.head(url, **kwargs)
requests.post(url, data=None, json=None, **kwargs)
requests.put(url, data=None, **kwargs)
requests.patch(url, data=None, **kwargs)
requests.delete(url, **kwargs)
1
2
3
4
5
6
7網(wǎng)絡(luò)爬蟲引發(fā)的問題性能騷擾:受限于編寫水平和目的,網(wǎng)絡(luò)爬蟲將會為web服務器帶來巨大的資源開銷法律風險:服務器上的數(shù)據(jù)有產(chǎn)權(quán)歸屬,網(wǎng)路爬蟲獲取數(shù)據(jù)后牟利將帶來法律風險。隱私泄露:網(wǎng)絡(luò)爬蟲可能具備突破簡單訪問控制的能力,獲得被保護數(shù)據(jù)從而泄露個人隱私。網(wǎng)絡(luò)爬蟲的限制·來源審查:加密貨幣http://www.gendan5.com/digitalcurrency/btc.html判斷User-Agent進行限制



檢查來訪HTTP協(xié)議頭的User-Agent域,值響應瀏覽器或友好爬蟲的訪問?!?發(fā)布公告:Roots協(xié)議告知所有爬蟲網(wǎng)站的爬取策咯,要求爬蟲遵守。Robots協(xié)議Robots Exclusion Standard 網(wǎng)絡(luò)爬蟲排除標準作用:網(wǎng)站告知網(wǎng)絡(luò)爬蟲哪些頁面可以抓取,哪些不行。形式:在網(wǎng)站根目錄下的robots.txt文件。案例:京東的Robots協(xié)議http://www.jd.com/robots.txt# 注釋:*代表所有,/代表根目錄
User-agent: * 
Disallow: /?* 
Disallow: /pop/*.html 
Disallow: /pinpai/*.html?* 
User-agent: EtaoSpider 
Disallow: / 
User-agent: HuihuiSpider 
Disallow: / 
User-agent: GwdangSpider 
Disallow: / 
User-agent: WochachaSpider 
Disallow: /
1
2
3
4
5
6
7
8
9
10
11
12
13
Robots協(xié)議的使用網(wǎng)絡(luò)爬蟲:自動或人工識別robots.txt,再進行內(nèi)容爬取。
約束性:Robots協(xié)議是建議但非約束性,網(wǎng)絡(luò)爬蟲可以不遵守,但存在法律風險。Requests庫網(wǎng)絡(luò)爬蟲實戰(zhàn)1、京東商品import requests
url = "https://item.jd.com/5145492.html"
try:
 r = requests.get(url)
 r.raise_for_status()
 r.encoding = r.apparent_encoding
 print(r.text[:1000])
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
2、亞馬遜商品# 直接爬取亞馬遜商品是會被拒絕訪問,所以需要添加'user-agent'字段
import requests
url = "https://www.amazon.cn/gp/product/B01M8L5Z3Y"
try:
 kv = {'user-agent':'Mozilla/5.0'} # 使用代理訪問
 r = requests.get(url, headers = kv)
 r.raise_for_status()
 r.encoding = r.apparent_encoding
 print(t.text[1000:2000])
except:
 print("爬取失敗"
1
2
3
4
5
6
7
8
9
10
11
3、百度/360搜索關(guān)鍵詞提交搜索引擎關(guān)鍵詞提交接口· 百度的關(guān)鍵詞接口:http://www.baidu.com/s?wd=keyword· 360的關(guān)鍵詞接口:http://www.so.com/s?q=keyword# 百度
import requests
keyword = "Python"
try:
 kv = {'wd':keyword}
 r = requests.get("http://www.baidu.com/s",params=kv)
 print(r.request.url)
 r.raise_for_status()
 print(len(r.text))
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
10
11
# 360
import requests
keyword = "Python"
try:
 kv = {'q':keyword}
 r = requests.get("http://www.so.com/s",params=kv)
 print(r.request.url)
 r.raise_for_status()
 print(len(r.text))
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
10
11
4、網(wǎng)絡(luò)圖片的爬取和存儲網(wǎng)絡(luò)圖片鏈接的格式:http://www.example.com/picture.jpg國家地理:http://www.nationalgeographic.com.cn/選擇一張圖片鏈接:/upload/otherpic61/45150.jpg圖片爬取全代碼
import requests
import os
url = "/upload/otherpic61/45150.jpg"
root = "D://pics//"
path = root + url.split('/')[-1]
try:
 if not os.path.exists(root):
  os.mkdir(root)
 if not os.path.exists(path):
  r = requests.get(url)
  with open(path,'wb') as f:
   f.write(r.content)
   f.close()
   print("文件保存成功")
 else:
  print("文件已存在")
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
5、IP地址歸屬地的自動查詢www.ip138.com IP查詢http://ip138.com/ips138.asp?ip=ipaddresshttp://m.ip138.com/ip.asp?ip=ipaddressimport requests
url = "http://m.ip138.com/ip.asp?ip="
ip = "220.204.80.112"
try:
 r = requests.get(url + ip)
 r.raise_for_status()
 r.encoding = r.apparent_encoding
 print(r.text[1900:])
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
10
# 使用IDLE
>>> import requests
>>> url ="http://m.ip138.com/ip.asp?ip="
>>> ip = "220.204.80.112"
>>> r = requests.get(url + ip)
>>> r.status_code
>>> r.text

看完上述內(nèi)容,你們掌握怎么利用Python網(wǎng)絡(luò)爬蟲來提取信息的方法了嗎?如果還想學到更多技能或想了解更多相關(guān)內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝各位的閱讀!


本文題目:怎么利用Python網(wǎng)絡(luò)爬蟲來提取信息
鏈接地址:http://www.weahome.cn/article/jeodeh.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部