python之爬取網頁貼吧圖片,python爬網站圖片

本文目錄一覽:

如何用Python做爬蟲

1)首先你要明白爬蟲怎樣工作。

想像你是一隻蜘蛛,現在你被放到了互聯「網」上。那麼,你需要把所有的網頁都看一遍。怎麼辦呢?沒問題呀,你就隨便從某個地方開始,比如說人民日報的首頁,這個叫initial pages,用$表示吧。

在人民日報的首頁,你看到那個頁面引向的各種鏈接。於是你很開心地從爬到了「國內新聞」那個頁面。太好了,這樣你就已經爬完了倆頁面(首頁和國內新聞)!暫且不用管爬下來的頁面怎麼處理的,你就想像你把這個頁面完完整整抄成了個html放到了你身上。

突然你發現, 在國內新聞這個頁面上,有一個鏈接鏈回「首頁」。作為一隻聰明的蜘蛛,你肯定知道你不用爬回去的吧,因為你已經看過了啊。所以,你需要用你的腦子,存下你已經看過的頁面地址。這樣,每次看到一個可能需要爬的新鏈接,你就先查查你腦子裡是不是已經去過這個頁面地址。如果去過,那就別去了。

好的,理論上如果所有的頁面可以從initial page達到的話,那麼可以證明你一定可以爬完所有的網頁。

那麼在python里怎麼實現呢?

很簡單

import Queue

initial_page = “初始化頁”

url_queue = Queue.Queue()

seen = set()

seen.insert(initial_page)

url_queue.put(initial_page)

while(True): #一直進行直到海枯石爛

if url_queue.size()0:

current_url = url_queue.get() #拿出隊例中第一個的url

store(current_url) #把這個url代表的網頁存儲好

for next_url in extract_urls(current_url): #提取把這個url里鏈向的url

if next_url not in seen:

seen.put(next_url)

url_queue.put(next_url)

else:

break

寫得已經很偽代碼了。

所有的爬蟲的backbone都在這裡,下面分析一下為什麼爬蟲事實上是個非常複雜的東西——搜索引擎公司通常有一整個團隊來維護和開發。

2)效率

如果你直接加工一下上面的代碼直接運行的話,你需要一整年才能爬下整個豆瓣的內容。更別說Google這樣的搜索引擎需要爬下全網的內容了。

問題出在哪呢?需要爬的網頁實在太多太多了,而上面的代碼太慢太慢了。設想全網有N個網站,那麼分析一下判重的複雜度就是N*log(N),因為所有網頁要遍歷一次,而每次判重用set的話需要log(N)的複雜度。OK,OK,我知道python的set實現是hash——不過這樣還是太慢了,至少內存使用效率不高。

通常的判重做法是怎樣呢?Bloom Filter. 簡單講它仍然是一種hash的方法,但是它的特點是,它可以使用固定的內存(不隨url的數量而增長)以O(1)的效率判定url是否已經在set中。可惜天下沒有白吃的午餐,它的唯一問題在於,如果這個url不在set中,BF可以100%確定這個url沒有看過。但是如果這個url在set中,它會告訴你:這個url應該已經出現過,不過我有2%的不確定性。注意這裡的不確定性在你分配的內存足夠大的時候,可以變得很小很少。一個簡單的教程:Bloom Filters by Example

注意到這個特點,url如果被看過,那麼可能以小概率重複看一看(沒關係,多看看不會累死)。但是如果沒被看過,一定會被看一下(這個很重要,不然我們就要漏掉一些網頁了!)。 [IMPORTANT: 此段有問題,請暫時略過]

好,現在已經接近處理判重最快的方法了。另外一個瓶頸——你只有一台機器。不管你的帶寬有多大,只要你的機器下載網頁的速度是瓶頸的話,那麼你只有加快這個速度。用一台機子不夠的話——用很多台吧!當然,我們假設每台機子都已經進了最大的效率——使用多線程(python的話,多進程吧)。

3)集群化抓取

爬取豆瓣的時候,我總共用了100多台機器晝夜不停地運行了一個月。想像如果只用一台機子你就得運行100個月了…

那麼,假設你現在有100台機器可以用,怎麼用python實現一個分散式的爬取演算法呢?

我們把這100台中的99台運算能力較小的機器叫作slave,另外一台較大的機器叫作master,那麼回顧上面代碼中的url_queue,如果我們能把這個queue放到這台master機器上,所有的slave都可以通過網路跟master聯通,每當一個slave完成下載一個網頁,就向master請求一個新的網頁來抓取。而每次slave新抓到一個網頁,就把這個網頁上所有的鏈接送到master的queue里去。同樣,bloom filter也放到master上,但是現在master只發送確定沒有被訪問過的url給slave。Bloom Filter放到master的內存里,而被訪問過的url放到運行在master上的Redis里,這樣保證所有操作都是O(1)。(至少平攤是O(1),Redis的訪問效率見:LINSERT – Redis)

考慮如何用python實現:

在各台slave上裝好scrapy,那麼各台機子就變成了一台有抓取能力的slave,在master上裝好Redis和rq用作分散式隊列。

代碼於是寫成

#slave.py

current_url = request_from_master()

to_send = []

for next_url in extract_urls(current_url):

to_send.append(next_url)

store(current_url);

send_to_master(to_send)

#master.py

distributed_queue = DistributedQueue()

bf = BloomFilter()

initial_pages = “”

while(True):

if request == ‘GET’:

if distributed_queue.size()0:

send(distributed_queue.get())

else:

break

elif request == ‘POST’:

bf.put(request.url)

好的,其實你能想到,有人已經給你寫好了你需要的:darkrho/scrapy-redis · GitHub

4)展望及後處理

雖然上面用很多「簡單」,但是真正要實現一個商業規模可用的爬蟲並不是一件容易的事。上面的代碼用來爬一個整體的網站幾乎沒有太大的問題。

但是如果附加上你需要這些後續處理,比如

有效地存儲(資料庫應該怎樣安排)

有效地判重(這裡指網頁判重,咱可不想把人民日報和抄襲它的大民日報都爬一遍)

有效地信息抽取(比如怎麼樣抽取出網頁上所有的地址抽取出來,「朝陽區奮進路中華道」),搜索引擎通常不需要存儲所有的信息,比如圖片我存來幹嘛…

及時更新(預測這個網頁多久會更新一次)

如你所想,這裡每一個點都可以供很多研究者十數年的研究。雖然如此,

「路漫漫其修遠兮,吾將上下而求索」。

所以,不要問怎麼入門,直接上路就好了:)

如何用Python做爬蟲?

在我們日常上網瀏覽網頁的時候,經常會看到一些好看的圖片,我們就希望把這些圖片保存下載,或者用戶用來做桌面壁紙,或者用來做設計的素材。

我們最常規的做法就是通過滑鼠右鍵,選擇另存為。但有些圖片滑鼠右鍵的時候並沒有另存為選項,還有辦法就通過就是通過截圖工具截取下來,但這樣就降低圖片的清晰度。好吧其實你很厲害的,右鍵查看頁面源代碼。

我們可以通過python 來實現這樣一個簡單的爬蟲功能,把我們想要的代碼爬取到本地。下面就看看如何使用python來實現這樣一個功能。

具體步驟

獲取整個頁面數據首先我們可以先獲取要下載圖片的整個頁面信息。

getjpg.py

#coding=utf-8import urllibdef getHtml(url):

page = urllib.urlopen(url)

html = page.read()    return html

html = getHtml(“”)print html

Urllib 模塊提供了讀取web頁面數據的介面,我們可以像讀取本地文件一樣讀取www和ftp上的數據。首先,我們定義了一個getHtml()函數:

urllib.urlopen()方法用於打開一個URL地址。

read()方法用於讀取URL上的數據,向getHtml()函數傳遞一個網址,並把整個頁面下載下來。執行程序就會把整個網頁列印輸出。

2.篩選頁面中想要的數據

Python 提供了非常強大的正則表達式,我們需要先要了解一點python 正則表達式的知識才行。

假如我們百度貼吧找到了幾張漂亮的壁紙,通過到前段查看工具。找到了圖片的地址,如:src=」」pic_ext=」jpeg」

修改代碼如下:

import reimport urllibdef getHtml(url):

page = urllib.urlopen(url)

html = page.read()    return htmldef getImg(html):

reg = r’src=”(.+?\.jpg)” pic_ext’

imgre = re.compile(reg)

imglist = re.findall(imgre,html)    return imglist      

html = getHtml(“”)print getImg(html)

我們又創建了getImg()函數,用於在獲取的整個頁面中篩選需要的圖片連接。re模塊主要包含了正則表達式:

re.compile() 可以把正則表達式編譯成一個正則表達式對象.

re.findall() 方法讀取html 中包含 imgre(正則表達式)的數據。

運行腳本將得到整個頁面中包含圖片的URL地址。

3.將頁面篩選的數據保存到本地

把篩選的圖片地址通過for循環遍歷並保存到本地,代碼如下:

#coding=utf-8import urllibimport redef getHtml(url):

page = urllib.urlopen(url)

html = page.read()    return htmldef getImg(html):

reg = r’src=”(.+?\.jpg)” pic_ext’

imgre = re.compile(reg)

imglist = re.findall(imgre,html)

x = 0    for imgurl in imglist:

urllib.urlretrieve(imgurl,’%s.jpg’ % x)

x+=1html = getHtml(“”)print getImg(html)

這裡的核心是用到了urllib.urlretrieve()方法,直接將遠程數據下載到本地。

通過一個for循環對獲取的圖片連接進行遍歷,為了使圖片的文件名看上去更規範,對其進行重命名,命名規則通過x變數加1。保存的位置默認為程序的存放目錄。

程序運行完成,將在目錄下看到下載到本地的文件。

python新手代碼是什麼?

python新手代碼是:

1、shuizitiqu.py——————數字提取。

2、socker_ping.py——————長ping 檢測網路狀態。

3、spider_tieba.py——————爬取百度貼吧圖片。

4、tianqi.py——————微信自動回復天氣。

5、ticket_searchTrain.py——————12306火車票查詢。

6、ticket_stations.py——————12306火車站點。

7、txt.py——————txt文件抽取。

8、weixinhuifu.py——————微信自動回復天氣。

9、xlsfile.py——————xls文件提取。

Pthon編程海龜編輯器爬蟲圖片htm1怎麼生產

使用方法

1.拖動塊,然後單擊右上角的「運行」以查看運行結果。 2.單擊頁面頂部的「代碼/構建模塊模式」以一鍵式在代碼和構建模塊之間切換。 3.從Turtle Library Block Box中拖動圖塊,單擊「運行」,然後一鍵繪製。

拓展資料

軟體功能

1. Turtle Editor提供了一種簡單的Python編輯方法,可以通過拖動來控制。

2.您可以編輯事件並在圖形界面中配置邏輯。

3.可以顯示代碼結果,並可以查看多種編程方法。

4.功能界面很簡單:Turtle Editor不僅可以在線編寫和執行Python代碼,還可以增加構建模塊模式。

5.從圖形編程過渡到Python編程,並學習帶有構建塊的Python。

6.通過[Building Block Mode]完成組裝後,只需單擊模式切換按鈕,即可將Building Block轉換為真實的Python語言。

7.在實際應用中,除了運行自己編寫的程序外,我們還可以使用Python來調用和使用其他人編寫的程序。這樣,我們可以節省大量重複和不必要的工作,並使我們可以更有效地編輯程序。

8. Turtle Editor支持一鍵安裝常用的第三方庫。單擊編輯器界面頂部的「庫管理」以打開用於下載和安裝第三方庫的界面。

9. Turtle Editor不僅具有開朗可愛的外觀設計,而且還特別設計了暖黃色基本色和超大而清晰的文字字體來保護眼睛。

10.有許多內在的細節可以幫助初學者快速糾正錯誤並學習編碼。

如何用python寫爬蟲來獲取網頁中所有的文章以及關鍵詞

所謂網頁抓取,就是把URL地址中指定的網路資源從網路流中讀取出來,保存到本地。 

類似於使用程序模擬IE瀏覽器的功能,把URL作為HTTP請求的內容發送到伺服器端, 然後讀取伺服器端的響應資源。

在Python中,我們使用urllib2這個組件來抓取網頁。

urllib2是Python的一個獲取URLs(Uniform Resource Locators)的組件。

它以urlopen函數的形式提供了一個非常簡單的介面。

最簡單的urllib2的應用代碼只需要四行。

我們新建一個文件urllib2_test01.py來感受一下urllib2的作用:

import urllib2

response = urllib2.urlopen(”)

html = response.read()

print html

按下F5可以看到運行的結果:

我們可以打開百度主頁,右擊,選擇查看源代碼(火狐OR谷歌瀏覽器均可),會發現也是完全一樣的內容。

也就是說,上面這四行代碼將我們訪問百度時瀏覽器收到的代碼們全部列印了出來。

這就是一個最簡單的urllib2的例子。

除了”http:”,URL同樣可以使用”ftp:”,”file:”等等來替代。

HTTP是基於請求和應答機制的:

客戶端提出請求,服務端提供應答。

urllib2用一個Request對象來映射你提出的HTTP請求。

在它最簡單的使用形式中你將用你要請求的地址創建一個Request對象,

通過調用urlopen並傳入Request對象,將返回一個相關請求response對象,

這個應答對象如同一個文件對象,所以你可以在Response中調用.read()。

我們新建一個文件urllib2_test02.py來感受一下:

import urllib2 

req = urllib2.Request(”) 

response = urllib2.urlopen(req) 

the_page = response.read() 

print the_page

可以看到輸出的內容和test01是一樣的。

urllib2使用相同的介面處理所有的URL頭。例如你可以像下面那樣創建一個ftp請求。

req = urllib2.Request(”)

在HTTP請求時,允許你做額外的兩件事。

1.發送data表單數據

這個內容相信做過Web端的都不會陌生,

有時候你希望發送一些數據到URL(通常URL與CGI[通用網關介面]腳本,或其他WEB應用程序掛接)。

在HTTP中,這個經常使用熟知的POST請求發送。

這個通常在你提交一個HTML表單時由你的瀏覽器來做。

並不是所有的POSTs都來源於表單,你能夠使用POST提交任意的數據到你自己的程序。

一般的HTML表單,data需要編碼成標準形式。然後做為data參數傳到Request對象。

編碼工作使用urllib的函數而非urllib2。

我們新建一個文件urllib2_test03.py來感受一下:

import urllib 

import urllib2 

url = ” 

values = {‘name’ : ‘WHY’, 

          ‘location’ : ‘SDU’, 

          ‘language’ : ‘Python’ } 

data = urllib.urlencode(values) # 編碼工作

req = urllib2.Request(url, data)  # 發送請求同時傳data表單

response = urllib2.urlopen(req)  #接受反饋的信息

the_page = response.read()  #讀取反饋的內容

如果沒有傳送data參數,urllib2使用GET方式的請求。

GET和POST請求的不同之處是POST請求通常有”副作用”,

它們會由於某種途徑改變系統狀態(例如提交成堆垃圾到你的門口)。

Data同樣可以通過在Get請求的URL本身上面編碼來傳送。

import urllib2 

import urllib

data = {}

data[‘name’] = ‘WHY’ 

data[‘location’] = ‘SDU’ 

data[‘language’] = ‘Python’

url_values = urllib.urlencode(data) 

print url_values

name=Somebody+Herelanguage=Pythonlocation=Northampton 

url = ” 

full_url = url + ‘?’ + url_values

data = urllib2.open(full_url)

這樣就實現了Data數據的Get傳送。

2.設置Headers到http請求

有一些站點不喜歡被程序(非人為訪問)訪問,或者發送不同版本的內容到不同的瀏覽器。

默認的urllib2把自己作為「Python-urllib/x.y」(x和y是Python主版本和次版本號,例如Python-urllib/2.7),

這個身份可能會讓站點迷惑,或者乾脆不工作。

瀏覽器確認自己身份是通過User-Agent頭,當你創建了一個請求對象,你可以給他一個包含頭數據的字典。

下面的例子發送跟上面一樣的內容,但把自身模擬成Internet Explorer。

(多謝大家的提醒,現在這個Demo已經不可用了,不過原理還是那樣的)。

import urllib 

import urllib2 

url = ”

user_agent = ‘Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)’ 

values = {‘name’ : ‘WHY’, 

          ‘location’ : ‘SDU’, 

          ‘language’ : ‘Python’ } 

headers = { ‘User-Agent’ : user_agent } 

data = urllib.urlencode(values) 

req = urllib2.Request(url, data, headers) 

response = urllib2.urlopen(req) 

the_page = response.read()

以上就是python利用urllib2通過指定的URL抓取網頁內容的全部內容,非常簡單吧,希望對大家能有所幫助。

python3爬蟲爬百度貼吧decode(“utf-8”)出錯

我寫了下代碼。沒有編碼問題,是不是不用decode?

import requests

r1 = requests.get(“;kw=pythonfr=search”)

print(r1.text)

原創文章,作者:BAVB,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/132322.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
BAVB的頭像BAVB
上一篇 2024-10-03 23:51
下一篇 2024-10-03 23:51

相關推薦

  • Python爬蟲可以爬哪些網站

    Python是被廣泛運用於數據處理和分析領域的編程語言之一。它具有易用性、靈活性和成本效益高等特點,因此越來越多的人開始使用它進行網站爬取。本文將從多個方面詳細闡述,Python爬…

    編程 2025-04-29
  • 用Python繪製酷炫圖片

    在本篇文章中,我們將展示如何使用Python繪製酷炫的圖片。 一、安裝Python繪圖庫 在使用Python繪製圖片之前,我們需要先安裝Python繪圖庫。Python有很多繪圖庫…

    編程 2025-04-29
  • 網站為什麼會被黑客攻擊?

    黑客攻擊是指利用計算機技術手段,入侵或者破壞計算機信息系統的一種行為。網站被黑客攻擊是常見的安全隱患之一,那麼,為什麼網站會被黑客攻擊呢?本文將從不同角度分析這個問題,並且提出相應…

    編程 2025-04-29
  • 使用axios獲取返回圖片

    使用axios獲取返回圖片是Web開發中很常見的需求。本文將介紹如何使用axios獲取返回圖片,並從多個方面進行詳細闡述。 一、安裝axios 使用axios獲取返回圖片前,首先需…

    編程 2025-04-29
  • Python 圖片轉表格

    本文將詳細介紹如何使用Python將圖片轉為表格。大家平時在處理一些資料的時候難免會遇到圖片轉表格的需求。比如從PDF文檔中提取表格等場景。當然,這個功能也可以通過手動複製、粘貼,…

    編程 2025-04-29
  • Python緩存圖片的處理方式

    本文將從多個方面詳細闡述Python緩存圖片的處理方式,包括緩存原理、緩存框架、緩存策略、緩存更新和緩存清除等方面。 一、緩存原理 緩存是一種提高應用程序性能的技術,在網路應用中流…

    編程 2025-04-29
  • Python如何抓取圖片數據

    Python是一門強大的編程語言,能夠輕鬆地進行各種數據抓取與處理。抓取圖片數據是一個非常常見的需求。在這篇文章中,我們將從多個方面介紹Python如何抓取圖片數據。 一、使用ur…

    編程 2025-04-29
  • 如何用Python訪問網站

    本文將從以下幾個方面介紹如何使用Python訪問網站:網路請求、POST請求、用戶代理、Cookie、代理IP、API請求。 一、網路請求 Python有三種主流的網路請求庫:ur…

    編程 2025-04-29
  • 如何將Python開發的網站變成APP

    要將Python開發的網站變成APP,可以通過Python的Web框架或者APP框架,將網站封裝為APP的形式。常見的方法有: 一、使用Python的Web框架Django Dja…

    編程 2025-04-28
  • python爬取網頁並生成表格

    本文將從以下幾個方面詳細介紹如何使用Python爬取網頁數據並生成表格: 一、獲取網頁數據 獲取網頁數據的一般思路是通過HTTP請求獲取網頁內容,最常用的方式是使用Python庫r…

    編程 2025-04-28

發表回復

登錄後才能評論