通過ip訪問python(通過ip訪問另一台電腦共享文件)

本文目錄一覽:

python使用Flask框架獲取用戶IP地址的方法

主要介紹了python使用Flask框架獲取用戶IP地址的方法,實例分析了Python使用Flask框架remote_addr獲取IP的`技巧,非常具有實用價值,需要的朋友可以參考下。

下面的代碼包含了html頁面和python代碼,非常詳細,如果你正使用Flask,也可以學習一下最基本的Flask使用方法。

python代碼如下:

?

1

2

3

4

5

6

7

8

9

10

11

12

13

from flask import Flask, render_template, request

# Initialize the Flask application

app = Flask(__name__)

# Default route, print user’s IP

@app.route(‘/’)

def index():

ip = request.remote_addr

return render_template(‘index.html’, user_ip=ip)

if __name__ == ‘__main__’:

app.run(

host=”0.0.0.0″,

port=int(“80”)

)

html代碼如下:

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

!DOCTYPE html

html lang=”en”

head

link href=”bootstrap/3.0.0/css/bootstrap.min.css”

rel=”stylesheet”

/head

body

p class=”container”

p class=”header”

h3 class=”text-muted”How To Get The IP Address Of The User/h3

/p

hr/

p

You IP address is: strong{{user_ip}}/strong

p class=”header”

h3 class=”text-muted”Code to retrieve the IP/h3

/p

hr/

pre

from flask import Flask, render_template, request

# Initialize the Flask application

app = Flask(__name__)

# Default route, print user’s IP

@app.route(‘/’)

def index():

ip = request.remote_addr

return render_template(‘index.html’, user_ip=ip)

/pre

/p

/p

/body

/html

希望本文所述對大家的Python程序設計有所幫助。

python隨便給了個代理IP居然也能正常訪問,這是為啥

不同的狀態碼代表着不同含義。

200並不代表正常訪問並獲取到返回值。只是表明正確處理了請求而已。

你隨便設置的代理ip有可能真的存在這是一方面,另一方面代理只是鏈接與轉發功能。200的狀態碼也並不能表示代理成功讓你訪問到了目標網址並獲取到了正確的返回信息。

常見的狀態碼有很多,404、400、500等等。

以下資料摘自(csdn博客:)

1開頭的http狀態碼

表示臨時響應並需要請求者繼續執行操作的狀態代碼。

100 (繼續) 請求者應當繼續提出請求。 服務器返回此代碼表示已收到請求的第一部分,正在等待其餘部分。

101 (切換協議) 請求者已要求服務器切換協議,服務器已確認並準備切換。

2開頭的http狀態碼

表示請求成功

200 成功處理了請求,一般情況下都是返回此狀態碼;

201 請求成功並且服務器創建了新的資源。

202 接受請求但沒創建資源;

203 返回另一資源的請求;

204 服務器成功處理了請求,但沒有返回任何內容;

205 服務器成功處理了請求,但沒有返回任何內容;

206 處理部分請求;

3xx (重定向)

重定向代碼,也是常見的代碼

300 (多種選擇) 針對請求,服務器可執行多種操作。 服務器可根據請求者 (user agent) 選擇一項操作,或提供操作列表供請求者選擇。

301 (永久移動) 請求的網頁已永久移動到新位置。 服務器返回此響應(對 GET 或 HEAD 請求的響應)時,會自動將請求者轉到新位置。

302 (臨時移動) 服務器目前從不同位置的網頁響應請求,但請求者應繼續使用原有位置來進行以後的請求。

303 (查看其他位置) 請求者應當對不同的位置使用單獨的 GET 請求來檢索響應時,服務器返回此代碼。

304 (未修改) 自從上次請求後,請求的網頁未修改過。 服務器返回此響應時,不會返回網頁內容。

305 (使用代理) 請求者只能使用代理訪問請求的網頁。 如果服務器返回此響應,還表示請求者應使用代理。

307 (臨時重定向) 服務器目前從不同位置的網頁響應請求,但請求者應繼續使用原有位置來進行以後的請求。

4開頭的http狀態碼錶示請求出錯

400 服務器不理解請求的語法。

401 請求要求身份驗證。 對於需要登錄的網頁,服務器可能返回此響應。

403 服務器拒絕請求。

404 服務器找不到請求的網頁。

405 禁用請求中指定的方法。

406 無法使用請求的內容特性響應請求的網頁。

407 此狀態代碼與 401類似,但指定請求者應當授權使用代理。

408 服務器等候請求時發生超時。

409 服務器在完成請求時發生衝突。 服務器必須在響應中包含有關衝突的信息。

410 如果請求的資源已永久刪除,服務器就會返回此響應。

411 服務器不接受不含有效內容長度標頭字段的請求。

412 服務器未滿足請求者在請求中設置的其中一個前提條件。

413 服務器無法處理請求,因為請求實體過大,超出服務器的處理能力。

414 請求的 URI(通常為網址)過長,服務器無法處理。

415 請求的格式不受請求頁面的支持。

416 如果頁面無法提供請求的範圍,則服務器會返回此狀態代碼。

417 服務器未滿足”期望”請求標頭字段的要求。

5開頭狀態碼並不常見,但是我們應該知道

500 (服務器內部錯誤) 服務器遇到錯誤,無法完成請求。

501 (尚未實施) 服務器不具備完成請求的功能。 例如,服務器無法識別請求方法時可能會返回此代碼。

502 (錯誤網關) 服務器作為網關或代理,從上游服務器收到無效響應。

503 (服務不可用) 服務器目前無法使用(由於超載或停機維護)。 通常,這只是暫時狀態。

504 (網關超時) 服務器作為網關或代理,但是沒有及時從上游服務器收到請求。

505 (HTTP 版本不受支持) 服務器不支持請求中所用的 HTTP 協議版本。

python 爬蟲 ip池怎麼做

Python爬蟲採集信息都是採用IP進行更改,不然就不能快速的爬取信息,可以加入採用這類方式,就失去了快速抓取的意義。

所以,如果要大批量的抓取信息,就不能避免的使用IP池,針對Python爬蟲使用的IP池,是如何搭建起來的呢?接下來和大家說明一下如何建爬蟲IP池的問題。

第一步:找IP資源

IP資源並不豐富,換句話說是供不應求的,因此一般是使用動態IP。

免費方法,直接在網絡上找,在搜索引擎中一搜索特別多能夠提供IP資源的網站,進行採集即可。

付費方法,通過購買芝麻代理上的IP資源,並進行提取,搭建IP池。

第二步,檢測可用IP保存

提取到的IP,可以進一步進行檢測是否可用,比如訪問某個固定的網站,找出訪問成功的IP進行保存。

第三步,隨機調用IP

在爬蟲需要使用IP時,可用讀取保存IP的文件,進行隨機調用IP。

本文介紹了如何建爬蟲的IP池方法,可以說搭建IP池很容易,可有些IP的時效性很短,使用之前還可以再測試一次的。如果考慮免費IP,那麼對於IP的效果性要做好心理準備的。

如何使用Python實現爬蟲代理IP池

第一步:找IP資源

IP資源並不豐富,換句話說是供不應求的,因此一般是使用動態IP。

免費方法,直接在網絡上找,在搜索引擎中一搜索特別多能夠提供IP資源的網站,進行採集即可。

付費方法,通過購買芝麻ip上的IP資源,並進行提取,搭建IP池。

第二步,檢測可用IP保存。提取到的IP,可以進一步進行檢測是否可用,比如訪問某個固定的網站,找出訪問成功的IP進行保存。

第三步,隨機調用IP

在爬蟲需要使用IP時,可用讀取保存IP的文件,進行隨機調用IP。

本文介紹了如何建爬蟲的IP池方法,可以說搭建IP池很容易,可有些IP的時效性很短,使用之前還可以再測試一次的。

python中,進行爬蟲抓取怎麼樣能夠使用代理IP?

網絡數據量越來越大,從網頁中獲取信息變得越來越困難,如何有效地抓取並利用信息,已成為網絡爬蟲一個巨大的挑戰。下面IPIDEA為大家講明爬蟲代理IP的使用方法。

1. 利用爬蟲腳本每天定時爬取代理網站上的ip,寫入MongoDB或者其他的數據庫中,這張表作為原始表。

2. 使用之前需要做一步測試,就是測試這個ip是否有效,方法就是利用curl訪問一個網站查看返回值,需要創建一張新表,循環讀取原始表有效則插入,驗證之後將其從原始表中刪除,驗證的同時能夠利用響應時間來計算這個ip的質量,和最大使用次數,有一個算法能夠參考一種基於連接代理優化管理的多線程網絡爬蟲處理方法。

3. 把有效的ip寫入ip代理池的配置文件,重新加載配置文件。

4.讓爬蟲程序去指定的dailiy的服務ip和端口,進行爬取。

不能通過外網ip訪問自己用python自帶庫建立的web服務器,內網ip卻可以,求解

這個和python寫的代碼沒有關係這個需要路由器映射到你那個web服務器上吧

原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/241507.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
小藍的頭像小藍
上一篇 2024-12-12 12:38
下一篇 2024-12-12 12:38

相關推薦

發表回復

登錄後才能評論