1. 程式人生 > >網路爬蟲在抓取頁面超時時候應該怎麼處理?

網路爬蟲在抓取頁面超時時候應該怎麼處理?

我們可以設定一個超時時間,在發起請求的這個時間超過這個設定時間後丟擲異常,我們對其進行處理

我在這裡簡單寫一個 demo:

from urllib import request 
from urllib import error
import socket
try:
  response = request.urlopen(url,timeout=0.01)
except error.URLError as e:
    if isinstance(e.reason,socket.timeout):
# 下面這裡寫自己的業務邏輯
        print('超時,執行下一個請求')