分享
  1. 首页
  2. 文章

爬虫

guangyan24 · · 1532 次点击 · · 开始浏览
这是一个创建于 的文章,其中的信息可能已经有所发展或是发生改变。

什么是爬虫?

爬虫实际上就是采集网络上数据的一段程序。
简单来说,爬虫程序通过请求url地址,然后根据响应的内容进行数据采集。如果响应内容是html,分析dom结构,进行dom解析或者正则匹配,如果响应内容是xml/json数据,转换数据对象,然后对数据进行解析。

采集数据的用途

采集数据就是将别人的资源采集下来,然后加以利用,变为自己的资源。我们可以从某些网站获取需要的图片、数据、文章放到自己的网站中,也可将网站中的热点采集下来,进行数据分析。

Beautiful Soup 是一个常用的网页解析器,可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式。Beautiful Soup会帮你节省数小时甚至数天的工作时间。

Beautiful Soup文档链接 https://beautifulsoup.readthedocs.io/zh_CN/v4.4.0/#

爬虫注意事项

在很多网站中,通常会存在反爬操作,来阻止网站数据被爬取。如果长时间频繁的使用爬虫爬取某些网站数据,容易造成IP被封情况。因此,为降低IP被封,而导致爬取数据失败的几率,可使用随机user-agent,以及ip代理,和注意每次爬虫的时间间隔。

一、requests

requests是python实现爬虫功能中简单易用的HTTP库,也是爬虫过程中常用的一种工具库,操作简单,通过pip install requests命令进行安装,即可使用。但同样也存在某些不足之处,比如在爬取某些js动态加载的网页数据时,就容易爬取不到相关数据。此时,可以尝试使用selenium进行数据爬取工作。

# -*- coding: UTF-8 -*-
import requests,json
from bs4 import BeautifulSoup
# ip代理
proxies = {
 "http": "http://171.12.115.194:9999",
 "https": "http://171.12.115.194:9999",
}
class RequestsData():
 def __init__(self,url):
 self.url = url
 self.headers={
 'User-Agent':'Mozilla/5.0(Macintosh;Intel Mac OS X 10_11_4)AppleWebKit/537.36(KHTML,like Gecko)Chrome/52.0.2743.116 Safari/537.36'
 }
 resp = requests.get(self.url, headers=self.headers,proxies=proxies,verify=False)
 if resp.status_code != 200:
 return
 self.soup = BeautifulSoup(resp.text, 'html.parser', from_encoding='utf-8')
 def getData(self):
 div = self.soup.find("div",class_="market-bd market-bd-6 course-list course-card-list-multi-wrap js-course-list")
 ul = div.find("ul",class_="course-card-list")
 lis = ul.select("li")
 return lis
 def getSideData(self):
 contents = json.loads(self.soup.contents[0])
 data = contents["result"]["bottom_list"]
 return data
if __name__ == '__main__':
 obj = RequestsData(url='https://ke.qq.com/cgi-bin/course/courseListOtherModule?mt=0&bkn=1372242365&r=0.6038976779720526')
 data = obj.getSideData()
 # obj=RequestsData(url='https://ke.qq.com/course/list/golang?page=1')
 # data = obj.getData()
二. selenium

selenium 是一个用于Web应用程序测试的工具,通过调用相应浏览器的驱动程序,模拟用户进行操作。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等。selenium 是一套完整的web应用程序测试系统,包含了测试的录制(selenium IDE),编写及运行(Selenium Remote Control)和测试的并行处理(Selenium Grid)。
Selenium的核心Selenium Core基于JsUnit,完全由JavaScript编写,因此可以用于任何支持JavaScript的浏览器上。
selenium可以模拟真实浏览器,自动化测试工具,支持多种浏览器,爬虫中主要用来解决JavaScript渲染问题。

Headless Chrome
Headless Chrome 是 Chrome 浏览器的无界面形态,可以在不打开浏览器的前提下,使用所有Chrome支持的特性,在命令行中运行你的脚本。以前在爬虫要使用Phantomjs来实现这些功能,但Phantomjs已经暂停开发,现在可以使用Headless Chrome来代替。

同样,selenium作为爬虫的工具库之一,虽然能够模拟用户打开浏览器进行访问,但也同样存在不足的地方,比如爬虫数据的时间比其他工具库要长,并且使用也比较繁琐,需要下载相应浏览器版本的驱动,否则,你可能会看到浏览器刚开启,就关闭的场景。

selenium中文文档链接:https://selenium-python-zh.readthedocs.io/en/latest/
查找chrome浏览器对应版本的chromedriver,下载chromedriver 链接http://npm.taobao.org/mirrors/chromedriver/,查看chrome浏览器版本相关信息,在地址栏输入chrome://version/即可

# -*- coding: UTF-8 -*-
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support.wait import WebDriverWait
from time import sleep
import random
class SeleniumData(object):
 def __init__(self,url='http://www.baidu.com/'):
 # 设置chrome为headless模式
 # chrome_options = webdriver.ChromeOptions()
 # chrome_options.add_argument('--headless')
 # self.browser = webdriver.Chrome(chrome_options=chrome_options)
 # 默认可视化界面模式
 self.browser = webdriver.Chrome()
 self.url = url
 def getTengXunKeTang(self):
 self.browser.get(self.url)
 self.browser.find_element_by_id("js_keyword").send_keys("golang")
 sleep(1)
 self.browser.find_element_by_id("js_search").click()
 sleep(1)
 data = []
 for i in range (0,24):
 if i==2:
 break
 temp = {}
 courseCardList = self.browser.find_element_by_class_name("course-card-list")
 li = courseCardList.find_elements_by_class_name("js-course-card-item")[i]
 a = li.find_element_by_tag_name("a")
 temp["url"] = a.get_attribute("href")
 title = li.find_element_by_class_name("item-tt").text
 temp["title"] = title
 temp["img"] = a.find_element_by_tag_name("img").get_attribute("src")
 data.append(temp)
 print temp
 sleep(1)
 def openBaiduLoginFrame(self):
 # 百度登录爬虫处理
 self.browser.get(self.url)
 self.browser.find_element_by_id("u1").find_element(By.NAME,"tj_login").click()
 sleep(1)
 self.browser.find_element(By.ID,"TANGRAM__PSP_11__footerULoginBtn").click()
 self.browser.find_element_by_id("TANGRAM__PSP_11__userName").send_keys("18070514832")
 sleep(1)
 self.browser.find_element_by_id("TANGRAM__PSP_11__password").send_keys("luo242734")
 sleep(1)
 self.browser.find_element_by_id("TANGRAM__PSP_11__submit").click()
 sleep(1)
 # validateBtn = self.browser.find_element_by_id("vcode-spin-button111")
 # validateBtn.execute_script
 a = []
 i = 1
 while True:
 try:
 i = i + 1
 if i == 1000:
 break
 b = random.choice([45,127,90,180,360])
 self.browser.execute_script("document.getElementByClassName('vcode-spin-button').style.transform=translateX("+str(b)+"px);")
 sleep(0.5)
 except Exception,e:
 continue
 a = a.append(b)
 print a
 def borwserClose(self):
 self.browser.quit()
if __name__ == '__main__':
 obj = SeleniumData(url="https://ke.qq.com/")
 obj.getTengXunKeTang()
 obj.browserClose()
三、golang

通常爬虫,我们首先想到的可能是用python进行数据爬取,其实爬虫并不局限于开发语言,golang也同样可以爬取数据,原理和以上所述相同,都是获取url地址的响应内容,进行解析。
同样,前端js也可以做爬虫程序,去采集相关数据,如使用axios爬取数据,此处不做示例分析。
以下为通过golang做爬虫程序的示例,仅供参考。

package main
import (
 "time"
 "math/rand"
 "strings"
 "net/http"
 "fmt"
 "github.com/go-xweb/log"
 "io/ioutil"
 "encoding/xml"
 "regexp"
)
var userAgent = [...]string{"Mozilla/5.0 (compatible, MSIE 10.0, Windows NT, DigExt)",
 "Mozilla/4.0 (compatible, MSIE 7.0, Windows NT 5.1, 360SE)",
 "Mozilla/4.0 (compatible, MSIE 8.0, Windows NT 6.0, Trident/4.0)",
 "Mozilla/5.0 (compatible, MSIE 9.0, Windows NT 6.1, Trident/5.0,",
 "Opera/9.80 (Windows NT 6.1, U, en) Presto/2.8.131 Version/11.11",
 "Mozilla/4.0 (compatible, MSIE 7.0, Windows NT 5.1, TencentTraveler 4.0)",
 "Mozilla/5.0 (Windows, U, Windows NT 6.1, en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50",
 "Mozilla/5.0 (Macintosh, Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
 "Mozilla/5.0 (Macintosh, U, Intel Mac OS X 10_6_8, en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50",
 "Mozilla/5.0 (Linux, U, Android 3.0, en-us, Xoom Build/HRI39) AppleWebKit/534.13 (KHTML, like Gecko) Version/4.0 Safari/534.13",
 "Mozilla/5.0 (iPad, U, CPU OS 4_3_3 like Mac OS X, en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5",
 "Mozilla/4.0 (compatible, MSIE 7.0, Windows NT 5.1, Trident/4.0, SE 2.X MetaSr 1.0, SE 2.X MetaSr 1.0, .NET CLR 2.0.50727, SE 2.X MetaSr 1.0)",
 "Mozilla/5.0 (iPhone, U, CPU iPhone OS 4_3_3 like Mac OS X, en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5",
 "MQQBrowser/26 Mozilla/5.0 (Linux, U, Android 2.3.7, zh-cn, MB200 Build/GRJ22, CyanogenMod-7) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1"}
var urlChannel = make(chan string, 200) //chan中存入string类型的href属性,缓冲200
var atagRegExp = regexp.MustCompile(`<a[^>]+[(href)|(HREF)]\s*\t*\n*=\s*\t*\n*[(".+")|('.+')][^>]*>[^<]*</a>`) //以Must前缀的方法或函数都是必须保证一定能执行成功的,否则将引发一次panic
var r = rand.New(rand.NewSource(time.Now().UnixNano()))
func GetRandomUserAgent() string {
 return userAgent[r.Intn(len(userAgent))]
}
func Spider(url string){
 defer func() {
 if r := recover(); r != nil {
 log.Println("[E]", r)
 }
 }()
 req, _ := http.NewRequest("GET", url, nil)
 req.Header.Set("User-Agent", GetRandomUserAgent())
 client := http.DefaultClient
 res, e := client.Do(req)
 if e != nil {
 fmt.Errorf("Get请求%s返回错误:%s", url, e)
 return
 }
 if res.StatusCode == 200 {
 body := res.Body
 defer body.Close()
 bodyByte, _ := ioutil.ReadAll(body)
 resStr := string(bodyByte)
 atag := atagRegExp.FindAllString(resStr, -1)
 for _, a := range atag {
 href,_ := GetHref(a)
 if strings.Contains(href, "article/details/") {
 fmt.Println("☆", href)
 }else {
 fmt.Println("しろいしかく", href)
 }
 urlChannel <- href
 }
 }
}
func GetHref(atag string) (href,content string) {
 inputReader := strings.NewReader(atag)
 decoder := xml.NewDecoder(inputReader)
 for t, err := decoder.Token(); err == nil; t, err = decoder.Token() {
 switch token := t.(type) {
 // 处理元素开始(标签)
 case xml.StartElement:
 for _, attr := range token.Attr {
 attrName := attr.Name.Local
 attrValue := attr.Value
 if(strings.EqualFold(attrName,"href") || strings.EqualFold(attrName,"HREF")){
 href = attrValue
 }
 }
 // 处理元素结束(标签)
 case xml.EndElement:
 // 处理字符数据(这里就是元素的文本)
 case xml.CharData:
 content = string([]byte(token))
 default:
 href = ""
 content = ""
 }
 }
 return href, content
}
func main(){
 Spider("https://blog.csdn.net/")
}

有疑问加站长微信联系(非本文作者)

本文来自:简书

感谢作者:guangyan24

查看原文:爬虫

入群交流(和以上内容无关):加入Go大咖交流群,或添加微信:liuxiaoyan-s 备注:入群;或加QQ群:692541889

关注微信
1532 次点击
暂无回复
添加一条新回复 (您需要 后才能回复 没有账号 ?)
  • 请尽量让自己的回复能够对别人有帮助
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`
  • 支持 @ 本站用户;支持表情(输入 : 提示),见 Emoji cheat sheet
  • 图片支持拖拽、截图粘贴等方式上传

用户登录

没有账号?注册
(追記) (追記ここまで)

今日阅读排行

    加载中
(追記) (追記ここまで)

一周阅读排行

    加载中

关注我

  • 扫码关注领全套学习资料 关注微信公众号
  • 加入 QQ 群:
    • 192706294(已满)
    • 731990104(已满)
    • 798786647(已满)
    • 729884609(已满)
    • 977810755(已满)
    • 815126783(已满)
    • 812540095(已满)
    • 1006366459(已满)
    • 692541889

  • 关注微信公众号
  • 加入微信群:liuxiaoyan-s,备注入群
  • 也欢迎加入知识星球 Go粉丝们(免费)

给该专栏投稿 写篇新文章

每篇文章有总共有 5 次投稿机会

收入到我管理的专栏 新建专栏