不多说,直接上代码

# 爬取内涵吧段子的案例
import re
import requests

class Duanzi(object):
    def __init__(self):
        self.baseURL = 'http://www.neihan8.com/article/index'
        self.headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko'}
        # 表示页码,默认为第一页
        self.page = 1
        # 用来匹配每一页的每条段子, re.S 表示启用DOTALL模式( .也可以匹配换行符)
        # .* 贪心算法(尽可能多匹配 .)
        # .*? 非贪心算法(尽可能少匹配 .)
        self.pattern_page = re.compile(r'<div class="desc">(.*?)</div>', re.S)

        # self.pattern_page = re.compile(r'<div class="f18 mb20">(.*?)</div>', re.S)
        # &(.*?); 表示匹配 HTML实体字符 如:&nbsp;
        # <(.*?)> 表示匹配所有的标签 如:<p> <\br>
        # \s 匹配空白字符、换行符,但是不包括全角空格
        # " " 表示匹配全角空格
        self.pattern_content = re.compile(r'&(.*?);|<(.*?)>|\s| >')

    def loadpage(self):
        '''抓取每一页所有的段子'''
        print("正在抓取第%s页段子" % self.page)
        if self.page==1:
            # 处理每一页的url地址
            url = self.baseURL +'.html'
        else:
            # 处理每一页的url地址
            url = self.baseURL + '_'+str(self.page) + '.html'

        # 网页默认编码为gbk,发送请求,返回相应数据
        html_gbk = requests.get(url, headers=self.headers).content
        # 将gbk编码的网页转化为utf8
        # html = html_gbk.decode('gbk').encode('utf-8')
        html = html_gbk.decode('utf8')
        # 匹配文本,获取所有段子的列表
        content_list = self.pattern_page.findall(html)
        self.write_page(content_list)

    def write_page(self, content_list):
        '''把每一页的段子内容写入到磁盘文件中'''
        print("正在写入第%s页的段子内容" % self.page)
        # 切记这里的a是追加模式
        with open('duanzi.txt', 'a') as f:
            for content in content_list:
                # 匹配内容,去除无用的字符
                content2 = self.pattern_content.sub("", content)
                f.write(content2)
                f.write('\n\n')

    def duanzi_spider(self):
        while True:
            command = input("亲!请按回车键继续爬虫(按q键退出...):")
            if command == 'q':
                break

            self.loadpage()
            self.page += 1


if __name__ == '__main__':
    duanzi = Duanzi()
    duanzi.duanzi_spider()

本站以现代、古代情诗为主,情诗网创办于2013年,以原创爱情诗歌、经典情诗、现代情诗、古代情诗、英文情诗、情诗绝句为主并收集古诗、古诗词、诗歌大全、诗词名句的文学门户。方便您下次继续阅读;可以放在浏览器的收藏夹中(快捷键Ctrl+D);或者看到喜欢或者有趣的诗词可以通过分享按钮给你的好友分享;情诗网是目前最全情诗大全网站之一。并欢迎广大诗歌爱好者阅览投稿!喜欢本站的话请大家把本站告诉给你朋友哦!地址是 www.qingshiwang.com !