QQ登录

只需一步,快速开始

登录 | 立即注册 | 找回密码

主题

帖子

荣誉

新鱼友

Rank: 1

积分
25
查看: 118|回复: 6

[已解决]学习小甲鱼python基础的爬虫问题

[复制链接]
最佳答案
0 
累计签到:21 天
连续签到:1 天
JacksonHome 发表于 2018-2-13 03:23:42 1186 | 显示全部楼层 |阅读模式

马上注册加入鱼C,享用更多服务吧^_^

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
本帖最后由 JacksonHome 于 2018-2-13 03:23 编辑

这是源代码:
import urllib.request
import os
import random

def url_open(url):
    req=urllib.request.Request(url)
    req.add_header("User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0")
    response=urllib.request.urlopen(req)        #这里有个问题,为什么小甲鱼参数放上url可以,我放了就变成403了?
    html=response.read()
    return html
   
def get_page(url):
    html=url_open(url).decode("utf-8")
    a = html.find("current-comment-page")+23
    b = html.find("]",a)
    return html[a:b]

def find_imgs(url):
    html=url_open(url).decode("utf-8")
    print(html)
    img_addrs=[]
    a=html.find("img src=")
   
    while a != -1:
        b=html.find(".jpg",a,a+255)
        if b != -1:
            img_addrs.append(html[a+9:b+4])
        else:
            b = a + 9
            
        a=html.find("img src=",b)
   
    for i in img_addrs:
        print(i)
        
    return img_addrs

def save_imgs(folder,img_addrs):
    for each in img_addrs:
        filename=each.split("/")[-1]
        with open(filename,"wb") as f:
            img=url_open(each)
            f.write(img)

def download(folder="OOXX",pages=10):
    os.mkdir(folder)
    os.chdir(folder)
   
    url="http://jandan.net/ooxx/"
    page_num=int(get_page(url))
   
    for i in range(pages):
        page_num -= i
        page_url = url + "page-" + str(page_num) + "#comments"
        img_addrs = find_imgs(page_url)
        save_imgs(folder,img_addrs)
        
if __name__=="__main__":
    download()

鱼C各位鱼油大神们好,我是新人,在学习《零基础入门学习python》的论一只爬虫的自我修养OOXX那章遇到一些问题,希望能得到帮助!代码是跟着小甲鱼一步步敲的,但结果差很远,不知道是不是我哪里打错了!
问题如下:1.在urlopen(),小甲鱼可以正常运行,而我报错403,为什么呢?
2.程序运行下来,我在find_imgs函数里进行打印html,结果发现得到的只是js代码,而不是完整加载的html,这是为什么?

希望小甲鱼还有鱼友们帮帮我,不胜感激
最佳答案
2018-2-13 21:14:17
JacksonHome 发表于 2018-2-13 20:42
就是上面代码注释那里,原本urlopen()函数里面参数可以放url或者Request对象,小甲鱼的视频是可行的, ...

网站的问题,403不是你代码的问题。
楼层
跳转到指定楼层
最佳答案
304 
累计签到:316 天
连续签到:5 天
新手·ing 发表于 2018-2-13 07:16:36 | 显示全部楼层
不要爬这个网站了,小甲鱼带动了一波人,所以这个网站反爬了,换一个网站吧。
最佳答案
0 
累计签到:21 天
连续签到:1 天
JacksonHome  楼主| 发表于 2018-2-13 12:03:10 | 显示全部楼层
新手·ing 发表于 2018-2-13 07:16
不要爬这个网站了,小甲鱼带动了一波人,所以这个网站反爬了,换一个网站吧。

哦哦,好的,谢谢,那我想知道第一个问题为什么放Request对象可以,而放url则不行了?
最佳答案
304 
累计签到:316 天
连续签到:5 天
新手·ing 发表于 2018-2-13 12:08:25 | 显示全部楼层
JacksonHome 发表于 2018-2-13 12:03
哦哦,好的,谢谢,那我想知道第一个问题为什么放Request对象可以,而放url则不行了?

说清楚点呗,最好发上报错截图。
最佳答案
0 
累计签到:21 天
连续签到:1 天
JacksonHome  楼主| 发表于 2018-2-13 20:42:11 | 显示全部楼层
新手·ing 发表于 2018-2-13 12:08
说清楚点呗,最好发上报错截图。

就是上面代码注释那里,原本urlopen()函数里面参数可以放url或者Request对象,小甲鱼的视频是可行的,而我直接放Request对象是没问题的,而放上url则会报错

报403HttpError

报403HttpError
最佳答案
304 
累计签到:316 天
连续签到:5 天
新手·ing 发表于 2018-2-13 21:14:17 | 显示全部楼层    本楼为最佳答案   
JacksonHome 发表于 2018-2-13 20:42
就是上面代码注释那里,原本urlopen()函数里面参数可以放url或者Request对象,小甲鱼的视频是可行的, ...

网站的问题,403不是你代码的问题。
最佳答案
0 
累计签到:21 天
连续签到:1 天
JacksonHome  楼主| 发表于 2018-2-14 02:20:09 | 显示全部楼层
新手·ing 发表于 2018-2-13 21:14
网站的问题,403不是你代码的问题。

好的,谢谢大佬鱼

发表回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

小甲鱼强烈推荐 上一条 /2 下一条

    移动客户端下载(未启用)
    微信公众号

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备11014136号

Copyright 2018 鱼C论坛 版权所有 All Rights Reserved.

Powered by Discuz! X3.1 Copyright
© 2001-2018 Comsenz Inc.    All Rights Reserved.

小黑屋|手机版|Archiver|鱼C工作室 ( 粤公网安备 44051102000370号 | 粤ICP备11014136号

GMT+8, 2018-2-24 00:38

快速回复 返回顶部 返回列表