QQ登录

只需一步,快速开始

登录 | 立即注册 | 找回密码
查看: 183|回复: 7

[已解决]小甲鱼老师的Python书里第172页的问题

[复制链接]
最佳答案
0 
累计签到:4 天
连续签到:1 天
发表于 2017-9-10 02:54:14 | 显示全部楼层 |阅读模式

马上注册加入鱼C,享用更多服务吧^_^

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
代码如下:
  1. import urllib.request
  2. import re
  3. from bs4 import BeautifulSoup


  4. def main():
  5.     url = "http://baike.baidu.com/view/284853.htm"
  6.     response = urllib.request.urlopen(url)
  7.     html = response.read()
  8.     soup = BeautifulSoup(html,"html.parser")

  9.     for each in soup.find_all(href = re.compile("view")):
  10.         print(each.text,"->",''.join(["http://baike.baidu.com",\ each["href"]]))
  11.    
  12.     if __name__ == "__main__":
  13.         main()
复制代码





报错信息:
  1.   File "/home/hongludianxue/Documents/Python file/爬虫.py", line 13
  2.     print(each.text,"->",''.join(["http://baike.baidu.com",\ each["href"]]))
  3.                                                                            ^
  4. SyntaxError: unexpected character after line continuation character
复制代码




实在找不出错在了哪里,请师傅们帮忙看一下,十分感谢。
附书的第172页代码段:
DeepinScreenshot_select-area_20170910025251.png
最佳答案
2017-9-10 08:36:52
  1. import urllib.request
  2. import re
  3. from bs4 import BeautifulSoup


  4. def main():
  5.     url = "http://baike.baidu.com/view/284853.htm"
  6.     response = urllib.request.urlopen(url)
  7.     html = response.read()
  8.     soup = BeautifulSoup(html,"html.parser")

  9.     for each in soup.find_all(href = re.compile("view")):
  10.         print(each.text,"->",''.join(["http://baike.baidu.com",each["href"]]))
  11.    
  12. if __name__ == "__main__":
  13.     main()
复制代码
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
24 
累计签到:150 天
连续签到:10 天
发表于 2017-9-10 07:04:17 From FishC Mobile | 显示全部楼层
join前面是俩单引号,不是一个双引号
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
275 
累计签到:258 天
连续签到:5 天
发表于 2017-9-10 08:36:52 | 显示全部楼层    本楼为最佳答案   
  1. import urllib.request
  2. import re
  3. from bs4 import BeautifulSoup


  4. def main():
  5.     url = "http://baike.baidu.com/view/284853.htm"
  6.     response = urllib.request.urlopen(url)
  7.     html = response.read()
  8.     soup = BeautifulSoup(html,"html.parser")

  9.     for each in soup.find_all(href = re.compile("view")):
  10.         print(each.text,"->",''.join(["http://baike.baidu.com",each["href"]]))
  11.    
  12. if __name__ == "__main__":
  13.     main()
复制代码
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
41 
累计签到:531 天
连续签到:1 天
发表于 2017-9-10 11:53:33 | 显示全部楼层
\反斜线用于换行,你写在一行里了就不需要\了。

最后的判断应在函数外。
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
0 
累计签到:4 天
连续签到:1 天
 楼主| 发表于 2017-9-10 19:23:14 | 显示全部楼层
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
0 
累计签到:4 天
连续签到:1 天
 楼主| 发表于 2017-9-10 19:25:31 | 显示全部楼层

好厉害,真的是。。。我要好好研究一下,谢谢师傅
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
0 
累计签到:4 天
连续签到:1 天
 楼主| 发表于 2017-9-10 19:26:02 | 显示全部楼层
wei_Y 发表于 2017-9-10 11:53
\反斜线用于换行,你写在一行里了就不需要\了。

最后的判断应在函数外。

谢谢师傅
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
0 
累计签到:37 天
连续签到:28 天
发表于 2017-10-26 13:23:36 | 显示全部楼层
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!

发表回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

小甲鱼强烈推荐 上一条 /3 下一条

    移动客户端下载(未启用)
    微信公众号

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备11014136号

Copyright 2018 鱼C论坛 版权所有 All Rights Reserved.

Powered by Discuz! X3.1 Copyright
© 2001-2018 Comsenz Inc.    All Rights Reserved.

小黑屋|手机版|Archiver|鱼C工作室 ( 粤公网安备 44051102000370号 | 粤ICP备11014136号

GMT+8, 2017-11-18 14:27

快速回复 返回顶部 返回列表