QQ登录

只需一步,快速开始

搜索
鱼C论坛笔记大赛成绩公示
查看: 110|回复: 6

[已解决]小甲鱼老师的Python书里第172页的问题

[复制链接]
最佳答案
0 
累计签到:4 天
连续签到:1 天
发表于 2017-9-10 02:54:14 | 显示全部楼层 |阅读模式

马上注册加入鱼C,享用更多服务吧^_^

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
代码如下:
  1. import urllib.request
  2. import re
  3. from bs4 import BeautifulSoup


  4. def main():
  5.     url = "http://baike.baidu.com/view/284853.htm"
  6.     response = urllib.request.urlopen(url)
  7.     html = response.read()
  8.     soup = BeautifulSoup(html,"html.parser")

  9.     for each in soup.find_all(href = re.compile("view")):
  10.         print(each.text,"->",''.join(["http://baike.baidu.com",\ each["href"]]))
  11.    
  12.     if __name__ == "__main__":
  13.         main()
复制代码





报错信息:
  1.   File "/home/hongludianxue/Documents/Python file/爬虫.py", line 13
  2.     print(each.text,"->",''.join(["http://baike.baidu.com",\ each["href"]]))
  3.                                                                            ^
  4. SyntaxError: unexpected character after line continuation character
复制代码




实在找不出错在了哪里,请师傅们帮忙看一下,十分感谢。
附书的第172页代码段:
DeepinScreenshot_select-area_20170910025251.png
最佳答案
2017-9-10 08:36:52
  1. import urllib.request
  2. import re
  3. from bs4 import BeautifulSoup


  4. def main():
  5.     url = "http://baike.baidu.com/view/284853.htm"
  6.     response = urllib.request.urlopen(url)
  7.     html = response.read()
  8.     soup = BeautifulSoup(html,"html.parser")

  9.     for each in soup.find_all(href = re.compile("view")):
  10.         print(each.text,"->",''.join(["http://baike.baidu.com",each["href"]]))
  11.    
  12. if __name__ == "__main__":
  13.     main()
复制代码
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
22 
累计签到:113 天
连续签到:11 天
发表于 2017-9-10 07:04:17 From FishC Mobile | 显示全部楼层
join前面是俩单引号,不是一个双引号
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
205 
累计签到:205 天
连续签到:42 天
发表于 2017-9-10 08:36:52 | 显示全部楼层    本楼为最佳答案   
  1. import urllib.request
  2. import re
  3. from bs4 import BeautifulSoup


  4. def main():
  5.     url = "http://baike.baidu.com/view/284853.htm"
  6.     response = urllib.request.urlopen(url)
  7.     html = response.read()
  8.     soup = BeautifulSoup(html,"html.parser")

  9.     for each in soup.find_all(href = re.compile("view")):
  10.         print(each.text,"->",''.join(["http://baike.baidu.com",each["href"]]))
  11.    
  12. if __name__ == "__main__":
  13.     main()
复制代码
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
35 
累计签到:531 天
连续签到:1 天
发表于 2017-9-10 11:53:33 | 显示全部楼层
\反斜线用于换行,你写在一行里了就不需要\了。

最后的判断应在函数外。
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
0 
累计签到:4 天
连续签到:1 天
 楼主| 发表于 2017-9-10 19:23:14 | 显示全部楼层
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
0 
累计签到:4 天
连续签到:1 天
 楼主| 发表于 2017-9-10 19:25:31 | 显示全部楼层

好厉害,真的是。。。我要好好研究一下,谢谢师傅
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
最佳答案
0 
累计签到:4 天
连续签到:1 天
 楼主| 发表于 2017-9-10 19:26:02 | 显示全部楼层
wei_Y 发表于 2017-9-10 11:53
\反斜线用于换行,你写在一行里了就不需要\了。

最后的判断应在函数外。

谢谢师傅
1. 如果您的提问得到满意的答案,请务必选择【最佳答案】;2. 如果想鼓励一下楼主或帮助到您的朋友,可以给他们【评分】作为奖励;
3. 善用【论坛搜索】功能,那里可能有您想要的答案;4. 粘贴代码请点击编辑框上的 <> 按钮,否则您的代码可能会被“吃掉”!
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

小甲鱼强烈推荐上一条 /1 下一条

小黑屋手机版Archiver( 粤公网安备 44051102000370号 | 粤ICP备11014136号

© 2010-2017 FishC.com GMT+8, 2017-9-25 10:44 Powered by Discuz! X2.5 Theme by dreambred

快速回复 返回顶部 返回列表