哪里有做网站排名优化全网品牌推广
web/
2025/9/26 21:05:03/
文章来源:
哪里有做网站排名优化,全网品牌推广,辽宁省建设部网站,做网络推广的网站我选取的网页爬取的是ppt nba版
需要的工具:pycharm,浏览器 爬虫需要观察它的网页信息,然后开始首先爬取它的html,可以看到有人气,标题,日期,咨询 可以看到用get方法
import requests
urlhttps://img-home.csdnimg.cn/images/20230724024159.png?origin_urlhttps%3A%2…我选取的网页爬取的是ppt nba版
需要的工具:pycharm,浏览器 爬虫需要观察它的网页信息,然后开始首先爬取它的html,可以看到有人气,标题,日期,咨询 可以看到用get方法
import requests
urlhttps://img-home.csdnimg.cn/images/20230724024159.png?origin_urlhttps%3A%2F%2Fwww.ptt.cc%2Fbbs%2FNBA%2Findex.htmlpos_idlJ5YB9Tu
responerequests.get(url)
print(respone.text)
接下来把它下载下来
with open(output.html,w,encodingutf-8)as f:f.write(respone.text)
反爬虫使用header方法,观察User-Agent: AppleWebKit/537.36 (KHTML, like Gecko) Chrome/131.0.0.0 Safari/537.36
放入header
import requests
urlhttps://img-home.csdnimg.cn/images/20230724024159.png?origin_urlhttps%3A%2F%2Fwww.ptt.cc%2Fbbs%2FNBA%2Findex.htmlpos_idlJ5YB9Tu
headers{User-Agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/131.0.0.0 Safari/537.36}
responerequests.get(headersheaders)
# print(respone.text)
with open(output.html,w,encodingutf-8)as f:f.write(respone.text)
接下来正式开始爬取自己想要的资料 去终端机安一下beautifulsoup
pip install beautifulsoup4 解析获得文章列表parser
soup beautifulSoup(respone.text,html.parser )
接下来把我们需要的值一个一个取出来
标题: div a title.text
人气:div classnrec span
日期:div date
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/82383.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!