做淘客网站需要多大的空间外贸营销推广公司
做淘客网站需要多大的空间,外贸营销推广公司,网站制作的相关术语,好的做网站文章目录
一、前言
二、实战
1#xff09;获取百度网页并打印 2#xff09;获取帅哥图片并下载到本地
4) 获取美女视频并下载到本地 5#xff09;搜狗关键词搜索爬取
6#xff09;爬取百度翻译
7#xff09;爬取豆瓣电影榜单 8#xff09;JK妹子爬取 总结#xff…文章目录
一、前言
二、实战
1获取百度网页并打印 2获取帅哥图片并下载到本地
4) 获取美女视频并下载到本地 5搜狗关键词搜索爬取
6爬取百度翻译
7爬取豆瓣电影榜单 8JK妹子爬取 总结 一、前言
前面两篇文章我已经把requests基础与高阶篇都做了详细讲解也有不少了例子。那么本篇在基于前两篇文章之上专门做一篇实战篇。
requests 基础篇 进阶篇 环境jupyter 如果你不会使用jupyter请看我这一篇文章jupyter安装教程与使用教程
二、实战
1获取百度网页并打印
#-*- coding: utf-8 -*
import requestsurl http://www.baidu.comr requests.get(url)
r.encoding r.apparent_encodingprint(r.text)
运行结果 2获取帅哥图片并下载到本地 此照片链接 点它就行
现在我们就把这张图片下载下来
代码
import requestssrc https://cn.bing.com/images/search?viewdetailV2ccidyj6ElAFeidD93F105743FB238DEB0F368C30CD9881AEB3B8E8thidOIP.yj6ElAFeZl8v6dYUhuMgqAHaHamediaurlhttps%3A%2F%2Ftse1-mm.cn.bing.net%2Fth%2Fid%2FR-C.ca3e8494015e665f2fe9d61486e320a8%3Frik%3D6LizroGYzTCMNg%26riu%3Dhttp%253a%252f%252fp4.music.126.net%252f9Fpqj1WM0H7fjlRQc3-TSw%253d%253d%252f109951165325278290.jpg%26ehk%3Dr9puRRQ%252fYEoDToUqJ%252bOt%252fBhB69sKQ8Zl0cwQXKrOWng%253d%26risl%3D%26pid%3DImgRaw%26r%3D0riuhttp%253a%252f%252fp2.music.126.net%252fPFVNR3tU9DCiIY71NdUDcQ%253d%253d%252f109951165334518246.jpgehko08VEDcuKybQIPsOGrNpQ2glID%252fIiEV7cw%252bFo%252fzopiM%253drisl1pidImgRawr0exph1024expw1024q%E5%BC%A0%E6%9D%B0simid608056275652971603formIRPRSTck61FF572F08E45A84E73B7ECCF670E32Aselectedindex3ajaxhist0ajaxserp0vt0sim11r requests.get(src)with open(bizhi.jpg, wb) as f:f.write(r.content)print(下载完成)
运行结果 4) 获取美女视频并下载到本地
比如我得到一个视频链接美女变身
截图 代码
import requestssrc https://v26-web.douyinvod.com/cbf8c5256aa1445d0db1cc23cb324a96/61951eb0/video/tos/cn/tos-cn-ve-15-alinc2/ffaec236e9b84baa8de831b1335db83c/?a6383br1360bt1360cd0%7C0%7C0ch5cr3cs0cv1dr0ds3erftOyFYlOZZI0rC17XzGTh9D8Fxuhsd5.RcHqYl20211117222423010135163078021E6247lrallmime_typevideo_mp4net0pl0qs0rcamZ5eGk6Zm10OTMzNGkzM0ApNTtmOzw4O2Q1NzVoZmQ4M2ctX2s1cjQwYzBgLS1kLWFzczJeX15eLy1iMS4uYGFgYGE6Yw%3D%3Dvlvrr requests.get(src)with open(movie.mp4, wb) as f:f.write(r.content)print(下载完成) 运行结果 5搜狗关键词搜索爬取
代码
import requests
#指定url
urlhttps://www.sogou.com/web
kwinput(enter a word: )
header{User-Agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36
}
param{query:kw
}
#发起请求做好伪装
responserequests.get(urlurl,paramsparam,headersheader)
#获取相应数据
contentresponse.text
fileNamekw.html
#将数据保存在本地
with open(fileName,w,encodingutf-8) as fp:fp.write(content)
print(fileName,爬取完成)
运行结果 输入 美女 回车 网址详情 6爬取百度翻译
分析找到接口 由此我们可以拿到接口和请求方式 代码
import json
import requests
urlhttps://fanyi.baidu.com/sug
wordinput(请输入想翻译的词语或句子)
data{kw:word
}
headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2626.106 Safari/537.36
}
reponserequests.post(urlurl,datadata,headersheaders)
dic_objreponse.json()
# print(dic_obj)
filenameword.json
with open(filename,w,encodingutf-8) as fp:json.dump(dic_obj,fpfp,ensure_asciiFalse)
jdic_obj[data][1][v]
print(j)
测试结果 7爬取豆瓣电影榜单
目标网址 https://movie.douban.com/chart 代码
import json
import requests
urlhttps://movie.douban.com/j/chart/top_list?
params{type: 11,interval_id: 100:90,action: ,start: 0,limit: 20,
}
headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2626.106 Safari/537.36
}
reponserequests.get(urlurl,paramsparams,headersheaders)
dic_objreponse.json()
print(dic_obj)
with open(douban.json,w,encodingutf-8) as fp:json.dump(dic_obj,fpfp,ensure_asciiFalse)
运行结果同时保存为json) 8JK妹子爬取
import requests
import re
import urllib.request
import time
import os
header{User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.162 Safari/537.36
}
urlhttps://cn.bing.com/images/async?qjk%E5%88%B6%E6%9C%8D%E5%A5%B3%E7%94%9F%E5%A4%B4%E5%83%8Ffirst118count35relp35cw1177ch705tscImageBasicHoverdatsrcIlayoutRowBasedmmasync1SFX4
requestrequests.get(urlurl,headersheader)
crequest.text
patternre.compile(rdiv classimgpt.*?div classimg_cont hoff.*?src(.*?).*?/div,re.S
)
items re.findall(pattern, c)
# print(items)
os.makedirs(photo,exist_okTrue)
for a in items:print(a)
for a in items:print(下载图片a)ba.split(/)[-1]urllib.request.urlretrieve(a,photo/str(int(time.time())).jpg)print(a.jpg)time.sleep(2)
运行结果 图片如下 总结
如果本文的表头或者url处不懂或不知道怎么找请移步到基础篇先去学习一下
如果本文有不当之处请你指出谢谢
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/89327.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!