您的当前位置:首页 >探索 >抖音点赞可以花钱买吗,ks怎么买热门 正文
时间:2024-12-26 12:34:46 来源:网络整理编辑:探索
#输出快手ID和cookieclassuserdetailLiveSpider():URL="https://live.kuaishou.com/m_graphql"headers={"accept" 广东拼多多刷单
# 输出快手ID和cookieclass userdetailLiveSpider(): URL = "https://live.kuaishou.com/m_graphql" headers = { "accept": "*/*", "Content-Length": "", "Accept-Encoding": "gzip, deflate", "Connection": "keep-alive", "content-type": "application/json", # 我添加的抖音点赞时间属性Max-Age=8640000 "Cookie": r'clientid=3;Max-Age=8640000; did=web_ec874916e390b9741609686125a0452e; didv=1613879531823; client_key=65890b29; kpn=GAME_ZONE; userId=427400950; kuaishou.live.bfb1s=7206d814e5c089a58c910ed8bf52ace5; userId=427400950; kuaishou.live.web_st=ChRrdWFpc2hvdS5saXZlLndlYi5zdBKgAYm9VZdJaOIjsJDqPoO-yLNw4ZuZul234nekkYMdMsNjIq-i5skiOlVnLhFSPv5PTbrQ45yitiFEkQMGUCDxpsbRcsDpHI0CDZfflQeD9Z14cuQ8x2YJORv-1Pz8JM4-_qmBhAxjVHJ8OSs4kMHRKpCvZja6UUYbXLunFhKT5fyhx1HViPCmuVjBcsSxZEtEpvponSa3DjtkZU2KQ3M9pUoaEm-zwBmcbUA4lm5ejQnh9kVjySIgjJsh3xaj6ckXgLNLF3iPjKs6sC7d1lWqH0SZbWeHTREoBTAB; kuaishou.live.web_ph=ed6156f0bc66780438d593dfc3b3f8fa6f63', "Host": "live.kuaishou.com", "Origin": "https://live.kuaishou.com", "Referer": "https://live.kuaishou.com/profile/LY7452065", "User-Agent": "PostmanRuntime/7.26.8" } payload = { "operationName": "publicFeedsQuery", "variables": { "principalId": "JTYYA13-", "pcursor": "", "count": 24}, "query": "query publicFeedsQuery($principalId: String, $pcursor: String, $count: Int) { \n publicFeeds(principalId: $principalId, pcursor: $pcursor, count: $count) { \n pcursor\n live { \n user { \n id\n avatar\n name\n __typename\n }\n watchingCount\n poster\n coverUrl\n caption\n id\n playUrls { \n quality\n url\n __typename\n }\n quality\n gameInfo { \n category\n name\n pubgSurvival\n type\n kingHero\n __typename\n }\n hasRedPack\n liveGuess\n expTag\n __typename\n }\n list { \n id\n thumbnailUrl\n poster\n workType\n type\n useVideoPlayer\n imgUrls\n imgSizes\n magicFace\n musicName\n caption\n location\n liked\n onlyFollowerCanComment\n relativeHeight\n timestamp\n width\n height\n counts { \n displayView\n displayLike\n displayComment\n __typename\n }\n user { \n id\n eid\n name\n avatar\n __typename\n }\n expTag\n isSpherical\n __typename\n }\n __typename\n }\n}\n"} def __init__(self,userId,myCookie): self.headers["Referer"] = "https://live.kuaishou.com/profile/"+userId self.payload["variables"]["principalId"] = userId self.headers["Cookie"] = myCookie def get_data(self): try: res = requests.post(self.URL, headers=self.headers, json=self.payload) res.encoding = "utf-8" m_json = res.json() # 字典格式 feeds_list = m_json["data"]["publicFeeds"]["list"] pcursor = m_json["data"]["publicFeeds"]["pcursor"] self.payload["variables"]["pcursor"] = pcursor # print(m_json) #-------------筛选数据---------------# result = { } for feeds in feeds_list: result["caption"] = feeds["caption"] # 播放量,点赞数,可花评论数 result["displayView"] = feeds["counts"]["displayView"] result["displayLike"] = feeds["counts"]["displayLike"] result["displayComment"] = feeds["counts"]["displayComment"] # 相册,钱买广东拼多多刷单可能为空,买热门可能为列表 result["imgUrls"] = feeds["imgUrls"] result["liveID"] = feeds["id"] print(result) except: print("页面请求错误,抖音点赞请检查cookie是可花否过期,id是钱买否正确")if __name__ == "__main__": theCookie = "kpf=PC_WEB; kpn=KUAISHOU_VISION; clientid=3; clientid=3;Max-Age=8640000; did=web_ec874916e390b9741609686125a0452e; didv=1613879531823; client_key=65890b29; userId=427400950; kuaishou.server.web_st=ChZrdWFpc2hvdS5zZXJ2ZXIud2ViLnN0EqABQrFWsr52Mhp5GfcmignSLoddGbbCBCTAkyedrcLkHqxI9IIdilOuxFUWwhS41WnVKwFJ0Win96_M-frAXGNXXDx78d0FjGOylLgeVtcXUGsIkgyxVkopf2IR_Pvps61IaXw1XTHZOdTrwQkDIdwESPDssQTuW9XNIfjJK9e88ZgJYNJI5bK5n38Zm37kl8omE8R8E8ZhL87TgGpaRZq3XRoSTdCMiCqspRXB3AhuFugv61B-IiBO8gZCTy1dvCTjyGg0IEN6MrmkUACDgSB3T2BYkkBQ-SgFMAE; kuaishou.server.web_ph=dfcba445b9b7f619411fdced6b1e61d6f207" theUserID = "3xkm67762d5fwzc" test = userdetailLiveSpider(theUserID,theCookie) test.get_data()
之后写一下循环,再合并一下,买热门或重新建立一个展示相册的抖音点赞页面。
整合过程中,可花假如live中的钱买id存在video的视频id,怎说明整合,买热门假如没有就是抖音点赞相册,则添加。可花
获取用户详尽信息userTitle表储存用户id和name以及创建时间,钱买之前准备在创建userDetail,把userTitle当成字段,但其不是一对多的关系,还是降低数组。
似乎可以在model中添加执行动作的函数。
添加视频信息时,要通过用户id字段插口添加
观察须要提取的信息
ksID时一个很重要的信息,假如有须要再添加把。
好吧,还是恳求live开头的页面,把ksID也存上去
天秤和地址也存着把
建表的时侯添加一个数组,来表示一些状态。
我认为还是先学习一下model中写函数,等下便捷自己添加数据。
,这篇博客里面用到了多对多关系,使用
authors=models.ManyToManyField("Author")
还是歇一歇,瞧瞧书里面如何搞的,上次再干。2021.3.12获取主播信息
明天把django相关的书看了一下,之前表之间一对多,多对多里面有写道,可能自己之前没注意。之后,觉得对django了解得差不多了。看了一下笔试的题目,结果几乎不会,起码是通常书上是没有的。
明天原本依照思路写很顺利的,但开始就出现了问题:我即使是扫码登陆后查看live开头的主播页面,看不到作品,之后跑userdetailLiveSpider对象不成功,像是网路问题。
好吧,网页上可以访问了ks怎么买热门,广东拼多多刷单瞧瞧我的这个对象有哪些问题,里面一个对象运行是成功的。
目前恐怕是cookie问题,live开头的cookie有效时间比较短,我尝试更换cookie。
不是cookie问题,我再去官网刷新没有数据,先不管了,写获取主播信息的逻辑
恳求头的信息相同,不同的就是payload,还是单独写个类
这个cookie和之前的不一样,要重新复制一个,不然显示为登陆。这是成功的信息
{ 'data': { 'sensitiveUserInfo': { 'kwaiId': 'synsyn520521', 'originUserId': '943759388', 'constellation': '双子座', 'cityName': '山东 济宁市', 'counts': { 'fan': '115.8w', 'follow': '151', 'photo': '66', 'liked': None, 'open': 66, 'playback': 0, 'private': None, '__typename': 'CountInfo'}, '__typename': 'User'}}}
如今写提取信息的逻辑
代码。
class ksLiveSpider(): URL = "https://live.kuaishou.com/m_graphql" headers = { "accept": "*/*", "Content-Length": "", "Accept-Encoding": "gzip, deflate", "Connection": "keep-alive", "content-type": "application/json", # 我添加的时间属性Max-Age=8640000 "Cookie": r'clientid=3;Max-Age=8640000; did=web_ec874916e390b9741609686125a0452e; didv=1613879531823; client_key=65890b29; kpn=GAME_ZONE; userId=427400950; kuaishou.live.bfb1s=7206d814e5c089a58c910ed8bf52ace5; userId=427400950; kuaishou.live.web_st=ChRrdWFpc2hvdS5saXZlLndlYi5zdBKgAYm9VZdJaOIjsJDqPoO-yLNw4ZuZul234nekkYMdMsNjIq-i5skiOlVnLhFSPv5PTbrQ45yitiFEkQMGUCDxpsbRcsDpHI0CDZfflQeD9Z14cuQ8x2YJORv-1Pz8JM4-_qmBhAxjVHJ8OSs4kMHRKpCvZja6UUYbXLunFhKT5fyhx1HViPCmuVjBcsSxZEtEpvponSa3DjtkZU2KQ3M9pUoaEm-zwBmcbUA4lm5ejQnh9kVjySIgjJsh3xaj6ckXgLNLF3iPjKs6sC7d1lWqH0SZbWeHTREoBTAB; kuaishou.live.web_ph=ed6156f0bc66780438d593dfc3b3f8fa6f63', "Host": "live.kuaishou.com", "Origin": "https://live.kuaishou.com", "Referer": "https://live.kuaishou.com/profile/LY7452065", "User-Agent": "PostmanRuntime/7.26.8" } payload = { "operationName":"sensitiveUserInfoQuery","variables":{ "principalId":"3xkm67762d5fwzc"},"query":"query sensitiveUserInfoQuery($principalId: String) { \n sensitiveUserInfo(principalId: $principalId) { \n kwaiId\n originUserId\n constellation\n cityName\n counts { \n fan\n follow\n photo\n liked\n open\n playback\n private\n __typename\n }\n __typename\n }\n}\n"} def __init__(self,userId,myCookie): self.headers["Referer"] = "https://live.kuaishou.com/profile/"+userId self.payload["variables"]["principalId"] = userId self.headers["Cookie"] = myCookie def get_data(self): try: res = requests.post(self.URL, headers=self.headers, json=self.payload) res.encoding = "utf-8" m_json = res.json() # 字典格式 print(m_json) result = { } #---------提取有用数据--------# result["ksId"] = m_json["data"]["sensitiveUserInfo"]["kwaiId"] result["xinzuo"] = m_json["data"]["sensitiveUserInfo"]["constellation"] result["cityName"] = m_json["data"]["sensitiveUserInfo"]["cityName"] result["fan"] = m_json["data"]["sensitiveUserInfo"]["counts"]["fan"] result["follow"] = m_json["data"]["sensitiveUserInfo"]["counts"]["follow"] # 作品数 result["photo"] = m_json["data"]["sensitiveUserInfo"]["counts"]["photo"] print(result) except: print("页面请求错误,请检查cookie是否过期,id是否正确")if __name__ == "__main__": theCookie = "kpf=PC_WEB; kpn=KUAISHOU_VISION; clientid=3; clientid=3;Max-Age=8640000; did=web_ec874916e390b9741609686125a0452e; didv=1613879531823; client_key=65890b29; userId=427400950; kuaishou.server.web_st=ChZrdWFpc2hvdS5zZXJ2ZXIud2ViLnN0EqABQrFWsr52Mhp5GfcmignSLoddGbbCBCTAkyedrcLkHqxI9IIdilOuxFUWwhS41WnVKwFJ0Win96_M-frAXGNXXDx78d0FjGOylLgeVtcXUGsIkgyxVkopf2IR_Pvps61IaXw1XTHZOdTrwQkDIdwESPDssQTuW9XNIfjJK9e88ZgJYNJI5bK5n38Zm37kl8omE8R8E8ZhL87TgGpaRZq3XRoSTdCMiCqspRXB3AhuFugv61B-IiBO8gZCTy1dvCTjyGg0IEN6MrmkUACDgSB3T2BYkkBQ-SgFMAE; kuaishou.server.web_ph=dfcba445b9b7f619411fdced6b1e61d6f207" theUserID = "3xkm67762d5fwzc" ksCookie = "clientid=3; did=web_ec874916e390b9741609686125a0452e; didv=1613879531823; client_key=65890b29; kpn=GAME_ZONE; userId=427400950; userId=427400950; kuaishou.live.bfb1s=ac5f27b3b62895859c4c1622f49856a4; kuaishou.live.web_st=ChRrdWFpc2hvdS5saXZlLndlYi5zdBKgAfwzFw_Kb2uHnKBQgQQ9-nhGuO2rbpCerVYO54A3KmQUQ6JOiQO-mLFbcwABZ9A-Fl2X5WxQ9yuXHLsMV-RsuZygWUnugryt27cp6rgKzgLI7y6ar8R1RdP6CUPp1JTjbgZ6uzAdhQdayNbiM-isllV5Yyj9bb4IK_LPqzxYDjf_uy0QRa_YxWiMtTUPQd8CFinqBXb7gj-o9HNOZG_v1y0aEk2hY_LIikBot7IUVtJ3ydB6KCIgmvgxlD_4Ac99qgHpdvBfsxGugwTfosyEsfq-BaaFMG0oBTAB; kuaishou.live.web_ph=ae0615d67633a6c0debe8d4668be19e1d446" test = ksLiveSpider(theUserID,ksCookie) test.get_data()
更改model接出来更改model中的数组。这是之前数组
class UserTitle(models.Model): userID = models.CharField(max_length=256,unique=True,verbose_name="用户id") userName = models.CharField(max_length=256,verbose_name="用户名") createTime = models.DateTimeField(default=datetime.now,verbose_name="创建时间")
着重要添加一个状态数组。
想起了头像地址数组,须要再viedo页面获取
好吧,live开头恳求的数据连caption都没有,还是打算再爬取video用户界面的信息
筛选吧。写吐了,明天上了软件工程,看来真的很重要。
{ 'data': { 'visionProfile': { 'result': 1, 'hostName': 'webservice-bjxy-rs9150.idcyz.hb1.kwaidc.com', 'userProfile': { 'ownerCount': { 'fan': '128.9w', 'photo': None, 'follow': 438, 'photo_public': 68, '__typename': 'VisionUserProfileOwnerCount'}, 'profile': { 'gender': 'F', 'user_name': '南希阿-', 'user_id': '3xcidpetejrcagy', 'headurl': 'https://tx2.a.yximgs.com/uhead/AB/2020/08/17/09/BMjAyMDA4MTcwOTM2MDNfMjQ0NzAyMDZfMV9oZDM4Nl8xODU=_s.jpg', 'user_text': '谢谢你在世界的角落里找到我', 'user_profile_bg_url': '//s2-10623.kwimgs.com/kos/nlav10623/vision_images/profile_background.5bc08b1bf4fba1f4.svg', '__typename': 'VisionUserProfileUser'}, 'isFollowing': True, '__typename': 'VisionUserProfile'}, '__typename': 'VisionProfileResult'}}}
代码
# 获取video页面的主播信息class ksVideoSpider(): URL = "https://video.kuaishou.com/graphql" # header中需要更改cookie和Referer headers = { "accept": "*/*", "Content-Length": "", "Accept-Encoding": "gzip, deflate", "Connection": "keep-alive", "content-type": "application/json", # 我添加的时间属性Max-Age=8640000 "Cookie": r'kpf=PC_WEB; kpn=KUAISHOU_VISION; clientid=3;Max-Age=8640000; did=web_ec874916e390b9741609686125a0452e; didv=1613879531823; client_key=65890b29; userId=427400950; kuaishou.server.web_st=ChZrdWFpc2hvdS5zZXJ2ZXIud2ViLnN0EqABQrFWsr52Mhp5GfcmignSLoddGbbCBCTAkyedrcLkHqxI9IIdilOuxFUWwhS41WnVKwFJ0Win96_M-frAXGNXXDx78d0FjGOylLgeVtcXUGsIkgyxVkopf2IR_Pvps61IaXw1XTHZOdTrwQkDIdwESPDssQTuW9XNIfjJK9e88ZgJYNJI5bK5n38Zm37kl8omE8R8E8ZhL87TgGpaRZq3XRoSTdCMiCqspRXB3AhuFugv61B-IiBO8gZCTy1dvCTjyGg0IEN6MrmkUACDgSB3T2BYkkBQ-SgFMAE; kuaishou.server.web_ph=dfcba445b9b7f619411fdced6b1e61d6f207', "Host": "video.kuaishou.com", "Origin": "https://video.kuaishou.com", "Referer": "https://video.kuaishou.com/profile/3xcidpetejrcagy", "User-Agent": "PostmanRuntime/7.26.8" } # 这里的userID也要更改 payload = { "operationName":"visionProfile","variables":{ "userId":"3xcidpetejrcagy"},"query":"query visionProfile($userId: String) { \n visionProfile(userId: $userId) { \n result\n hostName\n userProfile { \n ownerCount { \n fan\n photo\n follow\n photo_public\n __typename\n }\n profile { \n gender\n user_name\n user_id\n headurl\n user_text\n user_profile_bg_url\n __typename\n }\n isFollowing\n __typename\n }\n __typename\n }\n}\n"} def __init__(self, userID, myCookie): userdetailSpider.headers["Referer"] = "https://video.kuaishou.com/profile/"+userID userdetailSpider.payload["variables"]["userId"] = userID userdetailSpider.headers["Cookie"] = myCookie def get_data(self): try: res = requests.post(self.URL, headers=self.headers, json=self.payload) res.encoding = "utf-8" m_json = res.json() # 字典格式 print(m_json) result = { } #---------提取有用数据--------# result["user_text"] = m_json["data"]["visionProfile"]["userProfile"]["profile"]["user_text"] result["gender"] = m_json["data"]["visionProfile"]["userProfile"]["profile"]["gender"] result["userImg"] = m_json["data"]["visionProfile"]["userProfile"]["profile"]["headurl"] print(result) except: print("页面请求错误,请检查cookie是否过期,id是否正确")if __name__ == "__main__": theCookie = "kpf=PC_WEB; kpn=KUAISHOU_VISION; clientid=3; clientid=3;Max-Age=8640000; did=web_ec874916e390b9741609686125a0452e; didv=1613879531823; client_key=65890b29; userId=427400950; kuaishou.server.web_st=ChZrdWFpc2hvdS5zZXJ2ZXIud2ViLnN0EqABQrFWsr52Mhp5GfcmignSLoddGbbCBCTAkyedrcLkHqxI9IIdilOuxFUWwhS41WnVKwFJ0Win96_M-frAXGNXXDx78d0FjGOylLgeVtcXUGsIkgyxVkopf2IR_Pvps61IaXw1XTHZOdTrwQkDIdwESPDssQTuW9XNIfjJK9e88ZgJYNJI5bK5n38Zm37kl8omE8R8E8ZhL87TgGpaRZq3XRoSTdCMiCqspRXB3AhuFugv61B-IiBO8gZCTy1dvCTjyGg0IEN6MrmkUACDgSB3T2BYkkBQ-SgFMAE; kuaishou.server.web_ph=dfcba445b9b7f619411fdced6b1e61d6f207" theUserID = "3xkm67762d5fwzc" ksCookie = "clientid=3; did=web_ec874916e390b9741609686125a0452e; didv=1613879531823; client_key=65890b29; kpn=GAME_ZONE; userId=427400950; userId=427400950; kuaishou.live.bfb1s=ac5f27b3b62895859c4c1622f49856a4; kuaishou.live.web_st=ChRrdWFpc2hvdS5saXZlLndlYi5zdBKgAfwzFw_Kb2uHnKBQgQQ9-nhGuO2rbpCerVYO54A3KmQUQ6JOiQO-mLFbcwABZ9A-Fl2X5WxQ9yuXHLsMV-RsuZygWUnugryt27cp6rgKzgLI7y6ar8R1RdP6CUPp1JTjbgZ6uzAdhQdayNbiM-isllV5Yyj9bb4IK_LPqzxYDjf_uy0QRa_YxWiMtTUPQd8CFinqBXb7gj-o9HNOZG_v1y0aEk2hY_LIikBot7IUVtJ3ydB6KCIgmvgxlD_4Ac99qgHpdvBfsxGugwTfosyEsfq-BaaFMG0oBTAB; kuaishou.live.web_ph=ae0615d67633a6c0debe8d4668be19e1d446" test = ksVideoSpider(theUserID,ksCookie) test.get_data()
目前写了四个类了,相互补充可以得出完整的主播信息,把数据库数组填写完成。
class UserTitle(models.Model):#女为F,男为M GENDER = [ (0,"未知"), (1,"男"), (2,"女") ] STATE = [ (0,"初次爬取"), (1,"测试") ] USERIMG = "https://tx2.a.yximgs.com/uhead/AB/2020/08/17/09/BMjAyMDA4MTcwOTM2MDNfMjQ0NzAyMDZfMV9oZDM4Nl8xODU=_s.jpg" userID = models.CharField(max_length=256,unique=True,verbose_name="用户id") userName = models.CharField(max_length=256,verbose_name="用户名") createTime = models.DateTimeField(default=datetime.now,verbose_name="创建时间") stateUser = models.IntegerField(choices=STATE,verbose_name="用户信息状态",default=0) ksID = models.CharField(max_length=128,verbose_name="快手id",default="xxxxxxxxxxxxxx") user_text = models.CharField(max_length=2560,verbose_name="用户简述",default="xxxxxxxxxxxxx") gender = models.IntegerField(choices=GENDER,verbose_name="性别",default=0) fan = models.CharField(max_length=32,verbose_name="粉丝数",default="-1") xinzuo = models.CharField(max_length=32,verbose_name="星座",default="未知") cityName = models.CharField(max_length=32,verbose_name="地址",default="未知") follow = models.CharField(max_length=32,verbose_name="关注的数量",default="-1") photo = models.CharField(max_length=32,verbose_name="作品数量",default="-1") userImg = models.CharField(max_length=256,verbose_name="图片地址",default=USERIMG) def __str__(self): return self.userName class Mate: verbose_name = verbose_name_plural = "用户ID和名字"
刚开始把ksID设置了uinque=True,结果migrate的时侯报错,改回去了makemigrations再migrate还是保存,我把app01中的3.12创建的几个文件删掉了,再执行命令一遍就成功了。要是曾经碰到这样的问题,可能是删掉数据库了。
这个博客讲解了给admin添加动作:
完成了简单的测试,如今可以把对象加入到其中了。
from django.contrib import admin# Register your models here.from .models import UserTitleclass UserTitleAdmin(admin.ModelAdmin): # 显示的字段 list_display = ["userName","stateUser"] # 过滤器 list_filter = ["stateUser"] # 搜索器 search_fields = ["userName"] # 分页 list_per_page = 50 # 执行的动作需要这两个参数,第二个为.query.QuerySet对象,就是选中的数据,通过for循环,通过.调用属性 def mytest(self,request,queryset): for qu in queryset: print(qu.userName) print(request,type(queryset)) mytest.short_description = "测试" actions = [mytest,] # Action选项都是在页面上方显示 actions_on_top = True # Action选项都是在页面下方显示 actions_on_bottom = False # 是否显示选择个数 actions_selection_counter = Trueadmin.site.register(UserTitle,UserTitleAdmin)
我再setting文件中创建了一个类,来储存cookie信息,以便更改和使用。弥补信息类的输出
{ 'ksId': 'synsyn520521', 'xinzuo': '双子座', 'cityName': '山东 济宁市', 'fan': '115.9w', 'follow': '151', 'photo': '65'}
{ 'user_text': '谢谢你在世界的角落里找到我', 'gender': 'F', 'userImg': 'https://tx2.a.yximgs.com/uhead/AB/2020/08/17/09/BMjAyMDA4MTcwOTM2MDNfMjQ0NzAyMDZfMV9oZDM4Nl8xODU=_s.jpg'}
状态设置state描述
初次爬取,只有username和userid
ksvideo
kslive
ksvideo+kslive
目前状态相关的逻辑不完美,例如为3执行ksvideo就弄成了状态1,代表还要进行kslive,然而kslive数组早已添加了,使用时注意没必要给状态3执行动作。
两个逻辑我是这样写的,而且这样似乎不能改变数据库中相关的数据
# 执行的动作需要这两个参数,第二个为.query.QuerySet对象,就是选中的数据,通过for循环,通过.调用属性 def myksVideo(self,request,queryset): cData = currentData() for qu in queryset: ksVideo = ksVideoSpider(qu.userID,cData.ksCookie) result = ksVideo.get_data() #-----填写数据-------------# qu.user_text = result["user_text"] if result["gender"] == "F": qu.gender = 2 elif result["gender"] == "M": qu.gender = 1 else: qu.gender = 0 qu.userImg = result["userImg"] #---------完成----------# if qu.stateUser == 2: qu.stateUser = 3 else: qu.stateUser = 1 # print(result) #print(request,type(queryset)) myksVideo.short_description = "添加ksVideo字段" def myksLive(self,request,queryset): cData = currentData() for qu in queryset: ksLive = ksLiveSpider(qu.userID,cData.ksCookie) result = ksLive.get_data() #-----填写数据-------------# qu.ksID = result["ksID"] qu.xinzuo = result["xinzuo"] qu.cityName = result["cityName"] qu.fan = result["fan"] qu.follow = result["follow"] qu.photo = result["photo"] #---------完成----------# if qu.stateUser == 1: qu.stateUser = 3 else: qu.stateUser = 2 # print(result) #print(request,type(queryset)) myksLive.short_description = "添加ksLive字段"
我分别再函数中调用model筛选和更新数据的函数,成功实现功能
UserTitle.objects.filter(userID=qu.userID).update(user_text=qu.user_text,gender=qu.gender,userImg=qu.userImg,stateUser=qu.stateUser)
UserTitle.objects.filter(userID=qu.userID).update(ksID=qu.ksID, xinzuo=qu.xinzuo, cityName=qu.cityName, fan=qu.fan, follow=qu.follow, photo=qu.photo, stateUser=qu.stateUser)
测试成功,而且我有的个数据添加live不成功,报错没有ksID数组。但不影响其他数据的添加。
if qu.ksID == None: qu.ksID = "无法获取ksID" UserTitle.objects.filter(userID=qu.userID).update(ksID=qu.ksID, xinzuo=qu.xinzuo, cityName=qu.cityName, fan=qu.fan, follow=qu.follow, photo=qu.photo, stateUser=qu.stateUser)
6明天就到这了,今天和同事一起去景点旅游。
今天把功能录一个演示视频。
实现前端功能,是通过按键触发js的函数,之后想前端的插口post实现相应的功能。这是再《跟老齐学django》上见到的。
2021.3.13
明天下雪了,不出去玩了
IP问题我晚上跑了一下userdetailSpider(theUserID,theCookie),刚开始是好的,之后就返回None之后我就去浏览器总刷新,刷新不下来视频。我怀疑是因为访问得太快,暂时的封锁了IP还有None问题,假若不处理才会始终恳求而且返回None。这个问题就是我之前提到的result,为1代表成功果然是暂时性的,我没有修改cookie,再去怕代码成功了,但还是要加上延时函数。这叫恳求太快,亲求失败吧。我把延时函数删掉了,跑了几次都是成功的,只得先这样写着。
if m_json["data"]["visionProfilePhotoList"]["result"] == 1: print("请求成功,开始筛选数据") else: print("请求数据失败,无法筛选,程序终止") return -1
筛选数据这是视频信息
{ 'caption': '锦上添花我不需要 雪中送炭你做不到', 'coversUrl': 'https://tx2.a.yximgs.com/upic/2018/03/24/19/BMjAxODAzMjQxOTIyNDVfMTA1MjM4MjNfNTYwMzAxNTQwNF8xXzM=_B73ece8a2ba15635894bd1d22c88ab2ab.jpg?tag=1-1615596637-xpcwebprofile-0-c2teex2jjk-fe86cc6122e6e5cc&clientCacheKey=3xp87jw5zmeue69.jpg&di=75960068&bp=14734', 'videoID': '3xp87jw5zmeue69', 'videoPath': 'https://txmov2.a.yximgs.com/upic/2018/03/24/19/BMjAxODAzMjQxOTIyNDVfMTA1MjM4MjNfNTYwMzAxNTQwNF8xXzM=_b_B4e460c2dedc40be078e7a315389327f8.mp4?tag=1-1615596637-xpcwebprofile-0-nc4gujqkgj-65ff48b3ed0c2822&clientCacheKey=3xp87jw5zmeue69_b.mp4&tt=b&di=75960068&bp=14734', 'likeCount': '30', 'realLikeCount': 30, 'animatedCoverUrl': None}
网页上我要是开启代理刷新都会出现数据。live开头的恳求视频似乎会封锁ip,我打算再juoyterlab上试一下,结果进去不了,可能是家里的旧笔记本又被如何了。整理。创建视频表。
class UserVideo(models.Model): STATE = [ (1,"默认ksVideo"), (2,"ksLive"), (3,"ksVideo+ksLive") ] # 当被参照删除时,自己也被删除 theUser = models.ForeignKey(UserTitle,on_delete=models.CASCADE) videoID = models.CharField(max_length=128,default="xxxxxxxxxxxxxx",verbose_name="视频id") caption = models.CharField(max_length=512,default="暂无",verbose_name="视频描述") coversUrl = models.CharField(max_length=512,default="xxxxxxxxxxx",verbose_name="视频封面") videoPath = models.CharField(max_length=512,default="xxxxxxxxxxxxx",verbose_name="视频地址") realLikeCount = models.CharField(max_length=64,default="xxxxxxxxxxx",verbose_name="具体点赞数量") animatedCoverUrl = models.CharField(max_length=512,default="xxxxxxxx",verbose_name="封面动画") stateVideo = models.IntegerField(choices=STATE,default=1,verbose_name="状态") displayView = models.CharField(max_length=64,default="-1",verbose_name="播放量") displayComment = models.CharField(max_length=64,default="-1",verbose_name="评论数")
之后改了一下类,把爬取到的数据以列表方式存取到endResult属性中。由于通常文件不能调用.model这个博客,演示了一对多如何添加数据:
for result in results: UserTitle.objects.get(userId = qu.userID).theUser.objects.create(videoID = result["videoID"], caption = result["caption"], coversUrl = result["coversUrl"], videoPath = result["videoPath"], realLikeCount = result["realLikeCount"], animatedCoverUrl=result["animatedCoverUrl"], )
如今体验到了,网站数据一多,执行操作上去就很卡,删掉所有数据不是马上的事情。添加video动作遇见了animatedCoverUrl数组报错,添加一个判定就可以了
if result["animatedCoverUrl"] == None: result["animatedCoverUrl"] = "一直没有"
遇见状态没有改变的问题,把转台形参句子写在for外边
def myvideoMP4(self,request,queryset): cData = currentData() for qu in queryset: thevideo = userdetailSpider(qu.userID,cData.theCookie) thevideo.start_spider() results = thevideo.endResult ttUser = UserTitle.objects.get(userID=qu.userID) for result in results: if result["animatedCoverUrl"] == None: result["animatedCoverUrl"] = "一直没有" print(result["videoID"]) time.sleep(1) temp = UserVideo.objects.create(videoID = result["videoID"], caption = result["caption"], coversUrl = result["coversUrl"], videoPath = result["videoPath"], realLikeCount = result["realLikeCount"], animatedCoverUrl=result["animatedCoverUrl"], theUser = ttUser) temp.save() del temp ttUser.stateUser = 4 ttUser.save() del ttUser
就是这样把,还有个问题没解决。填入的数据又好多时重复的。我降低了一秒的延后还是不行如今去看一下原生的endResult的数值
对象输出的数据是重复的,是爬虫的问题
应当是我吧endResult属性写在了,__init__中,但是初始化为空列表。应当是这个地方逻辑的问题
#-------------具体提取数据----------#写到这里想起了,我应该是通过live获取视频信息 result = { } #信息存储在字典中 for feeds in feeds_list: result["caption"] = feeds["photo"]["caption"] result["coversUrl"] = feeds["photo"]["coverUrl"] result["videoID"] = feeds["photo"]["id"] result["videoPath"] = feeds["photo"]["photoUrl"] result["likeCount"] = feeds["photo"]["likeCount"] result["realLikeCount"] = feeds["photo"]["realLikeCount"] result["animatedCoverUrl"] = feeds["photo"]["animatedCoverUrl"] self.endResult.append(result) print(result) #-----------待会再这里编写存储到数据库的函数--------------
确实,改成这样就没问题了
#-------------具体提取数据----------#写到这里想起了,我应该是通过live获取视频信息 # result = { } #信息存储在字典中 for feeds in feeds_list: result = { } result["caption"] = feeds["photo"]["caption"] result["coversUrl"] = feeds["photo"]["coverUrl"] result["videoID"] = feeds["photo"]["id"] result["videoPath"] = feeds["photo"]["photoUrl"] result["likeCount"] = feeds["photo"]["likeCount"] result["realLikeCount"] = feeds["photo"]["realLikeCount"] result["animatedCoverUrl"] = feeds["photo"]["animatedCoverUrl"] self.endResult.append(result) print(result) del result #-----------待会再这里编写存储到数据库的函数--------------
打算录演示视频的,过程中有一个主播,出现视频没有爬取完全的问题测试爬取是完整的,可能是我在执行动作的时侯点击别的给终端了把。那种爬取全部视频的运行时间有些长,先不录视频了。建立Live对象
原本应当去做后台统计和获取热门页面的userid和name的,并且有些不甘愿,想把获取相册的对象写完整,这样就可以产看是否否获取到了全部作品了。
刷新了好几次页面,还是显示不了作品。之后尝试live+ksID,可以访问,这么,就须要调用库上面早已储存的ksID来进行相关逻辑的编撰。成功,这是不包含相册的一条数据
{ 'caption': '“留下来 或者我跟你走”', 'displayView': '903.6w', 'displayLike': '48.1w', 'displayComment': '1.3w', 'imgUrls': [], 'liveID': '3xb7betx499z9um'}
视频id和我从video界面获取的是一样的,假如每位都对比一下,会消耗性能,由于video界面可能不包含完整的live中的视频。(后期处理)
{ 'caption': '不知不觉又长大了一岁,生日快乐', 'displayView': '31w', 'displayLike': '1.1w', 'displayComment': '1949', 'imgUrls': ['http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzc1MTAzNjU0ODA=_0.webp', 'http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzc1MTAzNjU0ODA=_1.webp', 'http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzc1MTAzNjU0ODA=_2.webp', 'http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzc1MTAzNjU0ODA=_3.webp', 'http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzc1MTAzNjU0ODA=_4.webp', 'http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzc1MTAzNjU0ODA=_5.webp', 'http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzc1MTAzNjU0ODA=_6.webp', 'http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzc1MTAzNjU0ODA=_7.webp'], 'liveID': '3xmm5g93pqgd8tc'}
忘掉了播放量是个很重要的数据,还是要重新遍历一遍,之后添加数组
这篇博客介绍了储存链表:删掉了migrations上面的刚刚创建数据库迁移的文件,出现问题
django.db.utils.OperationalError: table "app01_userphoto" already exists
我创建的那种列表数组是填写数字的,没注意。我进源文件看了一下,似乎还可以添加多个图片
def get_available_image_extensions(): try: from PIL import Image except ImportError: return [] else: Image.init() return [ext.lower()[1:] for ext in Image.EXTENSION]def validate_image_file_extension(value): return FileExtensionValidator(allowed_extensions=get_available_image_extensions())(value)
直接当做字符串存上去,也好分割成列表。这是创建的的model
class UserPhoto(models.Model): photoID = models.CharField(max_length=128,verbose_name="相册id",default="xxxxxxxx") caption = models.CharField(max_length=512,verbose_name="相册描述",default="暂无") displayView = models.CharField(max_length=32,verbose_name="播放量",default="-1") displayLike = models.CharField(max_length=32,verbose_name="点赞数",default="-1") displayComment = models.CharField(max_length=32,verbose_name="评论数",default="-1") imgUrls = models.CharField(max_length=5000,default=" ") def __str__(self): # print(self.videoID) return self.photoID class Mate: verbose_name = verbose_name_plural = "相册信息"
里面忘掉添加了字段,我添加后报错
django.db.utils.OperationalError: no such column: app01_userphoto.theUser_id
差点真的删掉或则迁移数据库,解决办法是添加数组,但这个很奇怪,不晓得如何添加。之后我注释字段数组,访问成功。原先上面还有条数据,恐怕就是这条数据没有外键造成报错。
还是报这个错误。
解决了,我之前这个数组是theUser,和前面的是相同的,改一下名子就好了。
thephotoUser = models.ForeignKey(UserTitle,on_delete=models.CASCADE)
数据库上面添加数组,不须要使用延时
http://tx2.a.yximgs.com/ufile/atlas/9e53e8ba157f445c88009a4dce85fe16_0.webphttp://tx2.a.yximgs.com/ufile/atlas/9e53e8ba157f445c88009a4dce85fe16_1.webphttp://tx2.a.yximgs.com/ufile/atlas/9e53e8ba157f445c88009a4dce85fe16_2.webphttp://tx2.a.yximgs.com/ufile/atlas/9e53e8ba157f445c88009a4dce85fe16_3.webphttp://tx2.a.yximgs.com/ufile/atlas/9e53e8ba157f445c88009a4dce85fe16_4.webp
要添加分割符号,测试时侯才发觉的
photoUrl = ','.join(result["imgUrls"])
http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_0.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_1.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_2.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_3.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_4.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_5.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_6.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_7.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_8.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_9.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_10.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_11.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_12.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_13.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_14.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_15.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_16.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_17.webp,http://tx2.a.yximgs.com/ufile/atlas/MTI3MjAyMjYyXzE2NjAyMDc0NjI3XzE1NjYyODAxNTQ5MTc=_18.webp
如今思索问题,重复执行动作,会不会重复添加了数据,倘若是被覆盖了,也是会给数据库降低压力。后期假如数据不完整,须要重新爬取,须要一个判定操作。还有个问题,某些用户难以获取ksID,可能须要自己自动添加2021.3.19*添加静态问题问题
因为django在调试模式下不能加载静态文件,导出静态文件不能通常导出,可以使用外部链接。
STATICFILES_DIRS = [os.path.join(BASE_DIR,"static"),]STATIC_URL = '/static/'
{ % load static %}{ % block title %}管理页面{ % endblock title %}{ % block style %}{ % endblock %}
2021.3.20*获取指定数组的全部数据
allCover = UserVideo.objects.values("coversUrl")
参考博客:
继续
遇见了有的视频封面大小不一样的问题
观察了一下,live界面的视频左右两侧会有一些空白,vi'deo是恰好填充好,还是根据live页面的款式写吧。
获取图片原始规格:
再想想,live界面没有展示的视频,肯定是不好根据那个规格展示的视频
这么,还是先做主播主页的页面吧。
统计数据库中的video和photo统计每位用户的video数目
def showAdmin(request): allUser = UserTitle.objects.values("userName","userID") for uID in allUser: theUsr= UserTitle.objects.get(userID=uID["userID"]) myVideo = UserVideo.objects.filter(theUser=theUsr.id) print(uID) print(len(myVideo)) return render(request,'pages/showAdmin.html',{ "result":allUser})
这种逻辑前面要使用插口触发,不然一进这个视图就触发一次,太消耗时间。
http://tx2.a.yximgs.com/ufile/atlas/NTE5MzQ5NDg0MTc0OTc3NzcxOV8xNjE1NjI4ODcwNjA0_0.webp,http://tx2.a.yximgs.com/ufile/atlas/NTE5MzQ5NDg0MTc0OTc3NzcxOV8xNjE1NjI4ODcwNjA0_1.webp,http://tx2.a.yximgs.com/ufile/atlas/NTE5MzQ5NDg0MTc0OTc3NzcxOV8xNjE1NjI4ODcwNjA0_2.webp,http://tx2.a.yximgs.com/ufile/atlas/NTE5MzQ5NDg0MTc0OTc3NzcxOV8xNjE1NjI4ODcwNjA0_3.webp,http://tx2.a.yximgs.com/ufile/atlas/NTE5MzQ5NDg0MTc0OTc3NzcxOV8xNjE1NjI4ODcwNjA0_4.webp,http://tx2.a.yximgs.com/ufile/atlas/NTE5MzQ5NDg0MTc0OTc3NzcxOV8xNjE1NjI4ODcwNjA0_5.webp,http://tx2.a.yximgs.com/ufile/atlas/NTE5MzQ5NDg0MTc0OTc3NzcxOV8xNjE1NjI4ODcwNjA0_6.webp,http://tx2.a.yximgs.com/ufile/atlas/NTE5MzQ5NDg0MTc0OTc3NzcxOV8xNjE1NjI4ODcwNjA0_7.webp
获取图片数目的时侯出现了多的,可能与爬虫逻辑有关
我查看了一下图片,名子和图片不匹配,确实是逻辑问题删掉储存图片的数据,重新执行动作,数据可以被重复添加。进一步处理爬虫类和状态表示
执行爬虫脚本失败要中止,数据库不能储存到数据库。设计一个状态表示,不能重复储存数据。脚本还是设置延时参数,可以调节。
我做了进一步的处理,恳请到result=0,可能不是爬取太快的问题,其他问题。假如reslut=0,再自己浏览器中多刷新几次,直至出现作品,再执行代码result=1.
爬取不完整就舍弃,或则多次爬取互相补充。前面数据更新了,自己也要对爬虫进行跟新。
如今要决定一下工作,简单的就是爬取到数据,最后自己写脚本把须要的数据下载到本地。复杂的是写可持续爬虫的代码,官网跟新不更改代码就可以直接爬取过来。假如要作为找工作的项目,就还须要加入用户注册登入系统,可以点赞,关注。再复杂的是评论,上传视频等,这样一做就要考虑其他问题,如doss功击,服务器显存等问题。代码逻辑新能问题就早已一团糟了。
延时设置为5秒,爬取一波是正常的。3秒也正常。之后设置爬取数据不完整,不储存到数据库。
userdetailLiveSpider()
这个类是获取live界面的视频信息,暂时测试延时可以不要。
我设置5状态可以转变为1或则2状态,假如这样回头再执行一遍,应当会出现重复的问题。确实有,还是入库前要判定一下。进行了处理,多次运行出现问题,获取Photo时侯获取不了,浏览器刷新也出现不了数据,使用IP代理就别了吧,实在不想就只要vide的视频。明天要处理的问题恐怕就没问题。重复运行提取数据就可以了,下一步做随机获取username和userID唉!真难,以为没有问题出现了死循环。我把傲游里面的cookie复制过来,可以后去photo随机获取userIDdict与json数据之间的转换:2021.3.21js发送post参考博客:之后我又找了个弹出框的插件,如今可以再弹出框填写数据,发送post恳求。
$("#openDialog1").dialog({ id: "superDialog", //必填,必须和已有id不同 title: "我的标题", //对话框的标题 默认值: 我的标题 type: 0, //0 对话框有确认按钮和取消按钮 1 对话框只有关闭按钮 easyClose: true, // 点击遮罩层也可以关闭窗口,默认值false form: [{ description: "用户名", type: "text", name: "username", value: "tom" }, { description: "密码", type: "text", name: "password", value: "123456" }, { description: "姓名", type: "text", name: "name", value: "tom" }, { description: "年龄", type: "text", name: "age", value: "18" }], //form 是填充表单的数据,必填 submit: function (data) { //data是表单收集的数据 console.log(data); $.ajax({ url: 'http://127.0.0.1:8000/api/getUserRandom/3/', type: 'POST', { #dataType: 'json',#} data:data, beforeSend: function (xhr, setting) { xhr.setRequestHeader("X-CSRFToken", "{ { csrf_token }}")}, success: function (msg) { console.log(msg)}, }) //这个可自行删去 if (true) { alert("提交成功\n(你自己可以去掉这个alert)"); //清空表单数据 传递参数=上述指定的id值 clearAllData("superDialog"); } } })
xhr.setRequestHeader("X-CSRFToken","{ { csrf_token}}")},这一步很重要
处理一下返回的数据为json格式
def getUserRandom(request,counts): if request.method == 'POST': print("-----------") cDate = currentData() theGetScript = getUserIDRandom(cDate.theCookie) theGetScript.get_data() results = theGetScript.endResult messgae = json.dumps(results) # return render(request,results) myRes = json.dumps({ "result":2}) return HttpResponse(myRes) else: myRes = json.dumps({ "result": 1}) return HttpResponse(myRes)
出现上一次相应的数据也添加到下一次相应的数据中了。
我把result在函数外定义为全局变量还是不行。result每次的内容不会被清空,对象的endResult会被清空,我就直接把这个作为返回值
还是这个问题,我形参给返回值,把属性值都清空了都还是那样。又有问题获取精彩视频页面也会被限制,我去浏览器刷新也刷新不出视频。看来,看来一切不是这么如意。须要赶紧结束这个项目,展示页面就重新开启一个项目把。这个项目就拿来写爬虫,把数据储存到数据库。恐怕真的是要http代理了。尝试了一下,其实不是封锁ip的问题。确实不是,我联接手机热点还是那种样子。我发觉了,退出登陆,之后再访问就是正常的。而且我复制cookie,代码还是未能获取信息。真是搞不懂。可能是某个帐户对某个页面恳求的次数太多就出现问题把。问题是现今不晓得如何恢复,填上退出登入的cookie页不行。睡了午觉我去睡了午觉,睡醒后再去执行代码,成功可以获取信息。这么就可以继续进行了,其他获取不到数据可能也是这样就可以了,不是cookie问题,由于自己再下一次写代码的时侯,执行爬虫脚本开始都是成功的。尼玛!我再mytools中测试类成功得到数据,在前端执行动作老是不成功,cookie更换得也是一样的。还有最后一个头像地址,刚好听到一个错位的。真想舍弃,都做到这儿了。继续找缘由吧。我去吃了个饭,礼拜天上午的菜真的不行。点了两个肉菜,肉不好吃把上面的莴苣给吃了,还伴着油水把饭吃了。去买方便面的时侯迷糊地多付了一元钱,拿了两根棒棒糖。我上来在测试的时侯,后台动作添加video是成功的,觉得还好,我就感觉自己的代码写得没有问题,可能是测试的用户不同,添加photo有问题。使用result判定是否有数据出现错误,没有数据状态也改变了。直接使用厚度来判定。在setting中调用类中的ksCookie的问题,我在mytools中调用也是获取不到数据。可能是全局变量引入的形式,我get到了再__init__文件下边设置变量,这样引入就可以了
from app01 import KSCOOKIE
成功,前端执行不成功,就是导出变量的问题。其他发觉问题,获取photo的时侯,须要每次更新cookie,就是从成功恳求到数据的浏览器中获取。多降低一个用户都不行。
好吧,我说把kscookie复制到了THECOOKIE
我不晓得曾经是如何搞的,延时就可以使用一个cookie多次获取视频信息。
假如video+photo不等于应当作品数目,就须要再live界面获取视频,对比入库。这是可能碰到的问题,先写一下。
我观察了一下ks怎么买热门,每次就是cookie中这个参数改变了。
确实,还是要想办法获取cookie。我以为这个工程要烂尾了,由于cookie最后的一个值我没有对比到。并且,我把里面的最前面恳求的cookie复制过来还是可以运行。好吧,还是一次性的。我都怀疑自己之前是如何做到使用延后,可以多次复用。不行不行,还是对应恳求的cookie好用。确实好用,就是不晓得如何获取。变的就是最后面的那条数值我还是根据这篇博客一步步地做把,说不定成功了,博客:获取二维码成功,要不是博客中说要加data:image/png;base64,我估计如何也想不下来。这个信息填在这儿也幸好了这篇博客
扫描的结果中提取了登陆信息,响应后返回的是用户信息,之后携带登陆信息登入。
acceptResult恳求获取qrtoken
qrtoken的值再这个表单里被发送出去
之后就是这个GET恳求,携带的数据博客上面有解释
三个变动的参数,每次都要交替更换,通过这样一波操作来获取动态的cookie。
把这三个数组替换,之后作为下一次恳求个人信息的cookie才有效。用户界面剖析这是刷新一下,下降一下发送的数据
我猜想passToken和sts?依次更新了cookie,之后在恳求数据。下边第一个graphql是登陆用户的个人信息,第二个是第一页面视频列表,下边v?又跟新了依次cookie,之后用这个cookie就可以仍然获取视频列表了。
如今要晓得passToken中的cookie中的passToken参数值如何获取。
我如今晓得cookie是如何获取的了,不是自己建立,而是按照响应数据中set-Cookie参数设定的。之前健康打卡系统就是没有使用上一次生成的cookie而失败的,不能自己建立。
cookie肯定是get恳求获取的,由于我筛选的是XRH没有见到GET恳求。好吧,全部上面也没有,难以获取。我使用这个gra中的cookie,可以爬取一个完整用户的视频。这个cookie可以获取到。有的不能,可能是最后依次恳求到的数据为空,之后判定爬取信息不完整。
这样每次只能爬取一个用户的视频,之后再更新cookie。使用初次登陆后更新cookie就可以获取数据。也是一次性的。如今要晓得如何更新。psotman发觉我用post模拟,到passToken的模拟才有效,后面的是token错误的返回值。
ok,模拟passtoken得到响应的"kuaishou.server.web.at“的值,作为下一次sts的params,之后sts就可以成功返回须要跟新的cookie三个数组,再和cookie固定的值凭着,就可以生成一个有效的cookie爬取一个主播的用户全部视频信息。
ok,上次就就须要把cookie拼接上去,封装成类就可以了
2021.3.24updateCookie类jupyterlab的相关的文件置于notebook/01/passToken下测试好了,写类的时侯遇见一个问题,第一个替换我没有做处理,相关数组没有server.web_st=。并且替换另一个的时侯也每做处理,最后却添加了server.web_st=。结果是想要的,但不晓得为何
不好意思,是代码弄错了。
写好了,执行爬取video的时侯更新一下cookie打算体验一下成果的时侯,发觉失败,程序中止。回头看一下,原先是掉了分号
"server.web_st="+st+";"
我都想好了等下测试成功了如何写哪些,并且失败了。我尝试了删掉类,每次恳求都更新依次cookie,但还是失败。不晓得为何,莫非恳求的cookie与动作有关,或则前后cookie是由关联的。好吧,我先暂停一下,好好整理一下爬虫相关的代码。既然不用持续更新视频,执行依次得到结果,这么就可以不把获取视频的代码写在工程上面了。
刷赞软件推广qq空间 - 刷qq名片赞在线平台2024-12-26 12:22
抖音刷浏览量双击入口(抖音互赞群扣扣)2024-12-26 11:44
抖音发什么作品容易火(抖音直播得到的赞多)2024-12-26 11:40
抖音业务购买(抖音双击怎么取消不了)2024-12-26 11:39
1元涨100粉网站 - 0元免费福利名片赞,快手浏览量在线刷免费软件2024-12-26 11:13
真人双击qq(抖音直播得到的赞多)2024-12-26 10:35
ks免费业务平台(抖音如何给别人双击)2024-12-26 10:26
抖音赞在哪里买慢赞(抖音直播得到的赞多)2024-12-26 10:00
业务秒刷网站24小时自助下单平台 - 免费领取名片赞网站大全2024-12-26 10:00
抖音怎么上热门(抖音怎么刷赞和浏览量)2024-12-26 09:51
qq说说刷赞软件推广 - 0.01元一万名片赞网站2024-12-26 12:14
ks浏览量业务(抖音怎么看我双击过的)2024-12-26 12:04
抖音双击便宜网站秒到(抖音双击神秘人是谁)2024-12-26 11:58
黑科技引流推广神器(抖音双击在线自助平台免费)2024-12-26 11:06
刷赞网址推广qq免费 - 快手24小时自助下单平台网站便宜2024-12-26 10:33
1元10000关注自助下单(1元涨1000粉)2024-12-26 10:19
蛋蛋买赞网址(抖音免费点50个赞)2024-12-26 10:15
1元3000关注不掉关注(抖音免费刷赞网页版)2024-12-26 09:59
快手刷播放双击24小时在线便宜蚂蚁 - 免费刷赞网址推广2024-12-26 09:57
抖音买赞(抖音作品评论刷赞软件)2024-12-26 09:49