欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品

主頁 > 知識庫 > Python爬蟲之用Xpath獲取關鍵標簽實現自動評論蓋樓抽獎(二)

Python爬蟲之用Xpath獲取關鍵標簽實現自動評論蓋樓抽獎(二)

熱門標簽:南陽打電話機器人 打電話機器人營銷 商家地圖標注海報 海外網吧地圖標注注冊 ai電銷機器人的優勢 聊城語音外呼系統 地圖標注自己和別人標注區別 孝感營銷電話機器人效果怎么樣 騰訊地圖標注沒法顯示

一、分析鏈接

上一篇文章指路

一般來說,我們參加某個網站的蓋樓抽獎活動,并不是僅僅只參加一個,而是多個蓋樓活動一起參加。

這個時候,我們就需要分析評論的鏈接是怎么區分不同帖子進行評論的,如上篇的刷帖鏈接,具體格式如下:

https://club.hihonor.com/cn/forum.php?mod=postaction=replyfid=154tid=21089001extra=page%3D1replysubmit=yesinfloat=yeshandlekey=fastpostinajax=1

這里面用于區分不同帖子的鍵是tid,不妨大家可以會看上一篇博文評論帖子的鏈接,是不是同樣有一個21089001的數字。

而經過博主的測試,該網站評論post請求網址除了tid之外,其他數據是一模一樣的并不需要變更。所以,我們切換新帖子評論時,只需要替換tid的值就行。

二、切分提取tid

讀者可以自行隨便打開一個該網站的帖子,我們一般會得到如下形式的字符串帖子鏈接:

https://club.hihonor.com/cn/thread-26194745-1-1.html

這里,我們需要應用字符串切割知識,來獲取鏈接字符串種的長數字字符串26194745。具體代碼如下:

import re
# 獲取需要評論的所有網頁鏈接
url_start = "https://club.hihonor.com/cn/forum.php?mod=postaction=replyfid=4515tid="
url_end = "extra=page%3D1replysubmit=yesinfloat=yeshandlekey=fastpostinajax=1"

url = []  # 評論網頁
txt_url = []  # 提供的網頁(格式不同)
f = open("隨機帖子.txt", "r", encoding='utf-8')
line = f.readline()  # 讀取第一行
while line:
    if re.match(r'http[s]?://(?:[a-zA-Z]|[0-9]|[$-_@.+]|[!*\(\),]|(?:%[0-9a-fA-F][0-9a-fA-F]))+', line):
        txt_url.append(line.strip())  # 列表增加
    line = f.readline()  # 讀取下一行

datas = []
headers = []

for i in txt_url:
    url_start = "https://club.hihonor.com/cn/forum.php?mod=postaction=replyfid=4515tid="
    url_end = "extra=page%3D1replysubmit=yesinfloat=yeshandlekey=fastpostinajax=1"
    url.append(url_start + i.split("-")[1] + url_end)

這里,博主將一大堆需要評論的鏈接全部放到文本文件之中,然后通過讀取文件獲取每一行鏈接數據(其中用正則表達式判斷鏈接是否合法)。

在通過遍歷鏈接切分獲取帖子標識數字字符串,最后進行拼接獲取到真正的post評論鏈接。

三、隨機提取評論的內容

在眾多的網站蓋樓活動中,官方網站一般都會檢測是否有內容重復,一般同一個賬號多次評論重復的內容,肯定會被禁止評論一段時間。

所以,我們需要將評論的內容多樣化,比如說這個網站要我們稱贊手機性能進行蓋樓抽獎,那么我們就需要備用一些評論文字,方便程序隨機獲取。

具體文字放置在txt文件中,我們通過下面的代碼進行讀取:

# 獲取需要評論的文本內容
txt_contents = []
f = open("回帖文案.txt", "r", encoding='utf-8')
line = f.readline()  # 讀取第一行
while line:
    if line.strip() != "":
        txt_contents.append(line.strip())  # 列表增加
    line = f.readline()  # 讀取下一行
print(txt_contents)
count = len(txt_contents)

假如,我們是需要參加游戲論壇的蓋樓評論活動,那么就可以用下面的文本進行隨機提取評論,樣本越多,重復性越少。

四、蓋樓刷抽獎

一般來說,這種經常有活動的網站都是需要驗證登錄的。而各個網站的驗證碼算法都不相同,怎么自動登錄賬號,往往就非常關鍵了。

對于識別驗證碼,我們要么用百度,騰訊,阿里云提供的文字識別接口,但是博主試過了都無法保證百分百識別成功,而且最高識別準備率都不到50%。

如果需要自己寫機器學習識別算法,那么學過機器學習的都應該知道,這個是需要龐大的標記的,哪怕你真的做出來,恐怕人家網站又會換了驗證方式。

這種驗證碼與防驗證碼一直在進步,花費大量實現標注驗證碼這些內容,往往會浪費大量的時間,到最后人家可能又換了。

所以,博主的建議還是自己手動輸入驗證碼,也就這一步輸入驗證碼手動,其他的全自動。完整代碼如下:

import random
import time
from selenium import webdriver
import requests
import re

# 獲取需要評論的文本內容
txt_contents = []
f = open("回帖文案.txt", "r", encoding='utf-8')
line = f.readline()  # 讀取第一行
while line:
    if line.strip() != "":
        txt_contents.append(line.strip())  # 列表增加
    line = f.readline()  # 讀取下一行
print(txt_contents)
count = len(txt_contents)


# 獲取需要評論的所有網頁鏈接
url_start = "https://club.hihonor.com/cn/forum.php?mod=postaction=replyfid=4515tid="
url_end = "extra=page%3D1replysubmit=yesinfloat=yeshandlekey=fastpostinajax=1"

url = []  # 評論網頁
txt_url = []  # 提供的網頁(格式不同)
f = open("隨機帖子.txt", "r", encoding='utf-8')
line = f.readline()  # 讀取第一行
while line:
    if re.match(r'http[s]?://(?:[a-zA-Z]|[0-9]|[$-_@.+]|[!*\(\),]|(?:%[0-9a-fA-F][0-9a-fA-F]))+', line):
        txt_url.append(line.strip())  # 列表增加
    line = f.readline()  # 讀取下一行

datas = []
headers = []

for i in txt_url:
    url_start = "https://club.hihonor.com/cn/forum.php?mod=postaction=replyfid=4515tid="
    url_end = "extra=page%3D1replysubmit=yesinfloat=yeshandlekey=fastpostinajax=1"
    url.append(url_start + i.split("-")[1] + url_end)

# 獲取賬號
usernames = []
f = open("賬號.txt", "r", encoding='utf-8')
line = f.readline()  # 讀取第一行
while line:
    usernames.append(line.strip())  # 列表增加
    line = f.readline()  # 讀取下一行

for name in usernames:
    browser = webdriver.Chrome()
    browser.implicitly_wait(10)
    browser.get("https://club.hihonor.com/cn/")
    time.sleep(5)
    login_text = browser.find_element_by_xpath("http://*[@id='loginandreg']/a[1]")
    login_text.click()
    username = browser.find_element_by_xpath(
'/html/body/div[1]/div[2]/div/div/div[1]/div[3]/span/div[1]/span/div[2]/div[2]/div/input')
    password = browser.find_element_by_xpath(
'/html/body/div[1]/div[2]/div/div/div[1]/div[3]/span/div[1]/span/div[3]/div/div/div/input')
    username.send_keys(name)
    password.send_keys("密碼")#所有蓋樓刷評論賬號密碼盡量統一,這樣就可以只在txt每行輸入賬號即可
    sign = browser.find_element_by_xpath(
'/html/body/div[1]/div[2]/div/div/div[1]/div[3]/span/div[1]/span/div[6]/div/div/span/span')
#等待10秒,讓程序運行者輸入驗證碼
    time.sleep(10)
    sign.click()
    time.sleep(2)
    cookie = [item["name"] + "=" + item["value"] for item in browser.get_cookies()]
    cookiestr = ';'.join(item for item in cookie)
    url2 = "https://club.hihonor.com/cn/thread-26183971-1-1.html"
    time.sleep(2)
    browser.get(url2)
    posttime = browser.find_element_by_id("posttime")
    posttime = posttime.get_attribute("value")
    formhash = browser.find_element_by_name("formhash")
    formhash = formhash.get_attribute("value")
    browser.close()
    data = {
        "formhash": formhash,
        "posttime": posttime,
        "usesig": "1",
        "message": txt_contents[0],
    }
    header = {
        "accept": "application/json, text/javascript, */*; q=0.01",
        "Accept-Encoding": "gzip, deflate, br",
        "Accept-Language": "zh-CN,zh;q=0.9",
        "Content-Length": "146",
        "sec-ch-ua": '"Google Chrome";v="87", "\"Not;A\\Brand";v="99", "Chromium";v="87"',
        "User-Agent": "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Mobile Safari/537.36",
        "Cookie": cookiestr,
        "Content-Type": "application/x-www-form-urlencoded; charset=UTF-8",
        "X-Requested-With": "XMLHttpRequest",
    }
    datas.append(data)
    headers.append(header)

while True:
    z = 0
    if int(time.strftime("%H%M%S")) = 220000:
        url_num = random.sample(range(0, len(url)), len(url))
        for i in url_num:
            j = 1
            for data, header in zip(datas, headers):
                data['message'] = txt_contents[random.randint(0, count - 1)]
                res = requests.post(url=url[i], data=data, headers=header)
                if '回復發布成功' in res.text:
                    print("賬號{0}回復成功".format(j))
                else:
                    print(res.text)
                j += 1
                z += 1
            time.sleep(5)
            print("已經評論{0}條".format(str(z)))

如上面代碼所示,我們的賬號也是用txt文件統一處理的,這樣可以達到多個賬號同時刷的目的,當然一般網站獲獎都不能是同一個IP,這里讀者可以通過代理來處理。

其實登錄后,隨便一個帖子都有posttime與formhash兩個值,只要你隨機打開一個帖子(url2)就可以通過爬蟲知識獲取。

到此這篇關于Python爬蟲之用Xpath獲取關鍵標簽實現自動評論蓋樓抽獎(二)的文章就介紹到這了,更多相關Python實現自動蓋樓抽獎內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python數據XPath使用案例詳解
  • python網絡爬蟲精解之XPath的使用說明
  • python動態網站爬蟲實戰(requests+xpath+demjson+redis)
  • python使用xpath獲取頁面元素的使用
  • Python爬蟲必備之XPath解析庫
  • python數據解析之XPath詳解

標簽:揚州 聊城 六盤水 撫州 迪慶 南寧 楊凌 牡丹江

巨人網絡通訊聲明:本文標題《Python爬蟲之用Xpath獲取關鍵標簽實現自動評論蓋樓抽獎(二)》,本文關鍵詞  Python,爬蟲,之用,Xpath,獲取,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python爬蟲之用Xpath獲取關鍵標簽實現自動評論蓋樓抽獎(二)》相關的同類信息!
  • 本頁收集關于Python爬蟲之用Xpath獲取關鍵標簽實現自動評論蓋樓抽獎(二)的相關信息資訊供網民參考!
  • 推薦文章
    欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品
  • <rt id="w000q"><acronym id="w000q"></acronym></rt>
  • <abbr id="w000q"></abbr>
    <rt id="w000q"></rt>
    欧美猛男超大videosgay| 亚洲视频每日更新| 日产精品久久久久久久性色| 成人av资源在线| 人人艹在线视频| 99re在线精品| 欧美三级日本三级| 1024国产精品| 91麻豆精东视频| 欧美色男人天堂| 亚洲一区av在线| 精品国产乱码久久久久夜深人妻| 欧美午夜片在线观看| 亚洲精品高清在线观看| 国模大尺度视频| 欧美精品日日鲁夜夜添| 亚洲444eee在线观看| 影音先锋人妻啪啪av资源网站| 欧美日韩一级视频| 亚洲bdsm女犯bdsm网站| 狠狠人妻久久久久久综合蜜桃| 欧美一级二级三级乱码| 人妖欧美一区二区| 欧美成人另类视频| 中文字幕免费一区| 99精品视频一区| 欧美日高清视频| 日韩 欧美一区二区三区| 影音先锋男人在线| 国产欧美精品区一区二区三区 | 亚洲波多野结衣| 国产精品久久久久久久久快鸭| av影院午夜一区| 欧美丝袜丝交足nylons| 天堂在线一区二区| 久久久久亚洲av无码a片| 国产欧美一区二区精品忘忧草| 成人av在线一区二区三区| 在线视频亚洲一区| 日本午夜精品视频在线观看 | 久久精品视频免费在线观看| 国产精品乱码久久久久久| 99v久久综合狠狠综合久久| 欧美片在线播放| 极品尤物av久久免费看| 91成人福利视频| 亚洲第一会所有码转帖| 黑人巨大精品欧美| 国产精品三级久久久久三级| 国产成人av免费观看| 欧美成人国产一区二区| 国产高清不卡二三区| 欧美性videosxxxxx| 人人狠狠综合久久亚洲| 三级影片在线观看| 亚洲国产中文字幕| www在线观看免费视频| 国产精品网站在线观看| 宇都宫紫苑在线播放| 欧美电影免费观看高清完整版在| 国产成人h网站| 精品视频资源站| 国产中文一区二区三区| 91久久精品国产91性色tv| 日本中文一区二区三区| 黄色a级片在线观看| 日日摸夜夜添夜夜添精品视频| 看黄色录像一级片| 视频一区二区中文字幕| 国产免费久久久久| 日韩高清一级片| 99精品久久久久| 美美哒免费高清在线观看视频一区二区| 亚洲一区电影在线观看| 天天综合色天天综合色h| 亚洲AV成人无码精电影在线| 午夜亚洲福利老司机| 黑鬼狂亚洲人videos| 日本欧美在线观看| 色94色欧美sute亚洲线路二| 久久电影网站中文字幕| 欧美日韩精品专区| 国产·精品毛片| 精品蜜桃在线看| 免费黄色在线播放| 国产精品久久久久久久久晋中 | 91精品中文字幕一区二区三区| 国产福利一区二区三区| 91麻豆精品国产无毒不卡在线观看| 福利视频网站一区二区三区| 99re这里都是精品| 久久精品视频网| 国产ts丝袜人妖系列视频| 亚洲美女区一区| 国产又粗又长又黄的视频| 日产欧产美韩系列久久99| 欧洲一区在线电影| 成人一区二区视频| 国产人伦精品一区二区| 久久av无码精品人妻系列试探| 亚洲一区二区三区中文字幕| avove在线播放| 国产伦精品一区二区三区免费 | 欧美在线啊v一区| 国产白丝网站精品污在线入口| 精品国产伦一区二区三区观看体验| 最新日本中文字幕| 一区二区欧美在线观看| 一本色道a无线码一区v| 国产福利视频一区二区三区| 久久久www免费人成精品| 色婷婷av777| 日本女优在线视频一区二区| 欧美欧美欧美欧美首页| 女教师高潮黄又色视频| 一区二区三区欧美| 在线观看91精品国产入口| 91天堂素人约啪| 亚洲欧美日韩一区二区三区在线观看 | 亚洲人成亚洲人成在线观看图片| 刘亦菲国产毛片bd| 国产一区二区不卡在线| 久久伊人中文字幕| 女人十八毛片嫩草av| 国模套图日韩精品一区二区 | 蜜桃av一区二区三区电影| 日韩欧美中文字幕公布| 久久一区二区电影| 日韩中文字幕1| 日韩欧美激情四射| 亚洲精品国产91| 国产一区二区调教| 国产人成一区二区三区影院| 国产麻豆a毛片| 成人激情免费视频| 亚洲男女毛片无遮挡| 欧美性大战久久久久久久 | 国产精品欧美一级免费| 51精品免费网站| 不卡视频在线看| 亚洲理论在线观看| 欧美吻胸吃奶大尺度电影| 一区二区三区四区影院| 亚洲电影一级片| 日韩一级片网站| 日韩一区二区a片免费观看| 国产一区二区在线免费观看| 久久精品欧美一区二区三区不卡| 免费看特级毛片| 99re6这里只有精品视频在线观看 99re8在线精品视频免费播放 | 久久久久久电影| 青椒成人免费视频| 久久综合色鬼综合色| 欧美一级特黄高清视频| 99久久精品国产一区二区三区 | 香蕉视频污视频| 日本免费新一区视频| 久久嫩草精品久久久精品一| 永久免费看mv网站入口| 91丨porny丨蝌蚪视频| 亚洲成人激情综合网| 欧美精品一区二区三区一线天视频| 懂色av粉嫩av浪潮av| av亚洲精华国产精华精| 亚洲电影视频在线| 久久久久久久久久久电影| 色综合久久久久久久| www.555国产精品免费| 毛片av一区二区| 亚洲欧洲日韩av| 制服丝袜中文字幕一区| 欧美福利第一页| 91麻豆免费在线观看| 日韩电影在线一区| 国产精品伦一区二区三级视频| 欧美色国产精品| 欧美成人国产精品一区二区| 99久久国产综合精品麻豆| 日韩中文字幕亚洲一区二区va在线| 久久久久久久久久久电影| 色八戒一区二区三区| 蜜桃精品一区二区| 成人av动漫网站| 奇米色777欧美一区二区| 国产精品嫩草影院av蜜臀| 欧美日韩黄视频| 青青青视频在线免费观看| 亚洲精品乱码久久久久久9色| 精品一区二区影视| 亚洲与欧洲av电影| 久久人人爽爽爽人久久久| 欧美视频一区二区| 国产18无套直看片| 影音先锋资源av| 粉嫩av一区二区三区粉嫩| 男女激情视频一区| 亚洲色图.com| 26uuu久久天堂性欧美| 欧美四级电影网| 日本精品在线免费观看|