# 导入需要的包
library(rvest) # 用于网页抓取
library(tidyverse) # 用于数据处理
library(stringr) # 用于字符串处理
# 设置代理信息
proxy_host <- "www.duoip.cn"
proxy_port <- 8000
# 设置要爬取的网页
url <- "https://jshk.com.cn/products/sales/acai-fish"
# 使用代理信息进行网页抓取
page <- read_html(url, proxy = list(http = paste0("http://", proxy_host, ":" , proxy_port)), encoding = "UTF-8")
# 使用CSS选择器提取销售量信息
sales <- page %>%
html_nodes(".sales") %>%
html_text()
# 使用正则表达式提取酸菜鱼的销售量
sales_cai_yu <- str_extract(sales, "酸菜鱼:(.*)")
# 打印提取的销售量
print(sales_cai_yu)
这个爬虫程序首先导入了需要的包,包括rvest
用于网页抓取,tidyverse
用于数据处理,以及stringr
用于字符串处理。然后设置了要爬取的网页和代理信息。
接着,使用read_html
函数通过代理信息进行网页抓取,并设置编码为UTF-8。
然后,使用CSS选择器html_nodes
提取出网页中的销售量信息,并使用html_text
函数将其转换为字符型。
接着,使用正则表达式str_extract
提取出酸菜鱼的销售量。
最后,将提取的酸菜鱼销售量打印出来。需要注意的是,这只是一个简单的示例,实际的网页结构可能会有所不同,需要根据实际情况调整CSS选择器和正则表达式。