ASP源码
分享131个ASP源码,总有一款适合您
下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,
131个ASP源码下载链接:https://pan.baidu.com/s/17vXlBvqeYPM5-XUlu5zaAg?pwd=3zzi
提取码:3zzi
Python采集代码下载链接:https://wwgn.lanzoul.com/iKGwb0kye3wj
看书啦小说网小偷程序 v1.0
雷诺家庭财务管理系统HomeIO v2.1
DaGaoPeng(大高朋网团购程序) v1.0
大高朋(DaGaoPeng)讲评评选系统 v1.0
贝壳企业网站管理系统ShellCMS v1.1.3
ITool在线报名系统 v1.0.1
医院网上预约系统 v1.0
only1店铺收录 v1.0
V_blog v4.0
网盟免费记账软件 v1.0
米号微博 v1.0
烟雨逍遥个人blog系统 v2.1.1
asp图书管理系统DLL v3.0
pk足球直播程序自动更新版 v1.001
财富在线 v1.0
齐齐2011美女图片 v1.0 体验版
白河子图书查询系统 v1.0
百度指定贴吧列表小偷 v1.0
影视资源综合搜索系统AJAX v1.04
毕节热线企业建站系统 v6.0
女性频道内容联盟商业体验版 v4.3.6
邮编和区号查询
蓝子微博系统 v2.0
奕桦网(YiiWa综合版)系统 v2.0.20110224
天缘企业网站系统双语版 v1.0
下单王在线图文下单系统 v3.0
base_url = "https://down.chinaz.com" # 采集的网址
save_path = "D:\\Freedom\\Sprider\\ChinaZ\\"
sprider_count = 131 # 采集数量
sprider_start_count=2436 #正在采集第491页的第12个资源,共499页资源 debug
word_content_list = []
folder_name = ""
page_end_number=0
max_pager=15 #每页的数量
haved_sprider_count =0 # 已经采集的数量
page_count = 1 # 每个栏目开始业务content="text/html; charset=gb2312"
filter_down_file=[]
Tlxxmps分类信息系统 v2.0.20110224
运动会报名源码 v2.0
儿童成长日志网站 v1.0
QQ号码交易网 v1.0
维比网论坛 v2011.2.22_1
贴吧123仿百度贴吧 v3.0 终结版
段富超个人网站完美无错版 v3.0
风渡网上购物系统 v11.220
38搞笑网数据采集程序 v0.1
110家教网 v1.0
县市加关键字生成静态页面程序 v1.0
VkFlash v2.8.1
通用企业网站系统开源程序完整版 v1.0
酷潮旅游网站管理系统 v1.0
jw小工具集合(.net) v1.1.1
封开便民药酒配方查询 v1.0
2011元宵祝福程序 v1.0
誉翔客户管理系统 v1.0
521yy歪歪网络祝福源码 v1.0
asp把中文转换成图片显示 v1.0
封开便民新华字典美化版 v1.0
魅魔MacCMS小游戏程序 v2.0 Build 20110126
liwational个人网站系统 改进版 v1.1
子光工作室HR+OA模块 v3.0
阿赛企业网站系统 AsaiCoE v9
多米屋百度软件小偷 v1.0
Samnest 英文网址导航程序(无后台ASP版) v1.0
迷你导航加搜索版 v1.0
WallCms智能建站 v1.1 内测版
歪歪网络在线wap浏览器 v1.0
怡动FLASH网站管理系统 v2010 build 20110208
好男人博客 v1.0
eims博客系统eimsBlog v2.5
wap军事图库 v1.0
def sprider(self,title_name="NET"):
"""
采集
PHP https://down.chinaz.com/class/572_5_1.htm
NET https://down.chinaz.com/class/572_4_1.htm
ASP https://down.chinaz.com/class/572_3_1.htm
Python https://down.chinaz.com/class/604_572_1.htm
https://down.chinaz.com/class/608_572_1.htm
微信 https://down.chinaz.com/class/610_572_1.htm
Ruby https://down.chinaz.com/class/622_572_1.htm
NodeJs https://down.chinaz.com/class/626_572_1.htm
C https://down.chinaz.com/class/594_572_1.htm
:return:
"""
if title_name == "PHP":
self.folder_name = "PHP源码"
self.second_column_name = "572_5"
elif title_name == "Go":
self.folder_name = "Go源码"
self.second_column_name = "606_572"
elif title_name == "NET":
self.folder_name = "NET源码"
self.second_column_name = "572_4"
elif title_name == "ASP":
self.folder_name = "ASP源码"
self.second_column_name = "572_3"
elif title_name == "Python":
self.folder_name = "Python源码"
self.second_column_name = "604_572"
elif title_name == "JavaScript":
self.folder_name = "JavaScript源码"
self.second_column_name = "602_572"
elif title_name == "Java":
self.folder_name = "Java源码"
self.second_column_name = "572_517"
elif title_name == "HTML":
self.folder_name = "HTML-CSS源码"
self.second_column_name = "608_572"
elif title_name == "TypeScript":
self.folder_name = "TypeScript源码"
self.second_column_name = "772_572"
elif title_name == "微信小程序":
self.folder_name = "微信小程序源码"
self.second_column_name = "610_572"
elif title_name == "Ruby":
self.folder_name = "Ruby源码"
self.second_column_name = "622_572"
elif title_name == "NodeJs":
self.folder_name = "NodeJs源码"
self.second_column_name = "626_572"
elif title_name == "C++":
self.folder_name = "C++源码"
self.second_column_name = "596_572"
elif title_name == "C":
self.folder_name = "C源码"
self.second_column_name = "594_572"
#https://down.chinaz.com/class/594_572_1.htm
first_column_name = title_name # 一级目录
self.sprider_category = title_name # 一级目录
second_folder_name = str(self.sprider_count) + "个" + self.folder_name #二级目录
self.sprider_type =second_folder_name
self.merchant=int(self.sprider_start_count) //int(self.max_pager)+1 #起始页码用于效率采集
self.file_path = self.save_path + os.sep + "Code" + os.sep + first_column_name + os.sep + second_folder_name
self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep + second_folder_name+ os.sep + self.folder_name
BaseFrame().debug("开始采集ChinaZCode"+self.folder_name+"...")
sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
down_path="D:\\Freedom\\Sprider\\ChinaZ\\Code\\"+first_column_name+"\\"+second_folder_name+"\\Temp\\"
if os.path.exists(down_path) is True:
shutil.rmtree(down_path)
if os.path.exists(down_path) is False:
os.makedirs(down_path)
if os.path.exists(self.save_path ) is True:
shutil.rmtree(self.save_path )
if os.path.exists(self.save_path ) is False:
os.makedirs(self.save_path )
chrome_options = webdriver.ChromeOptions()
diy_prefs ={'profile.default_content_settings.popups': 0,
'download.default_directory':'{0}'.format(down_path)}
# 添加路径到selenium配置中
chrome_options.add_experimental_option('prefs', diy_prefs)
chrome_options.add_argument('--headless') #隐藏浏览器
# 实例化chrome浏览器时,关联忽略证书错误
driver = webdriver.Chrome(options=chrome_options)
driver.set_window_size(1280, 800) # 分辨率 1280*800
# driver.get方法将定位在给定的URL的网页,get接受url可以是任何网址,此处以百度为例
driver.get(sprider_url)
# content = driver.page_source
# print(content)
div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容
element_list = div_elem.find_elements(By.CLASS_NAME, 'item')
laster_pager_ul = driver.find_element(By.CLASS_NAME, "el-pager")
laster_pager_li =laster_pager_ul.find_elements(By.CLASS_NAME, 'number')
laster_pager_url = laster_pager_li[len(laster_pager_li) - 1]
page_end_number = int(laster_pager_url.text)
self.page_count=self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(driver,element_list,self.page_count,page_end_number,down_path)
pass
else:
if self.haved_sprider_count == self.sprider_count:
BaseFrame().debug("采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
self.builder_word(self.folder_name, self.word_content_list)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
#(self.base_url + "/sort/{0}/{1}/".format(url_index, self.page_count))
#http://soft.onlinedown.net/sort/177/2/
next_url = self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name, self.page_count)
driver.get(next_url)
div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容
element_list = div_elem.find_elements(By.CLASS_NAME, 'item')
self.sprider_detail( driver, element_list, self.page_count, page_end_number, down_path)
pass
#print(self.page_count)
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
print("sprider()执行过程出现错误:" + str(e))
sleep(1)
欢欢娱乐网 v1.4
谷谷搜图片搜索仿百度 v1.0
吾看自考资讯网 v1.0
wap观音灵签抽签算命 v1.0
搜一次CMS电影程序ASP v5.2 build 0130
百变美女小程序 v1.0
百度搜狐网易新闻采集系统 v1.0
冰菁翎羽flash个人网站 v1.2
页面无刷新显示 v1.0
71516网址导航天气预报查询 v1.1
纳6网短信API接口asp版 v2011
毕节热线企业建站系统 v5.1
冠县二中网 v4.0
远翔企业网站系统 v1.0
私家车广告网 v1.0
食品类网站源码 v2.0
纸箱类网站 v2.0
71516网址导航菜谱大全 v3.0
夜幕下拾荒者个人主页网站管理系统 v1.0
风神新闻管理静态版 v1.7
日晒雨淋原版ASP程序 v1.1
非零坊时尚频道 v3.0
Asp-Microblog v1.0
ASPCMS 开源网站管理系统站群版 v1.0 build 20110121
绵阳珍爱网交友网 v2011
25175 在线小工具 v2.0.4
笑话小偷 v1.0.2
在线教育系统简洁清爽版 v1.1
站长天下网站备案号快速查询系统 v3.5
一个人记账管理系统 v1.0
世界学习室—简易域名查询 v1.5
glcoo博客系统 v1.0
仿凡客商城推广联盟 v1.0
71516网址导航新闻资讯 v3.0
2011新年快乐贺卡 v2.0
因子网上商店系统GShop v2.0 Build 110107
七号在线音乐分享 v4.0
七号在线友情链接 v1.0
七号在线留言本 v1.0
711网络QQ在线咨询插件 v2011.1.5
老谢社区电脑报修系统 v1.0
中国短信商务网短信平台API接口 v1.0
云轩阁小说小偷 v3.1
游你写全站原版清爽asp程序带微博功能 v1.1
聚彩手机网店系统 免费版
大旗网图片小偷程序 v1.0
戏子博客 v1.0
089858微博同步模板(ASP代码) v1.0
6号联盟软件资讯 v1.0
网钛文章管理系统 v1.5 build 20101226
淘宝打听小偷采集程序 v2.2 build 20101228
2011年新年许愿墙小程序 v1.0
必帮地方论坛小偷 v2.0
必帮美女图片小偷 v2.0
def sprider_detail(self, driver,element_list,page_count,max_page,down_path):
"""
采集明细页面
:param driver:
:param element_list:
:param page_count:
:param max_page:
:param down_path:
:return:
"""
index = 0
element_array=[]
element_length=len(element_list)
for element in element_list:
url_A_obj = element.find_element(By.CLASS_NAME, 'name-text')
next_url = url_A_obj.get_attribute("href")
coder_title = url_A_obj.get_attribute("title")
e=coder_title+"$"+ next_url
element_array.append(e)
pass
if int(self.page_count) == int(self.merchant):
self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
index=self.sprider_start_index
while index < element_length:
if os.path.exists(down_path) is False:
os.makedirs(down_path)
if self.haved_sprider_count == self.sprider_count:
BaseFrame().debug("采集到达数量采集停止...")
break
#element = element_list[index]
element=element_array[index]
time.sleep(1)
index = index + 1
sprider_info="正在采集第"+str(page_count)+"页的第"+str(index)+"个资源,共"+str(max_page)+"页资源"
BaseFrame().debug(sprider_info)
next_url=element.split("$")[1]
coder_title=element.split("$")[0]
# next_url = element.find_element(By.TAG_NAME, 'a').get_attribute("href")
# coder_title =element.find_element(By.TAG_NAME, 'img').get_attribute("title")
try:
codeEntity = SpriderEntity() # 下载过的资源不再下载
codeEntity.sprider_base_url = self.base_url
codeEntity.create_datetime = SpriderTools.get_current_datetime()
codeEntity.sprider_url = next_url
codeEntity.sprider_pic_title = coder_title
codeEntity.sprider_pic_index = str(index)
codeEntity.sprider_pager_index = page_count
codeEntity.sprider_type = self.sprider_type
if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
SpriderAccess().save_sprider(codeEntity)
else:
BaseFrame().debug(coder_title+next_url + "数据采集过因此跳过")
continue
driver.get(next_url) # 请求明细页面1
if SeleniumTools.judeg_element_isexist(driver, "CLASS_NAME", "download-item") == 3:
driver.back()
BaseFrame().debug(coder_title+"不存在源码是soft因此跳过哦....")
continue
print("准备点击下载按钮...")
driver.find_element(By.CLASS_NAME, "download-item").click() #下载源码
sleep(1)
result,message=SpriderTools.judge_file_exist(True,240,1,down_path,self.filter_down_file,"zip|rar|gz|tgz")#判断源码
if result is True:
sprider_content = [coder_title, self.save_path + os.sep +"image"+ os.sep + coder_title + ".jpg"] # 采集成功的记录
self.word_content_list.append(sprider_content) # 增加到最终的数组
self.haved_sprider_count = self.haved_sprider_count + 1
BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
time.sleep(1)
driver.back()
coder_title = str(coder_title).replace("::", "").replace("/", "").strip() #去掉windows不识别的字符
files = os.listdir(down_path)
file_name = files[0] # 获取默认值
srcFile = down_path + os.sep + file_name
file_ext = os.path.splitext(srcFile)[-1]
dstFile = down_path + os.sep + coder_title + file_ext
os.rename(srcFile, dstFile)
srcFile = dstFile
dstFile = self.save_path + os.sep + coder_title + file_ext
shutil.move(srcFile, dstFile) # 移动文件
else:
files = os.listdir(down_path) # 读取目录下所有文件
coder_title = str(coder_title).replace("/", "") # 去掉windows不识别的字符
try:
if str(message)=="0个文件认定是False":
BaseFrame().error(coder_title+"文件不存在...")
shutil.rmtree(down_path) # 如果没下载完是无法删除的
pass
else:
BaseFrame().error("检测下载文件出错可能原因是等待时间不够已经超时,再等待60秒...")
time.sleep(60)
shutil.rmtree(down_path) #如果没下载完是无法删除的
#清空数组
self.filter_down_file.clear()
except Exception as e:
# 使用数组append记录文件名字 移动的时候过滤
self.builder_filter_file(files)
pass
except Exception as e:
BaseFrame().error("sprider_detail()执行过程出现错误:" + str(e))
BaseFrame().error("sprider_detail()记录下载的文件名")
# 使用数组append记录文件名字 移动的时候过滤
files = os.listdir(down_path) # 读取目录下所有文件
self.builder_filter_file(files)
if(int(page_count)==int(max_page)):
self.builder_word(self.folder_name,self.word_content_list)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
威购商城系统 v2010 SP2 Build 1225
凌讯企业管理系统 v1.2
天气预报程序 v1.0
百度知道小偷程序 v1.0 测试版
太湖在线地方门户整站系统(修正版) v1.1
行业论坛ASP小偷程序 v1.0
凌讯asp精致留言本 v3.2
翎动客户管理系统CRM v1.0
捷扬文章系统 v1.12.23
ASP分页类 v1.1
远翔博客圣诞版 v12.25
Dosoft CMS v1.0 beta
游戏论坛小偷程序 v1.0 无广告位置版
古道便民信息搜查网整站源码 v1.0
FYPost枫叶贴吧留言管理系统 v2.4 SP1
驻马店天中美食网 v3.0
王尘宇-团购导航 v1.0
import os
# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表
for currentFile in dirs: # 遍历列表
absPath = dirPath + '/' + currentFile
if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件
search_file(absPath, fileName)
elif currentFile == fileName:
print(absPath) # 文件存在,则打印该文件的绝对路径
os.remove(absPath)
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。