ASP源码
分享132个ASP源码,总有一款适合您
下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,
132个ASP源码下载链接:https://pan.baidu.com/s/1bk2hftqR5NTdUIT2zvmbiw?pwd=ke5x
提取码:ke5x
Python采集代码下载链接:https://wwgn.lanzoul.com/iKGwb0kye3wj
阿赛树形论坛系统 v4
爱情花园情侣博客 v4.03
日历城市选择控件 v1.0
JackBlog v12.10
东北师大附中网校报名系统(报名处版) v1.0
2011年最新ASP站长助手 v1.0
汪水鱼片就业信息发布系统 v1.0
QVODCMS点播专家 v3.0
百优客信息发布系统 v3.0
品络企业网站系统 v1.0
商易域名交易管理系统 v1.0
起飞文章管理系统 v3.3
星浪网络域名虚拟主机分销管理系统 v4.0
QQ表情程序 v1.0
蓝海SEO网站优化系统 v1.0
网趣网站管理系统 v1.2
旅行社网站源码(Html生成) v1.0
TLCMS 小说小偷P1 v1.2
东北师大附中网校在线报名系统 v1.0
本地宝团购导航网站 v1.2
验证通2010示例 net版 v3.0
验证通2010示例 java版 v3.0
验证通2010示例 asp版 v3.0
搜索动力2010(asp+access) v4.Final (纪念版)
点创IP地址查询工具(Access版) build 101201
域名备案号批量查询 1.0
点创IP地址查询工具(MSsql版) build 101201
73站长查询工具 v1.0
炫客无刷新聊天室 v1.1
import os
# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表
for currentFile in dirs: # 遍历列表
absPath = dirPath + '/' + currentFile
if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件
search_file(absPath, fileName)
elif currentFile == fileName:
print(absPath) # 文件存在,则打印该文件的绝对路径
os.remove(absPath)
MP3听歌房 v1.0
酷睿股票私募网站管理系统 v2011
10234精品网址导航程序 [生成html] v2010
35分类目录管理系统 v1.0
站长俱乐部新闻发布系统精简版 v1.01
6号联盟小说小偷 v2.1 build 20101125
科亚思少数民族软件下载小偷 v1.0
零度在线影院 精简版
Favzone旅游查询系统 v1.0
齐齐性感美女专题图库 v1.0 体验版
高等学校后勤管理系统CCCMS v1.0
点击链接保存图片等文件 v1.0
089858个人微博(单用户) build 20101118
捌柒兔子个人网站博客系统 测试版
淘宝论坛小偷程序伪静态 v1.0 build 20101118
淘宝帮派小偷程序 v1.0 build 20101118
ACTCMS网站管理系统 v3.0 build 20100412 GBK精简版
ACTCMS网站管理系统 v3.0 build 20100412 UTF8精简版
企成企业网站管理系统 v2.0 (中英文版)
网钛公农历互转类PHP版 v1.0
网钛公农历互转类ASP版 v2.1
安科智能建站单用户系统 v1.0
中国友情链接网历史上的今天美化版 v1.0
域名Pr值批量查询系统 v1.0
淘宝28街整站源码 v1.0 优化版
71516网址导航天气预报系统 v2.1
歪歪521yy历史上的今天 v2.0
12星座每日运程查询工具 v2.2
内网资源搜索引擎 v1.0
fblogs新闻系统 v2.6
ok3w文章系统找回密码补丁 v1.2
天气预报源码 v4
帮三帮四建站系统B3B4CMS v1.0
网站蜘蛛爬行统计系统 v1.5
base_url = "https://down.chinaz.com" # 采集的网址
save_path = "D:\\Freedom\\Sprider\\ChinaZ\\"
sprider_count = 132 # 采集数量
sprider_start_count=2578 #正在采集第491页的第12个资源,共499页资源 debug
word_content_list = []
folder_name = ""
page_end_number=0
max_pager=15 #每页的数量
haved_sprider_count =0 # 已经采集的数量
page_count = 1 # 每个栏目开始业务content="text/html; charset=gb2312"
filter_down_file=[]
def __init__(self):
pass
def sprider(self,title_name="NET"):
"""
采集
PHP https://down.chinaz.com/class/572_5_1.htm
NET https://down.chinaz.com/class/572_4_1.htm
ASP https://down.chinaz.com/class/572_3_1.htm
Python https://down.chinaz.com/class/604_572_1.htm
https://down.chinaz.com/class/608_572_1.htm
微信 https://down.chinaz.com/class/610_572_1.htm
Ruby https://down.chinaz.com/class/622_572_1.htm
NodeJs https://down.chinaz.com/class/626_572_1.htm
C https://down.chinaz.com/class/594_572_1.htm
:return:
"""
if title_name == "PHP":
self.folder_name = "PHP源码"
self.second_column_name = "572_5"
elif title_name == "Go":
self.folder_name = "Go源码"
self.second_column_name = "606_572"
elif title_name == "NET":
self.folder_name = "NET源码"
self.second_column_name = "572_4"
elif title_name == "ASP":
self.folder_name = "ASP源码"
self.second_column_name = "572_3"
elif title_name == "Python":
self.folder_name = "Python源码"
self.second_column_name = "604_572"
elif title_name == "JavaScript":
self.folder_name = "JavaScript源码"
self.second_column_name = "602_572"
elif title_name == "Java":
self.folder_name = "Java源码"
self.second_column_name = "572_517"
elif title_name == "HTML":
self.folder_name = "HTML-CSS源码"
self.second_column_name = "608_572"
elif title_name == "TypeScript":
self.folder_name = "TypeScript源码"
self.second_column_name = "772_572"
elif title_name == "微信小程序":
self.folder_name = "微信小程序源码"
self.second_column_name = "610_572"
elif title_name == "Ruby":
self.folder_name = "Ruby源码"
self.second_column_name = "622_572"
elif title_name == "NodeJs":
self.folder_name = "NodeJs源码"
self.second_column_name = "626_572"
elif title_name == "C++":
self.folder_name = "C++源码"
self.second_column_name = "596_572"
elif title_name == "C":
self.folder_name = "C源码"
self.second_column_name = "594_572"
#https://down.chinaz.com/class/594_572_1.htm
first_column_name = title_name # 一级目录
self.sprider_category = title_name # 一级目录
second_folder_name = str(self.sprider_count) + "个" + self.folder_name #二级目录
self.sprider_type =second_folder_name
self.merchant=int(self.sprider_start_count) //int(self.max_pager)+1 #起始页码用于效率采集
self.file_path = self.save_path + os.sep + "Code" + os.sep + first_column_name + os.sep + second_folder_name
self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep + second_folder_name+ os.sep + self.folder_name
BaseFrame().debug("开始采集ChinaZCode"+self.folder_name+"...")
sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
down_path="D:\\Freedom\\Sprider\\ChinaZ\\Code\\"+first_column_name+"\\"+second_folder_name+"\\Temp\\"
if os.path.exists(down_path) is True:
shutil.rmtree(down_path)
if os.path.exists(down_path) is False:
os.makedirs(down_path)
if os.path.exists(self.save_path ) is True:
shutil.rmtree(self.save_path )
if os.path.exists(self.save_path ) is False:
os.makedirs(self.save_path )
chrome_options = webdriver.ChromeOptions()
diy_prefs ={'profile.default_content_settings.popups': 0,
'download.default_directory':'{0}'.format(down_path)}
# 添加路径到selenium配置中
chrome_options.add_experimental_option('prefs', diy_prefs)
chrome_options.add_argument('--headless') #隐藏浏览器
# 实例化chrome浏览器时,关联忽略证书错误
driver = webdriver.Chrome(options=chrome_options)
driver.set_window_size(1280, 800) # 分辨率 1280*800
# driver.get方法将定位在给定的URL的网页,get接受url可以是任何网址,此处以百度为例
driver.get(sprider_url)
# content = driver.page_source
# print(content)
div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容
element_list = div_elem.find_elements(By.CLASS_NAME, 'item')
laster_pager_ul = driver.find_element(By.CLASS_NAME, "el-pager")
laster_pager_li =laster_pager_ul.find_elements(By.CLASS_NAME, 'number')
laster_pager_url = laster_pager_li[len(laster_pager_li) - 1]
page_end_number = int(laster_pager_url.text)
self.page_count=self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(driver,element_list,self.page_count,page_end_number,down_path)
pass
else:
if self.haved_sprider_count == self.sprider_count:
BaseFrame().debug("采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
self.builder_word(self.folder_name, self.word_content_list)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
#(self.base_url + "/sort/{0}/{1}/".format(url_index, self.page_count))
#http://soft.onlinedown.net/sort/177/2/
next_url = self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name, self.page_count)
driver.get(next_url)
div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容
element_list = div_elem.find_elements(By.CLASS_NAME, 'item')
self.sprider_detail( driver, element_list, self.page_count, page_end_number, down_path)
pass
#print(self.page_count)
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
print("sprider()执行过程出现错误:" + str(e))
sleep(1)
墨龙网络文章管理系统 v1.1
《安财学报》在线投稿和稿件处理系统
谷才人才招聘系统 v1.0.101023
融智OA办公系统(FREEOA) v2.1
社区上门医疗服务系统源码
飘扬企业网站管理系统免费完整版 v1.0
js10单文件论坛 v1.0
云枫工作室企业网站源码(asp无限制版) v3.0
豹王电影小偷程序第三频道后台管理 v2.1
豹王动漫小偷程序后台管理 v2.1
域名beian号查询(asp版) v1.0
铜城信息门户网 v8.0
企业管理系统(企业内部版) v2008032423
子光工作室HR+OA模块 v2
漂亮实业公司企业网站源码
中小型企业网站后台管理系统源码
qq robot机器人 v1.1
同学录管理系统 v1.0
随缘企业网站管理系统 (无限级分类红色版)
网址收藏夹我的导航源码 v1.0
微尔企业网站管理系统动态智能版 v1.1 build 101029
机缘分类信息系统 v1.0
71516网址导航友情链接系统 2010
唯美高清网络电视源码 V1.0
山寨广告招贴网 v3.6
淘宝客API2.0 v1.0
全能学校网站管理系统 v2.0
wap网页模拟器 v1.0
阿磊文章管理系统 v1.01
爱宝支付平台源码(仿花旗源码) v1.0
翎动物流系统 v1.0
今日星座运势查询 v1.0
百灵漫画 v4.3
齐齐性感美女图片 v1.0
ZL在线刷PV v1.2
机票网站整站程序 v1.0
动扑网站管理系统 v2.0
耐品留言本 v20100906
耐品图库系统-专业版acc v20100906
耐品图库系统-专业版sql v20100906
耐品建站系统-摄影版sql v20100906
耐品建站系统-摄影版acc v20100906
def sprider_detail(self, driver,element_list,page_count,max_page,down_path):
"""
采集明细页面
:param driver:
:param element_list:
:param page_count:
:param max_page:
:param down_path:
:return:
"""
index = 0
element_array=[]
element_length=len(element_list)
for element in element_list:
url_A_obj = element.find_element(By.CLASS_NAME, 'name-text')
next_url = url_A_obj.get_attribute("href")
coder_title = url_A_obj.get_attribute("title")
e=coder_title+"$"+ next_url
element_array.append(e)
pass
if int(self.page_count) == int(self.merchant):
self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
index=self.sprider_start_index
while index < element_length:
if os.path.exists(down_path) is False:
os.makedirs(down_path)
if self.haved_sprider_count == self.sprider_count:
BaseFrame().debug("采集到达数量采集停止...")
break
#element = element_list[index]
element=element_array[index]
time.sleep(1)
index = index + 1
sprider_info="正在采集第"+str(page_count)+"页的第"+str(index)+"个资源,共"+str(max_page)+"页资源"
BaseFrame().debug(sprider_info)
next_url=element.split("$")[1]
coder_title=element.split("$")[0]
# next_url = element.find_element(By.TAG_NAME, 'a').get_attribute("href")
# coder_title =element.find_element(By.TAG_NAME, 'img').get_attribute("title")
try:
codeEntity = SpriderEntity() # 下载过的资源不再下载
codeEntity.sprider_base_url = self.base_url
codeEntity.create_datetime = SpriderTools.get_current_datetime()
codeEntity.sprider_url = next_url
codeEntity.sprider_pic_title = coder_title
codeEntity.sprider_pic_index = str(index)
codeEntity.sprider_pager_index = page_count
codeEntity.sprider_type = self.sprider_type
if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
SpriderAccess().save_sprider(codeEntity)
else:
BaseFrame().debug(coder_title+next_url + "数据采集过因此跳过")
continue
driver.get(next_url) # 请求明细页面1
if SeleniumTools.judeg_element_isexist(driver, "CLASS_NAME", "download-item") == 3:
driver.back()
BaseFrame().debug(coder_title+"不存在源码是soft因此跳过哦....")
continue
print("准备点击下载按钮...")
driver.find_element(By.CLASS_NAME, "download-item").click() #下载源码
sleep(1)
result,message=SpriderTools.judge_file_exist(True,240,1,down_path,self.filter_down_file,"zip|rar|gz|tgz")#判断源码
if result is True:
sprider_content = [coder_title, self.save_path + os.sep +"image"+ os.sep + coder_title + ".jpg"] # 采集成功的记录
self.word_content_list.append(sprider_content) # 增加到最终的数组
self.haved_sprider_count = self.haved_sprider_count + 1
BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
time.sleep(1)
driver.back()
coder_title = str(coder_title).replace("::", "").replace("/", "").strip() #去掉windows不识别的字符
files = os.listdir(down_path)
file_name = files[0] # 获取默认值
srcFile = down_path + os.sep + file_name
file_ext = os.path.splitext(srcFile)[-1]
dstFile = down_path + os.sep + coder_title + file_ext
os.rename(srcFile, dstFile)
srcFile = dstFile
dstFile = self.save_path + os.sep + coder_title + file_ext
shutil.move(srcFile, dstFile) # 移动文件
else:
files = os.listdir(down_path) # 读取目录下所有文件
coder_title = str(coder_title).replace("/", "") # 去掉windows不识别的字符
try:
if str(message)=="0个文件认定是False":
BaseFrame().error(coder_title+"文件不存在...")
shutil.rmtree(down_path) # 如果没下载完是无法删除的
pass
else:
BaseFrame().error("检测下载文件出错可能原因是等待时间不够已经超时,再等待60秒...")
time.sleep(60)
shutil.rmtree(down_path) #如果没下载完是无法删除的
#清空数组
self.filter_down_file.clear()
except Exception as e:
# 使用数组append记录文件名字 移动的时候过滤
self.builder_filter_file(files)
pass
except Exception as e:
BaseFrame().error("sprider_detail()执行过程出现错误:" + str(e))
BaseFrame().error("sprider_detail()记录下载的文件名")
# 使用数组append记录文件名字 移动的时候过滤
files = os.listdir(down_path) # 读取目录下所有文件
self.builder_filter_file(files)
if(int(page_count)==int(max_page)):
self.builder_word(self.folder_name,self.word_content_list)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
百度搜索风云榜(百度排行榜)小偷程序
动力论坛社区 v1.1
免费域名源码下载 v1.0
华速网游交易平台 v13无限制版
天缘企业网站系统科技版 1.65
创易CreateEasy CMS v1.0 SP7
狂踩手机乐讯网空间系统 v1.0
新智能企业网站管理系统 v2.1
百灵小说小偷 v4.6
漂亮的网络放映室高清网络电视源码 2010
木木个人主页源码 v2.5
基金净值小偷程序
千岛湖租房网 v1.0
齐齐美女图片小偷 v1.2
PK990音乐播放器(flash) v2.64
农历图片生成系统NZCPS v1.0
gelin个人flash网站第二季正式版
EditFile上网文件管理器[手机/电脑合并] v4.0
K风网页搜索引擎系统K-PageSearch Engine v2.1 个人版
25175 URP 学校整合教育管理系统 v2010 beta1
瑞志企业建站系统(ASP版) v2.2
捷扬企业网站管理系统 v0.10.8
wap手机凤凰网新闻小偷 v1.1
新华企业订单管理源码
实现电脑访问wap网站的插件 v1.0
711娱乐网小偷 v2010.10 国庆版
PanSir战歌音乐程序 v1.0
def builder_filter_file(self,files):
"""
:param files:
:return:
"""
for file in files:
if len(self.filter_down_file)==0:
self.filter_down_file.append(str(file))
for filter_file in self.filter_down_file:
if str(file) in str(filter_file):
BaseFrame().error(filter_file + "文件存在...")
pass
else:
self.filter_down_file.append(str(file))
def builder_word(self, word_title, list_files):
"""
输出产物是word文件
:param word_title: 文件的标题
:param save_path: 文件的保存路径
:param list_files: 文件集合(单个内容)
:return:
"""
try:
self.copy_file(self.save_path)
print("Create Word:"+word_title)
file_count= len(list_files)
self.gen_passandtxt(file_count,word_title,list_files)
random_full_file_name = SpriderTools.get_word_image(self.sprider_category,6)
document = Document()
document.add_heading(""+word_title+"", level=2)
document.add_paragraph("分享"+str(file_count)+"个"+word_title+",总有一款适合您\r\n"
"下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,")
document.add_paragraph(""+str(file_count)+"个"+word_title+"下载")
document.add_paragraph("Python采集代码下载链接:https://wwgn.lanzoul.com/iKGwb0kye3wj")
#Python采集代码下载链接:采集代码.zip - 蓝奏云
document.add_picture(random_full_file_name, width=Inches(3))
ppt_tieles = ""
for files in list_files:
ppt_tieles = ppt_tieles + str(files[0]) + "\r"
document.add_paragraph(ppt_tieles)
# for files in list_files:
# try:
# document.add_paragraph(files[0])
# document.add_picture(files[1], width=Inches(3))
# except Exception as e:
# pass
random_full_file_name1 = SpriderTools.get_word_image(self.sprider_category, 6)
#document.add_picture(random_full_file_name1, width=Inches(3))
document.add_paragraph("最后送大家一首诗:")
paragraph = document.add_paragraph() # 单独控制
paragraph.add_run("山高路远坑深,\r")
paragraph.add_run("大军纵横驰奔,\r")
paragraph.add_run("谁敢横刀立马?\r")
paragraph.add_run("惟有点赞加关注大军。\r")
paragraph.bold = True # 字体加粗
file_full_path=self.file_path+os.sep+word_title+".docx"
document.save(file_full_path)
except Exception as e:
print("Create Word Fail reason:" + str(e))
def copy_file(self,target_path):
print("copy files")
import os
import shutil
src_apk_file_path="亚丁号自动阅读_v0.0.53.apk"
dst_apk_file_path=self.file_path+os.sep+"亚丁号自动阅读_v0.0.53.apk"
shutil.copyfile(src_apk_file_path, dst_apk_file_path) # 移动文件
src_pdf_file_path = "薅羊毛专业版.pdf"
dst_pdf_file_path = target_path + os.sep + "薅羊毛专业版.pdf"
#shutil.copyfile(src_pdf_file_path, dst_pdf_file_path) # 移动文件
src_pdf_file_path = "亚丁号.url"
dst_pdf_file_path = self.file_path + os.sep + "亚丁号.url"
shutil.copyfile(src_pdf_file_path, dst_pdf_file_path) # 移动文件
src_doc_file_path = "readme.docx"
dst_doc_file_path = self.file_path + os.sep + "readme.docx"
shutil.copyfile(src_doc_file_path, dst_doc_file_path) # 移动文件
pass
def gen_passandtxt(self,file_count,word_title, list_files):
print("Create PassWord and Pass.txt")
message=SpriderTools.gen_password()
password = "".join(message)
content=""
content = content + "\n分享"+str(file_count)+"个"+word_title+",总有一款适合您"
content = content + "\n\r"
content=content+"\n都到这里了您就支持一下呗!谢谢老铁~~"
content=content+"\n\r"
# content = content + "\n\r"
# content = content + "\n\r"
# for files in list_files:
# content = content+str(files[0])+ "\n"
content=content+"\n文件我就不一一列举了,送老铁一首打油诗"
content=content+"\n学习知识费力气,"
content=content+"\n收集整理更不易。"
content=content+"\n知识付费甚欢喜,"
content=content+"\n为咱码农谋福利。"
content=content+"\n\r"
content=content+"\n\r"
content=content+"\n感谢您的支持"
content=content+"\n\r"
content=content+"\n-------------------------------------------华丽分割线-------------------------------------------------------"
content=content+"\n友情提醒解压密码:"+password+""
full_path=self.file_path+os.sep+""+str(file_count)+"sell_pass.txt"
with open(full_path, 'a', encoding='utf-8') as f:
f.write(content)
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。