ASP源码
分享147个ASP源码,总有一款适合您
下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,
147个ASP源码下载链接:https://pan.baidu.com/s/1us1KTsxeaZlosHsqvrkC5Q?pwd=81pl
提取码:81pl
Python采集代码下载链接:https://wwgn.lanzoul.com/iKGwb0kye3wj
追梦阳光贴吧(飞跃特别版) build 0605
AjaxControlToolkit之Accordion控件Demo
AjaxControlToolkit之Tabs控件Demo
网吧主页全能2009版管理系统
prooxy电视程序(静态生成) v3.0
红金羚公司管理系统
局域网电影网站全功能版 v2.0
搜网影视 v2.1
尚尚街-祈福墙
口凡网编辑器源码及Demo v1.0
无忧劳保库存系统源码
站长软文网整站第二版
MySite个人展示程序
企业管理系统 v2.0
asp.net生成静态新闻系统 v1.0
酒吧播播 v4.0
小计天空酷绚博客个人版 v7.01
diggcms内容管理系统 v2.0
赛特文章管理系统sitenews v2.3.1
网站分类目录管理系统NZWDS v2.6
阿彪80元店网站
创易CreateEasy CMS build 080530 Beta版
小计天空企业管理 Asp.Net(C#)版
迅思科多用户留言簿 v2.0
股票常用网址导航
84搜搜百度小偷
import os
import shutil
import time
from time import sleep
from docx import Document
from docx.shared import Inches
from framework.base.BaseFrame import BaseFrame
from sprider.business.SeleniumTools import SeleniumTools
from sprider.business.SpriderTools import SpriderTools
from selenium import webdriver
from selenium.webdriver.common.by import By
from sprider.model.SpriderEntity import SpriderEntity
from sprider.access.SpriderAccess import SpriderAccess
class HuaJunCode:
base_url = "https://down.chinaz.com" # 采集的网址
save_path = "D:\\Freedom\\Sprider\\ChinaZ\\"
sprider_count = 147 # 采集数量
sprider_start_count=4666 #正在采集第491页的第12个资源,共499页资源 debug
word_content_list = []
folder_name = ""
page_end_number=0
max_pager=15 #每页的数量
haved_sprider_count =0 # 已经采集的数量
page_count = 1 # 每个栏目开始业务content="text/html; charset=gb2312"
filter_down_file=[]
凹丫丫新闻发布系统 v3.112
凹丫丫网站系统 v2.0
水狼多用户计数器免费版
ComponentArtWebUI及Demo源码
商用多栏目留言反馈系统CommonMess(云起) v2.6.05.30
Ajax+Asp实现批量生成静态页面进度条 v0.1
BentengURLRewrite(地址静态组件) 可在线管理
动易SiteWeaver CMS 英文频道语言包 v6.5 2006
口凡网日历控件及Demo源码
豆角网电影搜索程序 v1.0
象数抽签 v1.2
网页设计大赛评分程序
信友拼客 v1.98
浪人留言簿 v1.0
Bianli(ASP)文件管理系统
AnyPortal(ASP)文件管理增强版
BT资源小偷 v1.0
def sprider(self,title_name="NET"):
"""
采集
PHP https://down.chinaz.com/class/572_5_1.htm
NET https://down.chinaz.com/class/572_4_1.htm
ASP https://down.chinaz.com/class/572_3_1.htm
Python https://down.chinaz.com/class/604_572_1.htm
https://down.chinaz.com/class/608_572_1.htm
微信 https://down.chinaz.com/class/610_572_1.htm
Ruby https://down.chinaz.com/class/622_572_1.htm
NodeJs https://down.chinaz.com/class/626_572_1.htm
C https://down.chinaz.com/class/594_572_1.htm
:return:
"""
if title_name == "PHP":
self.folder_name = "PHP源码"
self.second_column_name = "572_5"
elif title_name == "Go":
self.folder_name = "Go源码"
self.second_column_name = "606_572"
elif title_name == "NET":
self.folder_name = "NET源码"
self.second_column_name = "572_4"
elif title_name == "ASP":
self.folder_name = "ASP源码"
self.second_column_name = "572_3"
elif title_name == "Python":
self.folder_name = "Python源码"
self.second_column_name = "604_572"
elif title_name == "JavaScript":
self.folder_name = "JavaScript源码"
self.second_column_name = "602_572"
elif title_name == "Java":
self.folder_name = "Java源码"
self.second_column_name = "572_517"
elif title_name == "HTML":
self.folder_name = "HTML-CSS源码"
self.second_column_name = "608_572"
elif title_name == "TypeScript":
self.folder_name = "TypeScript源码"
self.second_column_name = "772_572"
elif title_name == "微信小程序":
self.folder_name = "微信小程序源码"
self.second_column_name = "610_572"
elif title_name == "Ruby":
self.folder_name = "Ruby源码"
self.second_column_name = "622_572"
elif title_name == "NodeJs":
self.folder_name = "NodeJs源码"
self.second_column_name = "626_572"
elif title_name == "C++":
self.folder_name = "C++源码"
self.second_column_name = "596_572"
elif title_name == "C":
self.folder_name = "C源码"
self.second_column_name = "594_572"
#https://down.chinaz.com/class/594_572_1.htm
first_column_name = title_name # 一级目录
self.sprider_category = title_name # 一级目录
second_folder_name = str(self.sprider_count) + "个" + self.folder_name #二级目录
self.sprider_type =second_folder_name
self.merchant=int(self.sprider_start_count) //int(self.max_pager)+1 #起始页码用于效率采集
self.file_path = self.save_path + os.sep + "Code" + os.sep + first_column_name + os.sep + second_folder_name
self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep + second_folder_name+ os.sep + self.folder_name
BaseFrame().debug("开始采集ChinaZCode"+self.folder_name+"...")
sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
down_path="D:\\Freedom\\Sprider\\ChinaZ\\Code\\"+first_column_name+"\\"+second_folder_name+"\\Temp\\"
if os.path.exists(down_path) is True:
shutil.rmtree(down_path)
if os.path.exists(down_path) is False:
os.makedirs(down_path)
if os.path.exists(self.save_path ) is True:
shutil.rmtree(self.save_path )
if os.path.exists(self.save_path ) is False:
os.makedirs(self.save_path )
chrome_options = webdriver.ChromeOptions()
diy_prefs ={'profile.default_content_settings.popups': 0,
'download.default_directory':'{0}'.format(down_path)}
# 添加路径到selenium配置中
chrome_options.add_experimental_option('prefs', diy_prefs)
chrome_options.add_argument('--headless') #隐藏浏览器
# 实例化chrome浏览器时,关联忽略证书错误
driver = webdriver.Chrome(options=chrome_options)
driver.set_window_size(1280, 800) # 分辨率 1280*800
# driver.get方法将定位在给定的URL的网页,get接受url可以是任何网址,此处以百度为例
driver.get(sprider_url)
# content = driver.page_source
# print(content)
div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容
element_list = div_elem.find_elements(By.CLASS_NAME, 'item')
laster_pager_ul = driver.find_element(By.CLASS_NAME, "el-pager")
laster_pager_li =laster_pager_ul.find_elements(By.CLASS_NAME, 'number')
laster_pager_url = laster_pager_li[len(laster_pager_li) - 1]
page_end_number = int(laster_pager_url.text)
self.page_count=self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(driver,element_list,self.page_count,page_end_number,down_path)
pass
else:
if self.haved_sprider_count == self.sprider_count:
BaseFrame().debug("采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
self.builder_word(self.folder_name, self.word_content_list)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
#(self.base_url + "/sort/{0}/{1}/".format(url_index, self.page_count))
#http://soft.onlinedown.net/sort/177/2/
next_url = self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name, self.page_count)
driver.get(next_url)
div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容
element_list = div_elem.find_elements(By.CLASS_NAME, 'item')
self.sprider_detail( driver, element_list, self.page_count, page_end_number, down_path)
pass
#print(self.page_count)
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
print("sprider()执行过程出现错误:" + str(e))
sleep(1)
def sprider_detail(self, driver,element_list,page_count,max_page,down_path):
"""
采集明细页面
:param driver:
:param element_list:
:param page_count:
:param max_page:
:param down_path:
:return:
"""
index = 0
element_array=[]
element_length=len(element_list)
for element in element_list:
url_A_obj = element.find_element(By.CLASS_NAME, 'name-text')
next_url = url_A_obj.get_attribute("href")
coder_title = url_A_obj.get_attribute("title")
e=coder_title+"$"+ next_url
element_array.append(e)
pass
if int(self.page_count) == int(self.merchant):
self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
index=self.sprider_start_index
while index < element_length:
if os.path.exists(down_path) is False:
os.makedirs(down_path)
if self.haved_sprider_count == self.sprider_count:
BaseFrame().debug("采集到达数量采集停止...")
break
#element = element_list[index]
element=element_array[index]
time.sleep(1)
index = index + 1
sprider_info="正在采集第"+str(page_count)+"页的第"+str(index)+"个资源,共"+str(max_page)+"页资源"
BaseFrame().debug(sprider_info)
next_url=element.split("$")[1]
coder_title=element.split("$")[0]
# next_url = element.find_element(By.TAG_NAME, 'a').get_attribute("href")
# coder_title =element.find_element(By.TAG_NAME, 'img').get_attribute("title")
try:
codeEntity = SpriderEntity() # 下载过的资源不再下载
codeEntity.sprider_base_url = self.base_url
codeEntity.create_datetime = SpriderTools.get_current_datetime()
codeEntity.sprider_url = next_url
codeEntity.sprider_pic_title = coder_title
codeEntity.sprider_pic_index = str(index)
codeEntity.sprider_pager_index = page_count
codeEntity.sprider_type = self.sprider_type
if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
SpriderAccess().save_sprider(codeEntity)
else:
BaseFrame().debug(coder_title+next_url + "数据采集过因此跳过")
continue
driver.get(next_url) # 请求明细页面1
if SeleniumTools.judeg_element_isexist(driver, "CLASS_NAME", "download-item") == 3:
driver.back()
BaseFrame().debug(coder_title+"不存在源码是soft因此跳过哦....")
continue
print("准备点击下载按钮...")
driver.find_element(By.CLASS_NAME, "download-item").click() #下载源码
sleep(1)
result,message=SpriderTools.judge_file_exist(True,240,1,down_path,self.filter_down_file,"zip|rar|gz|tgz")#判断源码
if result is True:
sprider_content = [coder_title, self.save_path + os.sep +"image"+ os.sep + coder_title + ".jpg"] # 采集成功的记录
self.word_content_list.append(sprider_content) # 增加到最终的数组
self.haved_sprider_count = self.haved_sprider_count + 1
BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
time.sleep(1)
driver.back()
coder_title = str(coder_title).replace("::", "").replace("/", "").strip() #去掉windows不识别的字符
files = os.listdir(down_path)
file_name = files[0] # 获取默认值
srcFile = down_path + os.sep + file_name
file_ext = os.path.splitext(srcFile)[-1]
dstFile = down_path + os.sep + coder_title + file_ext
os.rename(srcFile, dstFile)
srcFile = dstFile
dstFile = self.save_path + os.sep + coder_title + file_ext
shutil.move(srcFile, dstFile) # 移动文件
else:
files = os.listdir(down_path) # 读取目录下所有文件
coder_title = str(coder_title).replace("/", "") # 去掉windows不识别的字符
try:
if str(message)=="0个文件认定是False":
BaseFrame().error(coder_title+"文件不存在...")
shutil.rmtree(down_path) # 如果没下载完是无法删除的
pass
else:
BaseFrame().error("检测下载文件出错可能原因是等待时间不够已经超时,再等待60秒...")
time.sleep(60)
shutil.rmtree(down_path) #如果没下载完是无法删除的
#清空数组
self.filter_down_file.clear()
except Exception as e:
# 使用数组append记录文件名字 移动的时候过滤
self.builder_filter_file(files)
pass
except Exception as e:
BaseFrame().error("sprider_detail()执行过程出现错误:" + str(e))
BaseFrame().error("sprider_detail()记录下载的文件名")
# 使用数组append记录文件名字 移动的时候过滤
files = os.listdir(down_path) # 读取目录下所有文件
self.builder_filter_file(files)
if(int(page_count)==int(max_page)):
self.builder_word(self.folder_name,self.word_content_list)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
YxBBs v2.3 Build 2008427
雨点电影采集程序 v1.1
ocUload(重用网)多文件上传控件 v1.3
LRC歌词搜索小偷 修正版
酷321简单Flash留言本
黑客天下黑客网站管理系统 Xc v1.1
尚尚街-自助友情连接系统 v2.2 简洁美化版
企业客户管理系统
证券第一网小版面全站系统 v2.02
5ymh全站漫画程序加数据
风云房产门户金色风格版 v3.0
EasyesESYS文章模块 v4.0 beta
在线报名系统专业版 v1.0
基于网络的投稿系统 v1.0
5007动网论坛 8.2 自定义采集插件
迅思科进销存 v1.2
免费实用家教网整站程序(奥运特别版) v1.5
一度影视 v3.0
带采集生成静态html的小说下载站
ADN视频收藏专家 v2.2.0525 ACC版
ADN视频收藏专家 v2.2.0525 SQL版
非零坊留言本 v3.3 Vista版
乐学迷你BBS v2.2 SQL Server UTF-8 版
乐学迷你BBS v2.2 ACCESS GB2312 版
石材订单管理系统 v3.0
MM321流行的动漫程序(带采集,生成HTML) v4.5
WebTextPane 在线编辑器控件(Asp.NET 2.0)
小浚窝窝个人网站程序 FLASH整站
最爱小说网 v5.1
Afritxia在线用户统计、在线编辑器、验证码图片
2008北京奥运会祝福 v1.0 gbk
SpbDev asp.net探针 v1.0.4033.0
FilesNet(文件管理器) v1.7.7205
学生成绩智能管理系统源码
雨点赌大小游戏程序 v1.0
KesionCMS v4.5 SP3 build 20080605 (UTF-8)
KesionEShop v4.5 SP3 build 20080605 (UTF-8)
KesionEshop v4.5 SP3 build 20080605
KesionCMS v4.5 SP3 build 20080605
快乐桔子个人主页
laCNN联盟自动收录导航
炒米者之铲(云起) v0.9.05.22
动易6.5内核的学校整站
情感小筑文章管理程序 v2.41
经典挖美女源码
心雨网址大全 v2.0 Build5.21
人才网初学者工具包源码
直销结算系统
钢铁人才网
tom911免费电影完美版本-带自定义采集
在线考试系统源码及论文
海涯英文视频网整站 v1.0
福建新闻小偷(DIV+CSS) v2 3.1
网络游戏搜索引擎
简单日期选择的控件源码
在线解压ASP系统 v1.0
固定资产管理系统源码
创力CMS(CreateLive CMS) v4.2 build 0518
IT猫扑网管联盟站(带整站文章图片数据库ACC) v2.1
百度视频小偷程序(美化版)
网站RSS订阅功能插件RSSMaker ASP.net版
地震祈福签名程序
雨点投票程序 v1.0
asp.net的导航站程序
易图多用户相片存储分享网站 SQL版
搜敌SEO系统(高级版)
复旦大学附属中山医院网站系统
龙溪医院网站程序
ASP+AJAX2008512大地震祭奠逝者小程序
ASP+AJAX2008512大地震祈福小程序
航班实时查询系统
mydo8.cn影视网站管理系统 v1.0
新云内存溢出出错补丁 Build080516
手机发烧友全站(新云内核仿快车)
智拓-分类信息管理系统 v5.0
自由领域大头贴(js接口版) 修正版
IssTech信息反馈系统 v1.0
齐齐乐网私服发布站 仿haosf新版 v1.0
asp抓蜘蛛的小程序 v1.0
普沙B2B 浙江省商贸网 v2.0
2008中国挺住(投票+签名)
import os
# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表
for currentFile in dirs: # 遍历列表
absPath = dirPath + '/' + currentFile
if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件
search_file(absPath, fileName)
elif currentFile == fileName:
print(absPath) # 文件存在,则打印该文件的绝对路径
os.remove(absPath)
水狼天村论坛 v5.2 简洁漂亮版
安康网在线歇后语查询 v1.0
企业网站管理系统 (asp.net)
九天备案中系统
猫猫网络电视美化修正版
悠悠网络美女图片小偷
一个WEB2.0圈子网站
崇水链接自动收录系统 v1.2 修正版
57oo电影整站系统 v6 SP4 FLV版
顺德供求网
千啦视频搜 v2.0
160.es免费资源网程序 v1.6.0
ajax 插入 删除功能
漂亮无限级分类源代码(三层实现)
Asp.net房产中介管理系统源码及常用文档
安康网在线百家姓查询程序
动易内核漂亮网络小说程序(带1520小说数据)
傲龙防CC攻击插件 ASP版 v2.1
网页特效管理系统
图片写真系统 v1.0
鼎峰企业智能建站系统ASP版 v0.3.6
依悠广告管理系统 v2.1
e新时代企业网站管理系统 v6.0 SQL版
import os
# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表
for currentFile in dirs: # 遍历列表
absPath = dirPath + '/' + currentFile
if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件
search_file(absPath, fileName)
elif currentFile == fileName:
print(absPath) # 文件存在,则打印该文件的绝对路径
os.remove(absPath)
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。