其实织梦想要生成sitemap.xml也不难,只要我们自己做一个sitemap.xml生成模板,然后将模板添加到后台,每次更新完资料之后,生成一下sitemap.xml也就可以了。不说那么多了,上图,上代码:
[caption id="attachment_1363" align="ali...
很多时候我们在使用dedecms所做的网站,在清空所有文章之后,你再重新建文章会发现你新建的文章的ID却是延续之前文章的ID,而不是从1开始的。尽管这样不会影响到网站的正常访问,但对追求完美的站长们却会有点不舒服的感觉,总想让ID...
1、关于html标签中b和strong两个的区别,我也是今天用到时才注意的,以前都是混着用的,今天工作的时候才注意到这两个标签的区别。
用在网页上,默认情况下它们起的均是加粗字体的作用,二者所不同的是,<b>标签是一个实体标...
手贱升级WordPress到5.0+版本后发现默认编辑器更改为Gutenberg古腾堡编辑器,码笔记真心不适用,那么如何还原经典编辑器?WP降级?显然不合适(升都升了,难道为了一个小小的编辑器还原)!如何还原WordPress经典编辑器,很简单,想使...
js代码格式化
我们平常在项目中经常会遇到下载别人的js文件都是加密过的,不方便阅读都是一整行,个人无法进行阅读,浏览器能够识别出来,所以就可以使用浏览器进行js代码解密并格式化js代码。
1、打开浏览器chrome为例,打开...
上传本地电脑文件到远程服务器,很多人使用FTP方式上传或者网盘方式上传再到服务器上下载,其实都不够方便。
下面介绍一种方法,超简便:
在本地电脑“开始”→“运行”→输入“mstsc”,启动远程桌面连接进行设置,如图:
进...
dedecms自带的采集系统确实很不错,可以免去一些手工添加信息的麻烦,设置一下dede采集规则、采集点,然后点采集,OK,几百篇文章就搞定了!呵呵,确实很省事的!下面介绍几种常用采集规则的过滤方法:
应用示例一:dedecms过滤标...
robots协议
Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。
robots.txt
1. 什么是robots.txt...