现在越来越多的人抱怨说搜索引擎收录很难做,站群程序似乎不在是那么重要,花费高价购买域名成为了做出高收录站群的越来越重要的建站前提。
事实上好的程序也必不可要的因素的之一,一套好的站群程序就不仅可以更好的留住抓取页面的蜘蛛,在索引后还有更好的排名展示。
最近做搜狗泛域名程序的站点的人非常多,这是一套适用于搜狗的分城市站群程序,泛域名+泛目录实现泛收录。
增加控制页面的方法
程序介绍
自带蜘蛛统计插件(zz.php),自带php一键配置文件(configure.php)。
程序的亮点之一在于自带蜘蛛统计和强引功能,可以根据您的设置选择是否强引蜘味,并选择强引(哪个具体P段落的蜘味,可以自定义设置触发强引蜘迭蛛的概率,并可以自定义外链类型。
界面截图
代码展示:configure.php
<?php /*================= 配置选项 ===================*/ $astrict="0"; // 限制访问功能 1=只能蜘蛛访问 0=访客+蜘蛛访问 $citation="0"; // 是否开启蜘蛛强引功能 1=开启 0=关闭 $spider_type="3"; // 指定蜘蛛: 1=百度蜘蛛 2=360蜘蛛 3=搜狗蜘蛛 4=谷歌蜘蛛 $spider_ip="0"; // 指定蜘蛛IP,根据spider文件夹重要IP抓取 $chance="80"; // 蜘蛛强引概率,1到100的概率设置,100为100% $link_type="2"; // 强引外链类型,1=系统外链 2=自定义外链,自定义外链到根目录hret.txt文件设置,一行一条 /*================= 配置结束 ===================*/ ?>
Nginx伪静态
rewrite /index.html$ /index.php; rewrite ^/(.*).html /404.php; rewrite ^/(.*).xml$ /sitemap.php?id=$1;
目录展示
<分城市搜狗泛站群> ├404.html ├404.php ├config.php ├configure.php 用户自定义配置文件,上文中已经展示了本文件 ├hret.txt 请注意用户自定义外链放在这里 ├index.html ├index.php ├nginx.htaccess ├robots.txt ├sitemap.php xml地图文件 ├sogou.css ├sogou1.css ├zz.php 蜘蛛统计展示页面,访问本文件展示蜘蛛 ├<301> ├<news> │ └data.txt ├<pics> 模板中需要调用到的图片库 ├<simple> │ ├change_log.txt │ ├composer.json │ ├simple_html_dom.php │ ├<app> │ ├<example> │ ├<manual> │ ├<testcase> ├<spider> 统计及屏蔽蜘蛛的IP段,默认已经设置好了,基本上不需要修改 │ ├baidu.txt │ ├google.txt │ ├sll.txt │ └sougou.txt ├<style> │ ├<css> │ ├<images> ├<style1> │ ├<css> ├<sypseo> 这个文件夹注意看咯! │ ├dirCache.class.php │ ├<cache> 缓存文件,游客访问也会生成缓存,可以删除本文件夹达到删除缓存的目地 │ ├<dom> 本程序绑定的根域名写在本文件中,一行一条 │ │ └domains.txt │ ├<jsc> │ │ └dongtai.txt │ ├<keywords> 关键词文件库 │ ├<map> │ │ └map.html │ ├<newslinks> │ │ └newslinks.txt │ ├<shipin> │ │ └shipin.txt │ ├<spider> 蜘蛛统计文件 │ ├<tpl> 模板文件 │ │ ├<neirong> 内页模板文件 │ │ │ ├books.php │ │ │ └fanjiexi.html │ │ ├<shouye> 首页模板文件 │ │ │ ├books.php │ │ │ └fanjiexi.html │ ├<wailian> 外链库 │ │ └wailian.txt ├<zhizhu> 如果有蜘蛛访问网站,将在本目录下生成log文件,如果想清除统计,可以删除本文件夹内的内容
声明:本站所有文章均来源于网络,本站不提供任何的技术帮助,除亲测源码外均未进行测试,并不保证能完美运行,如有问题请联系相关人员进行处理。如有侵权请联系及时站长进行删除。