免費論壇 繁體 | 簡體
Sclub交友聊天~加入聊天室當版主
分享
返回列表 发帖
用robots.txt 文件可以告诉搜索引擎抓取工具可以或不能从您的网站请求哪些页面或文件

TOP

回複 2# kuing
論壇管理--界面--糢板管理
将header.htm中的
<body id=CURSCRIPT>
替換為
<xmp style="display:none"><body id='{CURSCRIPT}'></xmp>
就可以吃掉google-analytics

TOP

回复 29# kuing
哈,是我自己想的,原理也很简单,就是sclub自动加上的广告头注释掉,我在另外一个论坛上测试可以用

TOP

@kuing 您再试试这个
https://zhuanlan.zhihu.com/p/29891330

TOP

回复 34# kuing
建议弃sclub,找一个云服务器安装discuz

TOP

回复 37# 色k
不妨在首页放一个旋转地图的JS代码统计一下访客的ip的地理位置

TOP

本帖最后由 hbghlyj 于 2022-1-26 07:11 编辑

回复 42# kuing
Discuz封锁蜘蛛最有效的方法

    闲来无事翻代码,发现一个好东西,Discuz设计者考虑到了有些流氓搜索引擎不遵守roborts.txt,于是设计了一个NOROBOT变量,当这个变量为true 的时候,定义中的搜索引擎都会无法访问,默认比如在post.php里面开头就定义了

define('NOROBOT', TRUE);
这样就可以有效防止蜘蛛乱爬了



但是至于像viewthread.php,forumdisplay.php(还有其他。比如,feed页面等)默认就是要给虫子爬的,所以,这一句话没有,如果要封锁蜘蛛,在这些页面中加入这个定义即可

加入后,在在线会员列表中,出现了好多游客的“无效的越权访问”,这些“游客,就是蜘蛛了”

查看common.inc.php,可以看到如下函数

getrobot();
if(defined('NOROBOT') && IS_ROBOT) {
exit(header("HTTP/1.1 403 Forbidden"));
}
这个可见,如果discuz调用getrobot()这个函数发现来访者是蜘蛛,就返回http 403禁止访问的错误提示

这个函数是在global.func.php被定义的

复制代码
  1. function getrobot() {
  2. if(!defined('IS_ROBOT')) {
  3.    $kw_spiders = 'Bot|Crawl|Spider|slurp|sohu-search|lycos|robozilla';
  4.    $kw_browsers = 'MSIE|Netscape|Opera|Konqueror|Mozilla';
  5.    if(!strexists($_SERVER['HTTP_USER_AGENT'], 'http://') && preg_match("/($kw_browsers)/i", $_SERVER['HTTP_USER_AGENT'])) {
  6.    define('IS_ROBOT', FALSE);
  7.    } elseif(preg_match("/($kw_spiders)/i", $_SERVER['HTTP_USER_AGENT'])) {
  8.    define('IS_ROBOT', TRUE);
  9.    } else {
  10.    define('IS_ROBOT', FALSE);
  11.    }
  12. }
  13. return IS_ROBOT;
  14. }
复制代码

TOP

本帖最后由 hbghlyj 于 2022-1-26 07:19 编辑

用下面链接登出,稍等几秒以后可以显示blablabla
http://kuing.orzweb.net/logging. ... 60blablabla%60);%27

TOP

返回列表 回复 发帖