精华内容
下载资源
问答
  • node.js 刷csdn博客访问量

    万次阅读 2020-01-16 14:46:08
    身为一名前端技术人员利用node刷一下博客的访问量应该不过分吧··· 导入npm包 request以 npm 包的形式提供,是一个简单的 HTTP 客户端,通过它可方便地实现 HTTP 请求,可以用来请求网页; cherrio是用来分析dom...

    博客地址:http://www.globm.top/blog/1/detail/13
    身为一名前端技术人员利用node刷一下博客的访问量应该不过分吧···

    • 导入npm包
      request以 npm 包的形式提供,是一个简单的 HTTP 客户端,通过它可方便地实现 HTTP 请求,可以用来请求网页;
      cherrio是用来分析dom结构的(Nodejs版本的jquery);
    const request = require('request')
    const cheerio = require('cheerio')
    
    • 获取博客数据,并记录博客地址
    // 当前页码,这个可以自定义也可以从页面抓取,这里我就不赘述了
    let indexPage = 1
    // 博客地址 + /article/list/ + 页码  表示当前网页
    let url = 'https://blog.csdn.net/weixin_45266125/article/list/' + indexPage
    // 获取博客主页
    request(url, (error, response, body) => {
        if (!error && response.statusCode === 200) {
          	// 获取html文档
            let $ = cheerio.load(body)
            // 计算总页数
            let allCount = $('#blog_statistics li span').first().text() || 20
            let page = parseInt(allCount) / 20
            let pageStr = page.toString()
            // 不能被整除
            if (pageStr.indexOf('.') > 0) {
                page = parseInt(pageStr.split('.')[0]) + 1
            }
            // 返回的json数据
            let data = {}
            // 文章集合
            let articles = []
            data.allPages = page
            data.currentPage = parseInt(indexPage)
            // 博客主页列表网址存在 .article-list h4 a 标签中,这个随时可能变
            $('.article-list h4 a').each((ins, el) => {
                let article = {} // 每篇文章的字典
                $(el).find(".article-type").remove()
                // 获取文本去除空格以及回车换行
                let text = ($(el).text().replace(/\ +/g,"")).replace(/[\r\n]/g,"")
                // 获取博客网址
                let url = ($(el).attr('href').replace(/\ +/g,"")).replace(/[\r\n]/g,"")
                // title太长可以隐藏
                if (text.length > 20){
                    text = text.substring(0, 20).concat('...')
                }
                article.title = text
                article.url = url
                articles.push(article)
            })
            data.articles = articles
            // 执行函数,开启定时任务,请求博客
            intervalArticle(articles)
        } else {
          	// 返回的json数据
            let data = {}
            data.msg = '爬取失败'
        }
    })
    
    • 设置定时任务,不停随机刷博客浏览量
    let intervalArticle = urls => {
        var count = 0 // 刷了多少次
        var len = urls.length // 需要刷的文章篇数
        var co = 0 // 为了循环刷新
    
        setInterval(function() {
            count = count + 1
            // 随机生成0~len的数字,可以按顺序刷,也可以随机刷
            // co = Math.floor(Math.random() * len)
            // 请求博客地址
            request(urls[co].url, function (error, response, body) {
                if (!error && response.statusCode === 200) {
                    // console.log(`浏览量:${count} , 文章:${urls[co].title} , 加载次数:${ parseInt((count + len) / len) }`)
                }
            })
            ++co
            if (co === len) {
                co = 0
            }
        }, 60000)
    }
    
    • 将上述文件导入node启动文件,运行就可以了,也可以放到服务器,这样就可以一直刷了^ - ^
    展开全文
  • python爬虫增加访问量

    万次阅读 多人点赞 2019-08-20 16:37:19
    看着自己少得可怜的访问量,突然有一个想用爬虫刷访问量的想法,主要也是抱着尝试的心态,学习学习。 第一版:网上借鉴了一下 以下代码运行在 python3 import urllib.request import time # 使用build_opener...

        看着自己少得可怜的访问量,突然有一个想用爬虫刷访问量的想法,主要也是抱着尝试的心态,学习学习。

     

    第一版:网上借鉴了一下           以下代码运行在 python3

    import urllib.request
    import time
    
    # 使用build_opener()是为了让python程序模仿浏览器进行访问
    opener = urllib.request.build_opener()
    opener.addheaders = [('User-agent', 'Mozilla/5.0')]
    
    
    # 专刷某个页面
    print('开始刷了哦:')
    tempUrl = 'https://blog.csdn.net/Lin_QC/article/details/88966839'
    
    
    
    for j in range(2000):
        try:
            opener.open(tempUrl)
            time.sleep(7)
            print('%d %s' % (j, tempUrl))
        except urllib.error.HTTPError:
            print('urllib.error.HTTPError')
            time.sleep(1)
        except urllib.error.URLError:
            print('urllib.error.URLError')
            time.sleep(1)
    

    该代码主要就是利用爬虫打开网页来进行访问量的刷新,但是,该方法遇到了瓶颈,当刷新到一定访问量时,csdn的服务器会阻止该ip的访问,也就刷新不了访问量了。

    所以,也就衍生了第二版。

    我们可以在  一些网站上看到很多代理ip,使用这些代理ip,可以防止服务器阻止访问。

    首先,编写了一个获取代理ip的文件,经我本人实验,国内http代理ip较为稳定,所以我们爬取某些页面,例如

    'https://www.xicidaili.com/wt/1'

    的代理ip信息,并将它们存储在proxy文件里,以下代码是基于 python2的,注意不要弄错版本

    proxy_IP.py文件

    import urllib2
    import BeautifulSoup
    
    User_Agent = 'Mozilla/5.0 (Windows NT 6.3; WOW64; rv:43.0) Gecko/20100101 Firefox/43.0'
    header = {}
    header['User-Agent'] = User_Agent
    
    url = 'https://www.xicidaili.com/wt/1'
    req = urllib2.Request(url, headers=header)
    res = urllib2.urlopen(req).read()
    
    soup = BeautifulSoup.BeautifulSoup(res)
    ips = soup.findAll('tr')
    f = open("proxy", "w")
    
    for x in range(1,len(ips)):
        ip = ips[x]
    
        tds = ip.findAll("td")
        ip_temp = tds[1].contents[0]+","+tds[2].contents[0]+"\n"
    
        print tds[1].contents[0]+"\t"+tds[2].contents[0]
        f.write(ip_temp)

    通过执行以上代码,我们就可以获得大量代理ip,接下来就是使用这些ip进行对博客的访问。

    csdnfake.py

    import urllib2
    import socket
    import time
    import random
    
    socket.setdefaulttimeout(3)
    
    user_agent_list = [
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '
                          'Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3',
        'Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50',
        'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50',
        'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)',
        'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)',
        'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1',
        'Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11',
        'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11',
        'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SE 2.X MetaSr 1.0; SE 2.X MetaSr 1.0; .NET CLR 2.0.50727; SE 2.X MetaSr 1.0)',
        'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0',
        'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1',
    ]
    f = open("proxy")
    lines = f.readlines()
    proxys = []
    
    for i in range(0,len(lines)):
        ip = lines[i].strip().split(",")
        proxy_host = "http://"+ip[0]+":"+ip[1]
        print "http://"+ip[0]+":"+ip[1]
        proxy_temp = {"http": proxy_host}
        proxys.append(proxy_temp)
    urls = {"https://blog.csdn.net/Lin_QC/article/details/88966839",
           "https://blog.csdn.net/Lin_QC/article/details/88930018",
           "https://blog.csdn.net/Lin_QC/article/details/88642949",
           "https://blog.csdn.net/Lin_QC/article/details/84568170",
           "https://blog.csdn.net/Lin_QC/article/details/84451279",
           "https://blog.csdn.net/Lin_QC/article/details/84927503",
           }
    
    j=1
    for i in range(100):
        for proxy in proxys:
            for url in urls:
                try:
                    user_agent = random.choice(user_agent_list)
                    proxy_support = urllib2.ProxyHandler(proxy)
                    opener = urllib2.build_opener(proxy_support, urllib2.HTTPHandler)
                    urllib2.install_opener(opener)
                    req = urllib2.Request(url)
                    c = urllib2.urlopen(req)
                    print ("sucessful",j)
                    j+=1
                    time.sleep(5)  
                except Exception, e:
                    print proxy
                    print e
                    continue
    

    user_agent_list是一堆浏览器的代理头,可以模仿浏览器访问博客。

    每次访问休息五秒,主要是因为过快的访问对csdn无效。

     

    效果,刷过访问量的博客和没刷的差距明显

     

    其实,刷新访问量的行为是可耻的,本人也是被惨不忍睹的访问量激怒,好奇一试,之后还是会努力提高博客质量,靠实力提升访问量。

     

     

    2019 七月

    隔了很久,又来提这篇博客,个人感觉csdn又增强了反爬机制,上述的方法只能一定程度上提高访问量,到了一定限度就会由验证码页面拒绝,导致代码失效,然后过阵子又可以,其实这样的刷访问量效率是很低的,尽管我们可以在通过加入验证码识别丰富我们的代码,使它更有健壮性,但是我还是决定有空再尝试,个人感觉提高博客质量才是重点,并且有的时候蹭蹭热度 效果也还不错,就如下图:

     

     

    不过还是不要忘了,写博客主要还是分享自己的收获,或者记录一下自己的学习历程,方便日后再次拿起来用,不要太在意访问量

     

    2019年11月

    很遗憾,服务器的安全机制越来越强,目前代码已经失去作用

     

    展开全文
  • 记录网站访问量

    千次阅读 2020-06-30 11:43:46
    3、访问主页时增加访问量 4、前端获取点击量或在项目关闭前,将点击量存入数据库(ContextController) 数据库 create table context( click_num int ) dao层 接口 public interface ContextM.

    1、在数据库中创建表,存放点击量

    2、创建监听器(MyWebListener)实现ServletContextListener接口,当项目启动时通过dao层(ContextMapper)获取点击量,存入ServletContext中。

    3、访问主页时增加访问量

    4、前端获取点击量或在项目关闭前,将点击量存入数据库(ContextController)

    数据库

    create table context(
    	click_num int
    )
    

    dao层

    接口

    public interface ContextMapper {
        Integer selectClickNum();
    
        int updateClickNum(Integer clickNum);
    }
    

    xml

    <?xml version="1.0" encoding="utf-8" ?>
    <!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
    <mapper namespace="包名.ContextMapper">
        <select id="selectClickNum" resultType="java.lang.Integer">
            select click_num
            from context
        </select>
    
        <update id="updateClickNum" parameterType="java.lang.Integer">
            update context
            set click_num = #{clickNum, jdbcType=INTEGER}
        </update>
    </mapper>
    

    监听器

    import cn.javak.mapper.ContextMapper;
    import org.slf4j.Logger;
    import org.slf4j.LoggerFactory;
    import org.springframework.beans.factory.annotation.Autowired;
    import org.springframework.stereotype.Component;
    import javax.servlet.ServletContext;
    import javax.servlet.ServletContextEvent;
    import javax.servlet.ServletContextListener;
    
    @Component
    public class MyWebListener implements ServletContextListener {
        @Autowired
        private ContextMapper contextMapper;
        private static final Logger logger = LoggerFactory.getLogger(MyWebListener.class);
        @Override
        public void contextInitialized(ServletContextEvent sce) {
            logger.info("项目初始化变量");
            ServletContext context = sce.getServletContext();
            Integer clickNum = null;
            try {
                clickNum = contextMapper.selectClickNum();
                context.setAttribute("clickNum",clickNum);
                logger.info("初始化网站点击量"+clickNum);
            }catch (Exception e){
                logger.error("获取点击量失败", e);
            }
        }
    
        @Override
        public void contextDestroyed(ServletContextEvent sce) {
            logger.info("项目终止");
        }
    }
    

    访问主页时插入以下代码

    //增加点击量
    ServletContext context = request.getServletContext();
    Integer clickNum = (Integer) context.getAttribute("clickNum");
    context.setAttribute("clickNum", ++clickNum);
    

    提供网站访问量接口

    import com.alibaba.fastjson.JSONObject;
    import org.slf4j.Logger;
    import org.slf4j.LoggerFactory;
    import org.springframework.beans.factory.annotation.Autowired;
    import org.springframework.web.bind.annotation.GetMapping;
    import org.springframework.web.bind.annotation.RequestMapping;
    import org.springframework.web.bind.annotation.RestController;
    import org.springframework.web.context.WebApplicationContext;
    
    import javax.annotation.PreDestroy;
    import javax.servlet.ServletContext;
    import javax.servlet.http.HttpServletRequest;
    
    @RestController
    @RequestMapping("/context")
    public class ContextController {
        @Autowired
        private ContextMapper contextMapper;
        @Autowired
        private WebApplicationContext webApplicationConnect;
    
        private static final Logger logger = LoggerFactory.getLogger(ContextController.class);
    
        @GetMapping("/clickNum")
        public JSONObject getClickNum(HttpServletRequest request) {
            ServletContext context = request.getServletContext();
            Integer clickNum = (Integer) context.getAttribute("clickNum");
            JSONObject obj = new JSONObject();
            obj.put("status","success");
            obj.put("msg","获取网站访问量成功");
            obj.put("clickNum", clickNum);
            return obj;
        }
    
        /**
         * 项目关闭前更新网站点击量
         */
        @PreDestroy
        public void destroy() {
            Integer clickNum = (Integer) webApplicationConnect.getServletContext().getAttribute("clickNum");
            contextMapper.updateClickNum(clickNum);
            logger.info("更新点击量成功" + clickNum);
        }
    }
    

    前端ajax

    url = function (i) {
        //项目路径
        return "http://localhost:8080/" + i;
    };
    loadClickNum = function () {
        $.ajax({
            type: 'get',
            url: url("context/clickNum"),
            cache: false,
            dataType: 'json',
            success: function (data) {
                //获取显示点击量元素的id
                $("#clickNum").text(data.obj.clickNum);
            }
        });
    };
    

    点击量

    展开全文
  • 如何增加访问量、阅读量

    千次阅读 2019-02-12 11:09:19
    玩博客有一段时间了,有时候看见自己那少得可怜的博客访问量和博文阅读数,心想怎么样才能提高自己的博客访问量博文阅读数呢,结合自身搞过web方面的经历发现:这个博文阅读量就是当你打开对应博文的网址,后端程序...

    玩博客有一段时间了,有时候看见自己那少得可怜的博客访问量和博文阅读数,心想怎么样才能提高自己的博客访问量博文阅读数呢,结合自身搞过web方面的经历发现:这个博文阅读量就是当你打开对应博文的网址,后端程序会记录刷新进行加1操作,并记录到数据库中,而博客访问量很大一部分是所有博文阅读量之和。(个人见解

    那如何提高博客访问量、博文阅读量?

    通过上面我们可以知道,可以手动点击博文然后就可以提高博客访问量和博文阅读数了

    但是我们是我们怎么可能用这么原始、这么落后的方法呢!

    然后我心想能不用用自己学的知识完成这一操作呢?我想既然只要打开相应的博文网址就可以增加访问量、阅读量了,那么我们只要能写个程序能执行打开事先给定的页面,那问题不久解决了?然后心想那就用这学期学的java来实现吧。

    以下是实现代码:我在Test包下创建了DesktopTest2这个类!!!

    package Test;
    
    import java.awt.Desktop;
    import java.net.URI;
    import java.util.ArrayList;
    
    public class DesktopTest2 {
    
    	private static Desktop desktop;//定义私有静态成员变量
    	public static   ArrayList<String> strList = new ArrayList<String>();//定义String类型的泛型集合
    	
    	//以下是我的博文的网址
    	public static String str = "https://blog.csdn.net/qq_41998273/article/details/86771608";
    	public static  String str1="https://blog.csdn.net/qq_41998273/article/details/86765914";
    	public static String str2="https://blog.csdn.net/qq_41998273/article/details/86765723";
    	public static String str3 = "https://blog.csdn.net/qq_41998273/article/details/86765899";
    	public static  String str4="https://blog.csdn.net/qq_41998273/article/details/86762440";
    	public static String str5="https://blog.csdn.net/qq_41998273/article/details/86758106";
    	public static String str6 = "https://blog.csdn.net/qq_41998273/article/details/86756095";
    	public static  String str7="https://blog.csdn.net/qq_41998273/article/details/86750498";
    	public static String str8="https://blog.csdn.net/qq_41998273/article/details/86750023";
    	
    	/*
    	 * 定义了一个通过默认浏览器打开相应网址的方法
    	 * 这个方法还用到了有关Desktop类的一些内容,大家可以自行百度或者查看相应API
    	 */
    	public static void browse(String uri){
    		
    		if(Desktop.isDesktopSupported()){//判断是否支持DeskTop
    			desktop = Desktop.getDesktop();
    			try{
    				desktop.browse(new URI(uri));
    			}catch(Exception e){
    				e.printStackTrace();
    			}
    			
    		}
    	}
    	
    	/*
    	 * 调用这个方法将事先写好的网址写入泛型集合strList
    	 */
    	public static void addUri(){	
    		strList.add(str);
    		strList.add(str1);
    		strList.add(str2);
    		strList.add(str3);
    		strList.add(str4);
    		strList.add(str5);
    		strList.add(str6);
    		strList.add(str7);
    		strList.add(str8);
    	}
    	
    	public static void main(String[] args) {
    		int i =0;
    		addUri();
    		while(true){	//一直循环
    			try{
    				if(i<9)	//判断是否小于博文数量,不然可能会出现越界错误
    				{
    					browse((String)strList.get(i));
    					Thread.sleep(30000);	//这里的单位为毫秒 我这里设置每个 网址之间间隔30s 这里可以根据情况改
    				}else{
    					i=-1; //将i重置为-1 因为后面会进行i++ 加1后就变成了0
    					 // 启用cmd运行chrome的方式来退出
    					 Runtime.getRuntime().exec("taskkill /F /IM chrome.exe"); //我默认浏览器是 chrome  
    					 			//如果你的事firefox 将chrome改为firefox即可
    					Thread.sleep(3600000);	//这里的单位为毫秒 我这里设置每个访问所有博文后 休眠1小时 这里可以根据情况改
    				}			
    			}catch(Exception e){
    				e.printStackTrace();
    			}
    			i++;
    		}
    
    	}
    
    }
    

    运行效果:

    最后说一句,以上只是个人的突发奇想, 还是要自己靠博客质量来获得访问量才是硬道理。

     

    展开全文
  • 实现用户访问量/功能访问量的统计信息的查询-接上篇过滤器 拦截器前言1、情景分析与介绍1.1 数据库表1.1.1 设计表1.1.2 visit_records_number用户访问数 数据展示1.1.3 visit_records_function各功能的用户点击量 ...
  • 【代码】用最简单的方式刷网页访问量

    万次阅读 多人点赞 2018-08-22 21:15:17
    因为我觉得我写的博客还是蛮不错的,可以帮很多人少走一些弯路,而低的阅读量在搜索排名中是很不占优的,所以希望我的博客能让更多人受益,刷一点访问量啦,还请原谅。 看到网上那么多资料,感觉都太复杂,还要去买...
  • 在网站推广活动之前,业务方根据经验评估出的系统访问量PV,然后根据各个系统所占的流量比例,计算出每个子系统的访问量,比如商品列表1000万,商品详情1500万,下单500万等,然后根据每个系统和数据库的交互次数,来算出...
  • ~Jsp可以进行简单的页面访问量统计,当然也可以使用Jsp刷访问量。 1:第一种使用全局变量进行页面的访问量统计,只有新打开一个浏览器才可以进行统计。 2:第二种使用application进行页面的访问量统计,也是打开一...
  • nginx访问量统计

    千次阅读 2017-11-21 15:50:06
    nginx访问量统计 PV(访问量):即Page View, 即页面浏览量或点击量,用户每次刷新即被计算一次。 UV(独立访客):即Unique Visitor,访问您网站的一台电脑客户端为一个访客。00:00-24:00内相同的客户端只被计算一次。...
  • Blog访问量记录

    千次阅读 2014-08-04 18:47:13
    Blog访问量记录
  • 前言:相信很多写博客的朋友,会苦恼于博客访问量上不去的问题。博主最近工作比较新手动谢了个小程序,一个可以刷访问量的程序。当然主要是针对csdn博客。有了他 就再也不必担心博客访问量上不去的问题了。注:博客最...
  • 爬虫刷博客访问量测试

    千次阅读 2020-06-09 19:40:00
    爬虫刷博客访问量测试
  • Nginx 配置之后在电脑上的并发访问量比直接使用tomcat的并发访问量低是什么原因??怎样解决??
  • CSDN博客访问量问题

    千次阅读 2018-03-29 18:35:43
    亲测,发现CSDN博客访问量算法有问题。 随意打开自己任意一片博客,刷新,都算一次访问了,但短时间内持续刷新没有算访问量。 过几分钟,重新刷新,又算一次访问量访问量又 +1。 话说CSDN,这个访问量的算法...
  • 使用Python增加csdn的访问量

    万次阅读 2020-05-03 11:40:42
    虽然文章的质量是访问量的关键,我们不能让别人访问,还不能自己给自己点赞么?发挥自己的主动性,在每天电脑开机时,就访问一下自己的Blog,增加点点击量。 当然平台也不是吃素的,会防刷点击量的,所以每天只能...
  • nginx访问量分析

    千次阅读 2019-01-11 14:43:40
    nginx 配置status模块后,可以获取到访问量信息如下: Active connections: 391 server accepts handled requests 47866689 47866689 279005479 Reading: 0 Writing: 2 Waiting: 389 计划每分钟读取一次...
  • 访问量统计代码

    千次阅读 2018-07-18 22:46:53
    mysql中新建一张表,DDL如下: CREATE TABLE `cmf2_count` (  `id` int(50) NOT NULL...  `visits` bigint(20) NOT NULL COMMENT '今日访问量',  `addtime` date NOT NULL COMMENT '日期',  PRIMARY KEY...
  • hexo博客添加访问量统计

    千次阅读 2019-07-03 14:15:13
    1、配置是否开启不蒜子访问量统计功能 在themes/yilia/_config.yml添加属性 # 是否开启访问量统计功能(不蒜子) busuanzi: enable: true 2、引入不蒜子并添加站点访问量 在themes/yilia/layout/_partial/...
  • ASP网站访问量计数器

    千次阅读 2016-12-19 13:39:14
    ASP网站访问量计数器
  • 快速提高 CSDN 访问量

    千次阅读 热门讨论 2017-07-24 09:36:33
    多写常用知识点的博客,想办法提高百度排名,注意标题不要写的太复杂写国内比较新的技术,中短期奇效,效果很好成系列的写技术文章,有利于增加评论,粉丝,中长期能够大幅度提高日常访问量成系列的专栏,利于增加粉丝,亦能...
  • 统计网站的访问量

    千次阅读 2018-10-13 21:03:26
     * 统计访问量  * 1.获取/servletcontext对象  * 2.从ServletContext对象中获取名为count的对象  * 3.如果存在,访问量加1,再保存回去  * 4.如果不存在,说明第一次访问,想Servletcontext中保存名为count的...
  • 统计ip地址访问量

    千次阅读 2017-04-19 00:26:37
    访问量的统计,通过filter实现
  • CSDN个人博客访问量突破300万

    千次阅读 2019-10-27 18:36:02
    这篇文章单纯就是为了记录一下,自己个人博客的成长,终于在今天完成了300万的访问量。 在博客阅读量2999999时成功截图,留作纪念。 同时,由于最近的专职写作,每天CSDN的浏览量直线上升,周末都维持在每天1万+的...
  • 如何提高CSDN博客的访问量

    千次阅读 多人点赞 2019-11-03 10:05:03
    虽然不是很多,但小菌已经非常满足了,毕竟在CSDN上开源分享,总结经验才是最重要的,访问量,点赞数,评论数等附加数据则是用来评判博客内容质量好坏以及其本身受欢迎程度。最近小菌去浏览了一下博客周排行榜以及总排行榜...
  • 我会从标题、内容质量、内容格式分析、博客维护等方面来讲,我刚开始写博客的时候,前期是没有访问量的,这很正常! 首先,比如写一篇解决问题的博客,那么就要站在其他人角度去思考,我看到这个问题,我该怎么百度...
  • 并发性能与访问量

    千次阅读 2017-02-08 14:02:50
    中小型信息企业的开发团队经常听到一句话:我们访问量不大,系统不必设计的这么复杂。然后却经常莫名其妙的发现些用户重复信息、订单重复提交、关键性数据溢出或者超出范围的问题。不好意思,访问量和并发性能有时候...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 109,896
精华内容 43,958
关键字:

访问量