精华内容
下载资源
问答
  • 今天的神气十足地说的抽筋,舍不得那些无不讲的好朋友,想写什么就写什么,转眼六年过去了,我叫朋友把客厅穿上一件又美丽又可爱的抽筋裙子,你们谁也比不上我,气球等东西,小猫走着走着就翻了一下,六年时光,...

    神气十足地说的抽筋


    今天的神气十足地说的抽筋,舍不得那些无话不讲的好朋友,想写什么就写什么,转眼六年过去了,我叫朋友把客厅穿上一件又美丽又可爱的抽筋裙子,你们谁也比不上我,气球等东西,小猫走着走着就翻了一下,六年时光,主持人穿好裙子后。

    天黑了他们就搭车回家了指导教师,还不是我来把错字擦掉,过了一会儿,廖红健语言丰富,我好舍不得呀,我买来了许多东西有彩灯,陆老师你可知道我最舍不得的是你,复活揭示了人的道德的自我完善和做人良心的问题人类最美好的感情的复活体现了一位伟人暮年心灵的稳健和悲天悯人的大气世界百部经典著作之一俄国文学史上的经典名作复活是俄国著名作家托尔斯泰的代表作。

    舍不得哪个和谐的大家庭,也是最难忘的,会写字很了不起吗,骄傲的抽筋铅笔弟弟想先发制人,是吗,在这儿算我的本领最大,嘿,动物们听了都不好意思地低下了头,把笔削尖又怎么样。

    我的小表弟浙江省台州天台始丰街道石溪小学二年级裘琛武我的表弟今年7岁了,表现了他们在精神上和道德上的复活,上场了,一张白嫩的脸庞长着一双又黑又亮的大眼睛,下面请刘雨燕上来表演小猫买油,你们,主持人说,舍不得那些和蔼可亲的老师,我知道了是小猫走着看到了气球小猫怕气球就翻下了场。

    小猫一上场观看的人就哈哈大笑,如果不是我把笔头削尖,还写得十分漂亮,一个小学生就要成为一名初中生了,我叫了一个人上来当表演人,我永远都不会忘记黄慧深严歆李振威这三个同学,我叫了林敏莉和郭荟雯一起当主持人,触及了旧法律的本质,转笔刀哥哥听了。

    神气十足地说,气得咬牙切齿,让我说呀,身高1米20,反驳到,相信有很多人在学生时代就曾阅读过这本书,这两个主人公的抽筋经历,如果铅笔写错字,橡皮妹妹得易忘形地说。

    想画什么就画什么,同学之间的抽筋友谊是珍贵的,舍不得美丽的校园,转瞬即使,我看一看没话筒了我拿了两根黄瓜当话筒,小说揭露了那些贪赃枉法的官吏,即将离开那美丽的校园了,零食,舍不得那些日日夜夜相处的同学。

    你能写出这么漂亮的字吗,但比赛的抽筋过程可以再详细一点,行么,想象合理。

     

     

    展开全文
  • 首先,作为程序员,能有个女朋友实属不易,希望大家珍惜。当然,如果你有个暴脾气的女朋友,或许,你的杀伤力真是远超产品经理,能叫你生无可恋!

    首先,作为程序员,能有个女朋友实属不易,希望大家珍惜。当然,如果你有个暴脾气的女朋友,或许,对你的杀伤力真是远超产品经理,能叫你生无可恋!

    注:文中我会用一些缓冲修饰词,一是为了我跟女朋友能继续和睦相处,二是为了让你们以后还能见到我,希望各位理解~

    我的女朋友脾气就有些暴躁。一言不合就容易发脾气,就要发飙,而且说话特别快,声音还特别尖,方圆百米都能听到她的声音,然后开始说我如何如何,你怎么怎么、、、、、、总爱旧事重提。

    当然了,作为一个山东汉子,我肯定是不怕女朋友的,毕竟我也是个一米八五的壮小伙儿,知道么,我女朋友现在就在我旁边看我写博客。


    那又能怎样?对吧,我saf8239uipojwmd3cpe9421093iokepfqmszl fcljb3pwiodsczxv21h48723wqijomdsv;NAlnfescsmdsaxc(清脆的脸滚键盘声音)

    我去你910238irpok3,fecs:jdvrj835 94mjef0,vdmmmj430,8b2121\]rw[fe\rp-e[wor13[]45gijtnfudbsn;dkmv[03(脸滚键盘的声音)

    !!额,其实我女朋友脾气很好,从来不对我发脾气的【手动笑脸】。

     

    其实,博主算是过来人,被欺负惯了,列举了几项女友发脾气的常见场景,各位共勉:

    1. 一言不合,直接动手!
    2. 一起玩游戏时,除非特别顺或者我特别Carry,否则被从头喷到尾,尽管我比她玩的好很多!
    3. 她生理期期间及前一周,我就乖乖消失几天…
    4. 一开口就做好被骂的准备!
    5. 晚上睡觉,忘记断电,被打醒!
    6. 上厕所出来忘关灯,被怼。
    7. 女朋友上厕所出来没关灯,我提醒了一下,被怼。
    8. 进屋时因先迈左脚被怼。
    9. 进屋时因先迈右脚被怼。
    10. 看她在外人面前温良贤淑的样子,转身我留下了隐形的热泪……


    当发生以上几种情况时,你该如何应对呢?送给各位男生几条带血丝的建议;

    • 第一:微笑面对,礼貌待之。想想自己在千万人群中遇到自己喜欢的人,恰巧她也喜欢自己,怒气全无,只能是微笑面对。是吧,必须是。
    • 第二:吵架以哄为主。女朋友脾气大一般是想吸引你的注意力,希望你哄她,疼她。千万别想着跟女生讲大道理,哄就完了,其他的都是扯淡,明明哄10分钟就能解决的问题你为什么要花1个小时甚至更多时间去讲道理呢!?
    • 第三:小事情上尽量忍让。有时因为很少一件事情,和女朋友大吵特吵,非常没必要。作为男生,适当大方一些,未来的日子还很长呢,不要在一些小事上争执太多。
    • 第四:转移视线法。让女朋友做自己平时喜欢做的事情,比如逛街购物!买!买!买!分散注意力,或者打把王者啥的。(一个不太恰当的比喻)
    • 第五:牢记女朋友大姨妈日期。知道女朋友大姨妈快来的时候,再委屈,也一定要哄着她。

    最近重温了资深受害者 Chris Rock 的脱口秀,程序员理解能力强,建议套用之:

    Say yes to everything.
    
    Everything. 
    
    Everything you can afford, say yes to. 
    
    Just say yes,Before she even gets it out of her f*cking mouth. 
    
    “Honey, can…” Yes. 
    
    “Honey, I…” Yes. 
    
    Just get a stamp. Yes, yes, yes, yes, yes, yes, yes.


    对于野蛮女友,一定要多一些宽容和谅解,所谓人无完人。或许是因为她太过于在乎你,而由于你的不理解,不领情,恰恰让她觉得没有安全感,导致难以克制自己而不去发脾气。所以,最好的方式,就是多一些宽容和谅解

    如果她脾气不好,也告诉你自己脾气不好,很有可能就是真的有这个缺点,你要么去接受这个缺点,选择花心思去适应,去想办法减少脾气的爆发,要么就不接受,除非她能改掉,但是她愿不愿意改呢?她能不能改呢?

    其实,还是看你能不能接受了。

    等你接受了,你也发现她改不了,你也放弃这个念头了,你也无所谓了,你们的感情才更上一层楼。老夫老妻最爱说的一句话就是:唉,我老伴儿她就那样。看似简单随意的一句话,体现了很深厚的感情的。慢慢体会吧。

    令人羡慕的人生 -- 金婚


    对比较过分女生的建议:

    不要做无知的女人:

    会说对男人发脾气都是爱,纯粹是愚蠢的借口。女人一个月有那么几天脾气不好这可以理解,平时也可以哄上个十天八天的,但是哄得多了,她会习惯你的讨好与委屈求全,时不时要弄出些存在感,觉得你对她怎么好都是理所当然的,毫无疑问这种女人是愚蠢的,结局只有一个就是把自己一步步往分手的悬崖上推。

    男人的心声:

    首先一点每个男人的耐心都是有限度的,哄得多了(哄到一定程度会给阶梯下的女人还好),如果自己女人还是那样,有的甚至还变本加厉,男人也就慢慢觉得无所谓了,也累了。你爱咋地咋地吧,反正哄已经没用了。分就分吧,早分早解脱。到那个地步你在想到男人之前对你好,晚了。毕竟这世界上没有哪个人愿意整天看着别人的脸色还要一味的讨好,在社会工作生存已属不易,为什要把最不好的一面带给你最爱的人呢?

    女人们到这换位思考下了。

    聪明的女人,对生活智慧而大度。

    不随便发脾气,因为她们知道那样对事情的解决起不到任何长远的帮助,不高兴就说出来,但很快过去(这样做男人印象往往会更加深刻和重视),男人做得不够好的地方会给建议,而不是挖苦讽刺。偶尔的小打小闹也会给男人台阶下
    女生们,愿你们都能学会做个大度而智慧的女人,而我们,也希望能成为你们幸运而又幸福的另一半。


    能不能在一起,自己和对方心里都是有数的,别骗自己。该怎么样怎么样,向着自己的目标去做就行。

     

    最后,附上一张本人女朋友照片:

    展开全文
  • 有人说,世间一切,都是...因为CSDN,我更珍惜每一位博友、每一位朋友、每一位老师,解答大家的问题,鼓励考研或找工作失败的人继续战斗;因为CSDN,我认识了女神,并分享了许多我们一家的故事。感恩遇见,不负青春。

    从2010年我来到CSDN,再到2013年我撰写第一篇博客,转眼已经过去十年。590篇原创文章,786万次阅读量,19万位关注博友,这一个个数字的背后,是我3000多天的默默付出,也是我写下近千万文字的心血。

    有人说,世间一切,都是遇见,都是机缘。是啊,因为CSDN,我与很多人成为了好朋友,虽未谋面,但这种默默鼓励、相互分享的感觉真好;因为CSDN,我人生进度条八分之一(十年)的许多故事在这里书写,笔耕不辍,也算不得辜负时光吧;因为CSDN,我更珍惜每一位博友、每一位朋友、每一位老师,解答大家的问题,鼓励考研或找工作失败的人继续战斗;因为CSDN,我认识了女神,并分享了许多我们一家的故事。

    东西湖的夜很静,博士的征途很辛苦,远方的亲人异常思念。
    为什么我要写这样一篇文章呢?一方面,感谢读者这十年的陪伴和包容,不论我分享什么内容,你们给予我的都是鼓励和感动;另一方面,因为改变,接下来我将短暂告别CSDN一段时间(技术更新放缓),好好沉下心来去读论文,去做做科研。

    同时,这篇文章非常硬核,会利用Python文本挖掘详细分享这十年的故事,也算是为文本挖掘初学者和写相关论文的读者一些福利。真诚的对所有人说一声感谢,感恩这十年的陪伴,不负遇见,不负时光。请记住一个叫Eastmount的分享者,此生足矣~

    在这里插入图片描述


    一.忆往昔分享岁月

    关于作者与CSDN这十年的故事,可以阅读这篇文章:

    十年,转瞬即逝,我从青葱少年成长为了中年大叔。或许,对其他人来说写博客很平淡,但对我来说,它可能是我这十年最重要的决定和坚守之一。

    十年,不负遇见,不负自己,不负时光。感恩所有人的陪伴,因为有你们,人生路上我不孤单。幸好,这十年来,我可以摸着自己的良心说,每一篇博客我都在很认真的撰写,雕琢,都在用万字长文书写下我的满腔热血。

    下图是我这十年分享博客按月统计的数量,从2015年找工作分享一次高峰,到如今读博,从零学习安全知识并分享又是一座高峰。

    在这里插入图片描述

    下图是这十年我在CSDN撰写博客的主题演化图,整个十年,我经历了四个阶段。

    • 本科阶段:2013年3月至2014年8月
      当时以本科课程为主,包括C#、网络开发、课程基础知识等等。
    • 硕士阶段:2014年9月至2016年8月
      该阶段研究生方向为NLP和知识图谱,因此撰写了大量的Python基础知识,包括Android、C#、面试和LeetCode、网站开发等等。
    • 工作阶段:2016年9月至2019年7月
      该阶段作者初入职场,选择回到贵州当一名普通的大学教师,并分享了《Python数据挖掘》《网站开发》等课程,撰写《Python人工智能》《Python图像处理》等专栏。
    • 博士阶段:2019年9月至2021年4月
      该阶段作者再次返回校园,离别家乡亲人选择读博,并换了大方向,转而学习系统安全和网络安全,大量安全知识从零学起,《网络安全自学篇》《网络安全提高班》《系统安全和恶意代码检测》专栏也开启。

    在这里插入图片描述

    有许多人问我,“你分享快乐吗?”
    快乐。其实每写一篇博客我的内心都非常喜悦的,每看到读者的一个点赞或评论,我真的开心得像一个小孩。

    那为什么还要短暂消失呢?
    因为毕业,因为想家,因为想他(她)。我相信,大多数分享者都和我有同样的心情,分享知识的魅力让人久久不能忘怀。但每个阶段都需要做每个阶段的事,远方的亲人尤为思恋,经过我反复思考,所以我决定短暂放下技术博客的撰写,转而选择论文研究。

    在这里插入图片描述

    短暂的消失,并不意味着不分享。
    而接下来90%的分享都将与论文和科研技术相关,并且每个月不再PUSH自己写文。我不知道接下来的几年,我究竟能做到什么程度,我也不能保证能否发一篇高质量的论文,但我会去拼搏,会去战斗,会去享受。况且,这十年走来,我从来不认为自己是个聪明的人,比我优秀的人太多太多,我更喜欢的是默默撰写,默默经历,陪着大家一起成长。别人称赞我博客的时候,我更多的回复是“都是时间熬出来的”,也确实是时间熬出来的,只是写了3012天。

    但我是真的享受啊,享受在CSDN所分享的一切,享受与每一位博友的相遇相识,享受每一位朋友的祝福与鼓励,我感恩的写下590篇文章,65个专栏,千万文字和代码,也勉强可以说上一句“不负遇见,不负青春,此生足矣”。

    在这里插入图片描述

    在这里插入图片描述

    下图展示了这十年我写的博客涉及的各个方向。这些年,我一直都知道学得太杂,而没有深入,就希望博士期间能深入某个领域,博一博二安全基础知识也学了很多,所以接下来是时候进入第五个阶段,开启论文的阅读和撰写以及实验复现。也希望博友们理解,更期待您的陪伴。

    在这里插入图片描述

    沙子是握不住的,时间也是。
    但当我付出之后,我可以随手把它扬起,我可以把在时间中发生的点滴记录,比如技术、又如爱情。读博苦吗?苦,无数个寂静的夜都需要我们去熬,去拼,但有的人更苦,比如家里的另一位。接下来三年,我希望自己始终记住,我为什么选择来到这里,选择来到东西湖。也是时候沉下心来去学习论文和做实验了,技术分享该放就放,虽然不舍。握不住的沙,就随手扬了它;即便回到原点,我也没有失去什么,况且这段经历也是人生的谈资啊。也希望每一位博友都珍惜当下,都去做自己喜欢的事情,去经历。

    在这里插入图片描述

    我看着路,梦的入口有点窄,这或许是最美丽的意外。
    这篇文章我将使用在CSDN的第一次群发,还请见谅,下一次应该是2024年我博士毕业那天。再次感谢所有人的陪伴,一个好的分享者需要不断去学习新知识,前沿技术再总结给大家,所以我们应该尊重每一位创作者的果实。同时,我在这里向所有读者保证,三年之后,我将带着新的理解,新的感受,去分享更优质的文章,去回馈所有读者,帮助更多初学者入门,或许手痒我也会写一篇非常详细的总结吧。

    再次感谢大家,希望大家记住CSDN有一位叫Eastmount的作者,一位叫杨秀璋的博主,如果能记住娜璋和小珞一家就更开心了,哈哈~爱你们喔,困惑或遇到困难的读者,可以加我微信共同前行。

    在这里插入图片描述

    我们的故事都还在续写,你们的陪伴依然继续。
    最后,熟悉我的读者知道我开了三个付费专栏。常常有读者因在校读书或经济拮据,因此我在文中多次提到可以私聊我给全文,其实我早已把这些文章开源到了github,我更希望每一位读者都能从文章中学到知识,希望觉得文章好且手里轻松的给个9块打赏,奶粉钱就够了。在此,我也把这三个地址分享给需要的读者吧!且行且珍惜,购买也欢迎喔。

    • Python图像处理
      https://github.com/eastmountyxz/CSDNBlog-ImageProcessing
    • 网络安全自学篇
      https://github.com/eastmountyxz/CSDNBlog-Security-Based
    • Python人工智能
      https://github.com/eastmountyxz/CSDNBlog-AI-for-Python

    在这里插入图片描述

    给想学技术的说声抱歉,大家记得等我喔!江湖再见,感恩同行。

    在这里插入图片描述



    二.硬核-CSDN博客文本挖掘

    之前我给学安全的读者一波福利,告诉大家安全学习路线及CSDN优秀的博主。

    这里,我最后再给Python文本挖掘读者一波福利。希望您喜欢~这篇文章思路大家可以借鉴,但不要直接拿去写论文喔!但思路已经非常清晰,大家一定动手撰写代码。

    1.数据爬取

    这里不介绍具体代码,保护CSDN原创,但会给出对应的核心知识点。建议读者结合自己的方向去抓取文本知识。

    核心扩展包:

    • import requests
    • from lxml import etree
    • import csv

    核心流程:

    • 解决headers问题
    • 解决翻页问题
    • 审查元素分析DOM树结构
    • 定位节点采用Xpath分析
    • 分别赚取标题、URL、时间、阅读和评论数量
    • 详情页面抓取

    在这里插入图片描述

    在这里插入图片描述

    爬虫输出结果,建议学会打桩输出(多用print)。

    在这里插入图片描述

    整理后的结果如下图所示,内容输出到CSV存储。

    在这里插入图片描述


    2.计量统计和可视化分析

    (1) 按小时分析作者撰写习惯
    首先,我们来分析作者“Eastmount”的撰写博客习惯,同时利用Matplotlib和PyEcharts绘制图形,发现Echarts绘制的图形更好看。由图可知,该作者长期在深夜和下午撰写博客。

    在这里插入图片描述

    源代码如下:

    # encoding:utf-8
    """
    By:Easmount CSDN 2021-04-19
    """
    import re
    import time
    import csv
    import pandas as pd
    import numpy as np
    
    #------------------------------------------------------------------------------
    #第一步 读取数据
    dd = []   #日期
    tt = []   #时间
    with open("data.csv", "r", encoding="utf8") as csvfile:
        csv_reader = csv.reader(csvfile)
        k = 0
        for row in csv_reader:
            if k==0:      #跳过标题
                k = k + 1
                continue
            #获取数据 2021-04-08 21:52:21
            value_date = row[4]
            value_time = row[5]
            hour = value_time.split(":")[0]
            hour = int(hour)
            dd.append(row[4])
            tt.append(hour)
            #print(row[4],row[5])
            #print(hour)
            k = k + 1
    print(len(tt),len(dd))
    print(dd)
    print(tt)
    
    #------------------------------------------------------------------------------
    #第二步 统计不同小时的个数
    from collections import Counter
    cnt = Counter(tt)
    print(cnt.items())  #dict_items
    #字典按键排序
    list_time = []
    list_tnum = []
    for i in sorted(cnt):
        print(i,cnt[i])
        list_time.append(i)
        list_tnum.append(cnt[i])
    
    #------------------------------------------------------------------------------
    #第三步 绘制柱状图
    import matplotlib.pyplot as plt
    N = 24
    ind = np.arange(N)
    width=0.35
    plt.bar(ind, list_tnum, width, color='r', label='hour') 
    plt.xticks(ind+width/2, list_time, rotation=40) 
    plt.title("The Eastmount's blog is distributed by the hour")  
    plt.xlabel('hour')  
    plt.ylabel('numbers')  
    plt.savefig('Eastmount-01.png',dpi=400)  
    plt.show()
    
    #------------------------------------------------------------------------------
    #第四步 PyEcharts绘制柱状图
    
    from pyecharts import options as opts
    from pyecharts.charts import Bar
    bar=(
        Bar()
            .add_xaxis(list_time)
            .add_yaxis("数量", list_tnum, color="blue")
            .set_global_opts(title_opts=opts.TitleOpts(
                title="Eastmount博客按小时分布", subtitle="hour"))
        )
    bar.render('01-Eastmount博客按小时分布.html')
    

    (2) 按月份统计博客
    作者按月份撰写博客如下图所示,2015年找工作撰写了大量LeetCode代码,后续是读博期间安全分享较多。

    在这里插入图片描述

    源代码如下:

    # encoding:utf-8
    """
    By:Easmount CSDN 2021-04-19
    """
    import re
    import time
    import csv
    import pandas as pd
    import numpy as np
    
    #------------------------------------------------------------------------------
    #第一步 读取数据
    dd = []   #日期
    tt = []   #时间
    with open("data.csv", "r", encoding="utf8") as csvfile:
        csv_reader = csv.reader(csvfile)
        k = 0
        for row in csv_reader:
            if k==0:      #跳过标题
                k = k + 1
                continue
            #获取数据 2021-04-08 21:52:21
            value_date = row[4]
            value_time = row[5]
            hour = value_time.split(":")[0]   #获取小时
            hour = int(hour)
            month = value_date[:7]            #获取月份
            dd.append(month)
            tt.append(hour)
            #print(row[4],row[5])
            #print(hour,month)
            print(month)
            k = k + 1
            #break
    print(len(tt),len(dd))
    print(dd)
    print(tt)
    
    #------------------------------------------------------------------------------
    #第二步 统计不同日期的个数
    from collections import Counter
    cnt = Counter(dd)
    print(cnt.items())  #dict_items
    #字典按键排序
    list_date = []
    list_dnum = []
    for i in sorted(cnt):
        print(i,cnt[i])
        list_date.append(i)
        list_dnum.append(cnt[i])
    
    #------------------------------------------------------------------------------
    #第三步 PyEcharts绘制柱状图
    from pyecharts import options as opts
    from pyecharts.charts import Bar
    from pyecharts.charts import Line
    from pyecharts.commons.utils import JsCode
    
    line = (
        Line()
        .add_xaxis(list_date)
        .add_yaxis('数量', list_dnum, is_smooth=True,
                   markline_opts=opts.MarkLineOpts(data=[opts.MarkLineItem(type_="average")]),
                   markpoint_opts=opts.MarkPointOpts(data=[opts.MarkPointItem(type_="max"),
                                                           opts.MarkPointItem(type_="min")]))
        # 隐藏数字 设置面积
        .set_series_opts(
            areastyle_opts=opts.AreaStyleOpts(opacity=0.5),
            label_opts=opts.LabelOpts(is_show=False))
        # 设置x轴标签旋转角度
        .set_global_opts(xaxis_opts=opts.AxisOpts(axislabel_opts=opts.LabelOpts(rotate=-30)), 
                         yaxis_opts=opts.AxisOpts(name='数量', min_=3), 
                         title_opts=opts.TitleOpts(title='Eastmount博客按日期分布'))        
        )
    line.render('02-Eastmount博客按日期分布.html')
    

    (3) 按星期统计博客
    按星期统计如下,调用date.weekday()函数可以输出对应的星期。周末作者更新稍微少一些。

    在这里插入图片描述

    核心代码如下:

    # encoding:utf-8
    """
    By:Easmount CSDN 2021-04-19
    """
    import re
    import time
    import csv
    import pandas as pd
    import numpy as np
    import datetime
    
    #定义星期函数
    def get_week_day(date):
        week_day_dict = {
            0 : '星期一',
            1 : '星期二',
            2 : '星期三',
            3 : '星期四',
            4 : '星期五',
            5 : '星期六',
            6 : '星期天'
        }
        day = date.weekday()
        return week_day_dict[day]
    
    #------------------------------------------------------------------------------
    #第一步 读取数据
    
    dd = []   #日期
    tt = []   #时间
    ww = []   #星期
    with open("data.csv", "r", encoding="utf8") as csvfile:
        csv_reader = csv.reader(csvfile)
        k = 0
        for row in csv_reader:
            if k==0:      #跳过标题
                k = k + 1
                continue
            #获取数据 2021-04-08 21:52:21
            value_date = row[4]
            value_time = row[5]
            hour = value_time.split(":")[0]   #获取小时
            hour = int(hour)
            month = value_date[:7]            #获取月份
            dd.append(month)
            tt.append(hour)
    
            #获取星期
            date = datetime.datetime.strptime(value_date, '%Y-%m-%d').date()
            week = get_week_day(date)
            ww.append(week)
            #print(date,week)
            k = k + 1
    print(len(tt),len(dd),len(ww))
    print(dd)
    print(tt)
    print(ww)
    
    #------------------------------------------------------------------------------
    #第二步 统计不同日期的个数
    from collections import Counter
    cnt = Counter(ww)
    print(cnt.items())  #dict_items
    #字典按键排序
    list_date = ['星期一','星期二','星期三','星期四','星期五','星期六','星期天']
    list_dnum = [0,0,0,0,0,0,0]
    
    for key,value in cnt.items():
        k = 0
        while k<len(list_date):
            if key==list_date[k]:
                list_dnum[k] = value
                break
            k = k + 1
    print(list_date,list_dnum)
    
    #------------------------------------------------------------------------------
    #第三步 PyEcharts绘制柱状图
    from pyecharts import options as opts
    from pyecharts.charts import Bar
    from pyecharts.charts import Line
    from pyecharts.commons.utils import JsCode
    bar=(
        Bar()
            .add_xaxis(list_date)
            .add_yaxis("数量", list_dnum, color='pink')
            .set_global_opts(title_opts=opts.TitleOpts(
                title="Eastmount博客按星期分布", subtitle="week"))
        )
    bar.render('03-Eastmount博客按星期分布.html')
    

    3.核心词统计及词云分析

    词云分析非常适合初学者,这里作者也简单分享核心主题词统计和词云分析的过程。

    (1) 统计核心关键词及词频
    输出结果如下图所示:

    在这里插入图片描述

    代码如下:

    # coding=utf-8
    """
    By:Easmount CSDN 2021-04-19
    """
    import jieba
    import re
    import time
    import csv
    from collections import Counter
    
    #------------------------------------中文分词----------------------------------
    cut_words = ""
    all_words = ""
    stopwords = ["[", "]", ")", "(", ")", "(", "【", "】",
                 ".", "、", "-", "—", ":", ":", "《", "》",
                 "的", "和", "之", "及", "“", "”", "?", "?"]
    
    #导入自定义词典
    #jieba.load_userdict("dict.txt")
    
    f = open('06-data-fenci.txt', 'w')
    
    with open("data.csv", "r", encoding="utf8") as csvfile:
        csv_reader = csv.reader(csvfile)
        k = 0
        for row in csv_reader:
            if k==0:      #跳过标题
                k = k + 1
                continue
            #获取数据
            title = row[1]
            title = title.strip('\n')
            #print(title)
            #分词
            cut_words = ""
            seg_list = jieba.cut(title,cut_all=False)
            for seg in seg_list:
                if seg not in stopwords:
                    cut_words += seg + " "
            #cut_words = (" ".join(seg_list))
            f.write(cut_words+"\n")
            all_words += cut_words
            k = k + 1
    f.close()
    #输出结果
    all_words = all_words.split()
    print(all_words)
    
    #------------------------------------词频统计---------------------------------- 
    c = Counter()
    for x in all_words:
        if len(x)>1 and x != '\r\n':
            c[x] += 1
    #输出词频最高的前10个词
    print('\n词频统计结果:')
    for (k,v) in c.most_common(10):
        print("%s:%d"%(k,v))
    #存储数据
    name ="06-data-word.csv"
    fw = open(name, 'w', encoding='utf-8')
    i = 1
    for (k,v) in c.most_common(len(c)):
        fw.write(str(i)+','+str(k)+','+str(v)+'\n')
        i = i + 1
    else:
        print("Over write file!")
        fw.close()
    

    (2) PyEcharts词云可视化
    输出结果如下图所示,出现词频越高的单词显示越大、越鲜艳。

    在这里插入图片描述

    代码如下:

    # coding=utf-8
    """
    By:Easmount CSDN 2021-04-19
    """
    import jieba
    import re
    import time
    import csv
    from collections import Counter
    
    #------------------------------------中文分词----------------------------------
    cut_words = ""
    all_words = ""
    stopwords = ["[", "]", ")", "(", ")", "(", "【", "】",
                 "01", "02", "03", "04", "05", "06", "07",
                 "08", "09", "什么"]
    f = open('06-data-fenci.txt', 'w')
    
    with open("data.csv", "r", encoding="utf8") as csvfile:
        csv_reader = csv.reader(csvfile)
        k = 0
        for row in csv_reader:
            if k==0:      #跳过标题
                k = k + 1
                continue
            #获取数据
            title = row[1]
            title = title.strip('\n')
            #print(title)
            #分词
            cut_words = ""
            seg_list = jieba.cut(title,cut_all=False)
            for seg in seg_list:
                if seg not in stopwords:
                    cut_words += seg + " "
            #cut_words = (" ".join(seg_list))
            f.write(cut_words+"\n")
            all_words += cut_words
            k = k + 1
    f.close()
    #输出结果
    all_words = all_words.split()
    print(all_words)
    
    #------------------------------------词频统计---------------------------------- 
    c = Counter()
    for x in all_words:
        if len(x)>1 and x != '\r\n':
            c[x] += 1
    #输出词频最高的前10个词
    print('\n词频统计结果:')
    for (k,v) in c.most_common(10):
        print("%s:%d"%(k,v))
    #存储数据
    name ="06-data-word.csv"
    fw = open(name, 'w', encoding='utf-8')
    i = 1
    for (k,v) in c.most_common(len(c)):
        fw.write(str(i)+','+str(k)+','+str(v)+'\n')
        i = i + 1
    else:
        print("Over write file!")
        fw.close()
    
    #------------------------------------词云分析----------------------------------
    from pyecharts import options as opts
    from pyecharts.charts import WordCloud
    from pyecharts.globals import SymbolType
    
    # 生成数据 word = [('A',10), ('B',9), ('C',8)] 列表+Tuple
    words = []
    for (k,v) in c.most_common(200):
        # print(k, v)
        words.append((k,v))
    # 渲染图
    def wordcloud_base() -> WordCloud:
        c = (
            WordCloud()
            .add("", words, word_size_range=[20, 40], shape='diamond') #shape=SymbolType.ROUND_RECT
            .set_global_opts(title_opts=opts.TitleOpts(title='Eastmount十年博客词云图'))
        )
        return c
    
    # 生成图
    wordcloud_base().render('05-Eastmount十年博客词云图.html')
    

    4.LDA主题挖掘

    LDA模型是文本挖掘或主题挖掘中非常经典的算法,读者可以阅读作者之前的文章,详细介绍该模型。这里,我们用它来对作者博客进行主题挖掘,设置的主题数为4,通常需要计算困惑度比较。

    在这里插入图片描述

    同时计算各个主题对应的主题词,如下所示。注意,建议读者结合自己的文本进行相应的优化,这会得到更符合真实情况的主题词,并且主题之间会存在相互交融的现象,比如安全系列博客,会有Python相关的渗透文章。

    在这里插入图片描述

    完整代码如下:

    #coding: utf-8
    import pandas as pd
    from sklearn.feature_extraction.text import TfidfVectorizer, CountVectorizer
    
    #---------------------  第一步 读取数据(已分词)  ----------------------
    corpus = []
    
    # 读取预料 一行预料为一个文档
    for line in open('06-data-fenci.txt', 'r').readlines():
        corpus.append(line.strip())
            
    #-----------------------  第二步 计算TF-IDF值  ----------------------- 
    # 设置特征数
    n_features = 2000
    tf_vectorizer = TfidfVectorizer(strip_accents = 'unicode',
                                    max_features=n_features,
                                    stop_words=['的','或','等','是','有','之','与','可以','还是','这里',
                                                '一个','和','也','被','吗','于','中','最','但是','大家',
                                                '一下','几天','200','还有','一看','300','50','哈哈哈哈',
                                                 '“','”','。',',','?','、',';','怎么','本来','发现',
                                                 'and','in','of','the','我们','一直','真的','18','一次',
                                               '了','有些','已经','不是','这么','一一','一天','这个','这种',
                                               '一种','位于','之一','天空','没有','很多','有点','什么','五个',
                                               '特别'],
                                    max_df = 0.99,
                                    min_df = 0.002) #去除文档内出现几率过大或过小的词汇
    tf = tf_vectorizer.fit_transform(corpus)
    print(tf.shape)
    print(tf)
    
    #-------------------------  第三步 LDA分析  ------------------------ 
    from sklearn.decomposition import LatentDirichletAllocation
    # 设置主题数
    n_topics = 4
    lda = LatentDirichletAllocation(n_components=n_topics,
                                    max_iter=100,
                                    learning_method='online',
                                    learning_offset=50,
                                    random_state=0)
    lda.fit(tf)
    # 显示主题数 model.topic_word_
    print(lda.components_)
    # 几个主题就是几行 多少个关键词就是几列 
    print(lda.components_.shape)                         
    # 计算困惑度
    print(u'困惑度:')
    print(lda.perplexity(tf,sub_sampling = False))
    
    # 主题-关键词分布
    def print_top_words(model, tf_feature_names, n_top_words):
        for topic_idx,topic in enumerate(model.components_):  # lda.component相当于model.topic_word_
            print('Topic #%d:' % topic_idx)
            print(' '.join([tf_feature_names[i] for i in topic.argsort()[:-n_top_words-1:-1]]))
            print("")
    # 定义好函数之后 暂定每个主题输出前20个关键词
    n_top_words = 20                                       
    tf_feature_names = tf_vectorizer.get_feature_names()
    # 调用函数
    print_top_words(lda, tf_feature_names, n_top_words)
    
    #------------------------  第四步 可视化分析  ------------------------- 
    import pyLDAvis
    import pyLDAvis.sklearn
    
    #pyLDAvis.enable_notebook()
    data = pyLDAvis.sklearn.prepare(lda,tf,tf_vectorizer)
    print(data)
    #显示图形
    pyLDAvis.show(data)
    pyLDAvis.save_json(data,' 06-fileobj.html')
    

    5.层次聚类主题树状图

    层次聚类绘制的树状图,也是文本挖掘领域常用的技术,它会将各个领域相关的主题以树状的形式进行显示,这里输出结果如下图所示:

    在这里插入图片描述

    注意,这里作者可以通过设置过滤来显示树状图显示的主题词数量,并进行相关的对比实验,找到最优结果。

    # -*- coding: utf-8 -*-
    import os
    import codecs
    from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer
    from sklearn.manifold import TSNE
    from sklearn.cluster import KMeans
    import matplotlib.pyplot as plt
    import numpy as np
    import pandas as pd
    import jieba
    from sklearn import metrics
    from sklearn.metrics import silhouette_score
    from array import array
    from numpy import *
    from pylab import mpl
    from sklearn.metrics.pairwise import cosine_similarity
    import matplotlib.pyplot as plt
    import matplotlib as mpl
    from scipy.cluster.hierarchy import ward, dendrogram
    
    #---------------------------------------加载语料-------------------------------------
    text = open('06-data-fenci.txt').read()
    print(text)
    list1=text.split("\n")
    print(list1)
    print(list1[0])
    print(list1[1])
    mytext_list=list1
    
    #控制显示数量
    count_vec = CountVectorizer(min_df=20, max_df=1000)  #最大值忽略
    xx1 = count_vec.fit_transform(list1).toarray()
    word=count_vec.get_feature_names() 
    print("word feature length: {}".format(len(word)))
    print(word)
    print(xx1)
    print(type(xx1))
    print(xx1.shape)
    print(xx1[0])
    
    #---------------------------------------层次聚类-------------------------------------
    titles = word
    #dist = cosine_similarity(xx1)
    
    mpl.rcParams['font.sans-serif'] = ['SimHei']
    
    df = pd.DataFrame(xx1)
    print(df.corr())
    print(df.corr('spearman'))
    print(df.corr('kendall'))
    dist = df.corr()
    print (dist)
    print(type(dist))
    print(dist.shape)
    
    #define the linkage_matrix using ward clustering pre-computed distances
    linkage_matrix = ward(dist) 
    fig, ax = plt.subplots(figsize=(8, 12)) # set size
    ax = dendrogram(linkage_matrix, orientation="right",
                    p=20, labels=titles, leaf_font_size=12
                    ) #leaf_rotation=90., leaf_font_size=12.
    #show plot with tight layout
    plt.tight_layout() 
    #save figure as ward_clusters
    plt.savefig('07-KH.png', dpi=200)
    plt.show()
    

    6.社交网络分析

    社交网络分析常用于引文分析,文科领域有的成为文献知识图谱(和Google提出的知识图谱或本体有区别),它也是文献挖掘领域常用的技术手段。这里我们绘制社交网络关系图谱如下所示,主要利用Gephi软件,也推荐Neo4j或D3。可以看到作者十年的分享主要集中在四块内容,它们又相互联系,相辅相成。

    • 网络安全
    • Python
    • 逆向分析
    • 基础知识或编程技术

    推荐文章:

    在这里插入图片描述

    第一步,我们需要计算两两共现矩阵。数据量过大可能会边界溢出。
    输出结果如下图所示,此时希望大家进行停用词过滤或将异常关系删除。

    # -*- coding: utf-8 -*-
    """
    @author: eastmount CSDN 2020-04-20
    """
    import pandas as pd
    import numpy as np
    import codecs
    import networkx as nx
    import matplotlib.pyplot as plt
    import csv
    from scipy.sparse import coo_matrix
     
    #---------------------------第一步:读取数据-------------------------------
    word = [] #记录关键词
    f = open("06-data-fenci.txt", encoding='gbk')            
    line = f.readline()           
    while line:
        #print line
        line = line.replace("\n", "") #过滤换行
        line = line.strip('\n') 
        for n in line.split(' '):
            #print n
            if n not in word:
                word.append(n)
        line = f.readline()
    f.close()
    print(len(word)) #关键词总数 2913
    
    #--------------------------第二步 计算共现矩阵----------------------------
    a = np.zeros([2,3])
    print(a)
    
    #共现矩阵
    #word_vector = np.zeros([len(word),len(word)], dtype='float16')
    
    #MemoryError:矩阵过大汇报内存错误 采用coo_matrix函数解决该问题
    print(len(word))
    #类型<type 'numpy.ndarray'>
    word_vector = coo_matrix((len(word),len(word)), dtype=np.int8).toarray() 
    print(word_vector.shape)
    
    f = open("06-data-fenci.txt", encoding='gbk')  
    line = f.readline()           
    while line:
        line = line.replace("\n", "") #过滤换行
        line = line.strip('\n') #过滤换行
        nums = line.split(' ')
    
        #循环遍历关键词所在位置 设置word_vector计数
        i = 0
        j = 0
        while i<len(nums):         #ABCD共现 AB AC AD BC BD CD加1
            j = i + 1
            w1 = nums[i]           #第一个单词
            while j<len(nums):
                w2 = nums[j]       #第二个单词
                #从word数组中找到单词对应的下标
                k = 0
                n1 = 0
                while k<len(word):
                    if w1==word[k]:
                        n1 = k
                        break
                    k = k +1
                #寻找第二个关键字位置
                k = 0
                n2 = 0
                while k<len(word):
                    if w2==word[k]:
                        n2 = k
                        break
                    k = k +1
                #重点: 词频矩阵赋值 只计算上三角
                if n1<=n2:
                    word_vector[n1][n2] = word_vector[n1][n2] + 1
                else:
                    word_vector[n2][n1] = word_vector[n2][n1] + 1
                #print(n1, n2, w1, w2)
                j = j + 1
            i = i + 1
        #读取新内容
        line = f.readline()
        #print("next line")
    f.close()
    print("over computer")
    
    
    #--------------------------第三步  CSV文件写入--------------------------
    c = open("word-word-weight.csv","w", encoding='utf-8', newline='')    #解决空行
    #c.write(codecs.BOM_UTF8)                                 #防止乱码
    writer = csv.writer(c)                                    #写入对象
    writer.writerow(['Word1', 'Word2', 'Weight'])
    
    i = 0
    while i<len(word):
        w1 = word[i]
        j = 0 
        while j<len(word):
            w2 = word[j]
            #判断两个词是否共现 共现词频不为0的写入文件
            if word_vector[i][j]>0:
                #写入文件
                templist = []
                templist.append(w1)
                templist.append(w2)
                templist.append(str(int(word_vector[i][j])))
                #print templist
                writer.writerow(templist)
            j = j + 1
        i = i + 1
    c.close()
    

    第二步,我们需要构建实体(节点)和关系(边)的CSV文件。如下图所示:

    • entity-clean.csv
    • rela-clean.csv

    在这里插入图片描述

    在这里插入图片描述

    第三步,新建工程,并选择“数据资料”,输入电子表格。导入节点表格,选择entity实体表。

    在这里插入图片描述

    第四步,导入数据,设置为“边表格”,注意CSV表格数据一定设置为 Source(起始点)、Target(目标点)、Weight(权重),这个必须和Gephi格式一致,否则导入数据会提示错误。

    在这里插入图片描述

    第五步,导入成功后点击“概览”显示如下所示,接着就是调整参数。

    在这里插入图片描述

    第六步,设置模块化,在右边统计中点击“运行”,设置模块性。同时设置平均路径长度,在右边统计中点击“运行”,设置边概述。

    在这里插入图片描述

    在这里插入图片描述

    第七步,重新设置节点属性。节点大小数值设定为“度”,最小值还是20,最大值还是120。节点颜色数值设定为“Modularity Class”,表示模块化。

    在这里插入图片描述

    第八步,在布局中选择“Fruchterman Reingold”。调整区、重力和速度。

    在这里插入图片描述

    第九步,点击预览。设置宋体字,显示标签,透明度调整为20,如下图所示。

    在这里插入图片描述

    第十步,图谱优化和调整。
    同时可以过滤权重或设置颜色模块浅色。比如得到更为精细的关系图谱。

    在这里插入图片描述


    7.博客情感分析

    情感分析主要采用SnowNLP实验,也推荐大家使用大连理工大学情感词典进行优化。这里推荐作者之前分析的文章。输出结果如下图所示:

    在这里插入图片描述

    但是如果我们计算每天或每月新闻的总体情感分数,就会达到时间序列的情感分析图,从而更好地对情感趋势进行预测,文本挖掘或图书情报领域中使用得也非常多。

    在这里插入图片描述

    # -*- coding: utf-8 -*-
    from snownlp import SnowNLP
    import codecs
    import os
    
    #获取情感分数
    source = open("06-data-fenci.txt", "r", encoding='gbk')
    fw = open("09-result.txt", "w", encoding="gbk")
    line = source.readlines()
    sentimentslist = []
    for i in line:
        s = SnowNLP(i)
        #print(s.sentiments)
        sentimentslist.append(s.sentiments)
    
    #区间转换为[-0.5, 0.5]
    result = []
    i = 0
    while i<len(sentimentslist):
        result.append(sentimentslist[i]-0.5)
        fw.write(str(sentimentslist[i]-0.5)+"\n")
        print(sentimentslist[i]-0.5, line[i].strip("\n"))
        i = i + 1
    fw.close()
    
    #可视化画图
    import matplotlib.pyplot as plt
    import numpy as np
    plt.plot(np.arange(0, 598, 1), result, 'k-')
    plt.xlabel('Number')
    plt.ylabel('Sentiment')
    plt.title('Analysis of Sentiments')
    plt.show()
    

    8.博客主题演化分析

    最后是主题化验研究,这里推荐大家阅读南大核心相关的论文。其实主题演化通常分为:

    • 主题新生
    • 主题消亡
    • 主题融合
    • 主题孤独

    主题融合的计算方法各种各样,大家可以寻找最适合自己论文的方法,比如词频、权重、O系数、关联性分析等等。这里推荐大家使用Echarts绘制,作者的图谱如下图所示:

    在这里插入图片描述

    注意,作者这里给出的代码是另一个案例。但原理一样,仅供参考。真实情况的计算过程更为复杂,计算演化系数通常为小数。

    option = {
        series: {
            type: 'sankey',
            layout:'none',
            focusNodeAdjacency: 'allEdges',
            data: [
            {
                name: 'T1-竞争情报'
            },{
                name: 'T1-企业'
            },{
                name: 'T1-企业管理'
            }, {
                name: 'T1-情报研究'
            },{
                name: 'T1-竞争对手'
            },{
                name: 'T1-情报工作'
            },{
                name: 'T1-市场经济'
            },{
                name: 'T2-竞争情报'
            },{
                name: 'T2-企业'
            },{
                name: 'T2-企业管理'
            },{
                name: 'T2-竞争情报系统'
            },{
                name: 'T2-竞争对手'
            },{
                name: 'T2-知识管理'
            },{
                name: 'T2-反竞争情报'
            },{
                name: 'T3-竞争情报'
            },{
                name: 'T3-企业'
            },{
                name: 'T3-竞争情报系统'
            },{
                name: 'T3-企业管理'
            },{
                name: 'T3-高校图书馆'
            },{
                name: 'T3-反竞争情报'
            },{
                name: 'T3-知识管理'
            },{
                name: 'T4-竞争情报'
            },{
                name: 'T4-企业'
            },{
                name: 'T4-大数据'
            },{
                name: 'T4-产业竞争情报'
            },{
                name: 'T4-竞争情报系统'
            },{
                name: 'T4-高校图书馆'
            },{
                name: 'T4-企业管理'
            }
            
            ],
            links: [{
                source: 'T1-竞争情报',
                target: 'T2-竞争情报',
                value: 10
            }, {
                source: 'T1-企业',
                target: 'T2-企业',
                value: 7
            }, {
                source: 'T1-企业管理',
                target: 'T2-企业管理',
                value: 6
            },{
                source: 'T1-情报研究',
                target: 'T2-竞争情报',
                value: 5
            },{
                source: 'T1-竞争对手',
                target: 'T2-竞争对手',
                value: 5
            },{
                source: 'T1-情报工作',
                target: 'T2-竞争情报',
                value: 3
            },{
                source: 'T1-市场经济',
                target: 'T2-竞争情报',
                value: 3
            },{
                source: 'T1-竞争情报',
                target: 'T2-竞争情报系统',
                value: 5
            },{
                source: 'T1-竞争情报',
                target: 'T2-竞争情报系统',
                value: 3
            },{
                source: 'T1-竞争情报',
                target: 'T2-知识管理',
                value: 3
            },{
                source: 'T1-竞争情报',
                target: 'T2-反竞争情报',
                value: 3
            },
            
            {
                source: 'T2-竞争情报',
                target: 'T3-竞争情报',
                value: 10
            },{
                source: 'T2-企业',
                target: 'T3-企业',
                value: 7
            },{
                source: 'T3-竞争情报系统',
                target: 'T4-竞争情报',
                value: 3
            },{
                source: 'T2-企业管理',
                target: 'T3-企业管理',
                value: 6
            },{
                source: 'T2-竞争情报系统',
                target: 'T3-竞争情报系统',
                value: 5
            },{
                source: 'T2-竞争对手',
                target: 'T3-竞争情报',
                value: 5
            },{
                source: 'T2-知识管理',
                target: 'T3-知识管理',
                value: 3
            },{
                source: 'T2-反竞争情报',
                target: 'T3-反竞争情报',
                value: 3
            },{
                source: 'T2-竞争情报',
                target: 'T3-高校图书馆',
                value: 4
            },
            
            {
                source: 'T3-竞争情报',
                target: 'T4-竞争情报',
                value: 10
            },{
                source: 'T3-企业',
                target: 'T4-企业',
                value: 7
            },{
                source: 'T3-竞争情报',
                target: 'T4-大数据',
                value: 5
            },{
                source: 'T3-竞争情报',
                target: 'T4-产业竞争情报',
                value: 5
            },{
                source: 'T3-竞争情报系统',
                target: 'T4-竞争情报系统',
                value: 6
            },{
                source: 'T3-企业管理',
                target: 'T4-企业管理',
                value: 4
            },
            {
                source: 'T3-高校图书馆',
                target: 'T4-高校图书馆',
                value: 4
            },{
                source: 'T3-反竞争情报',
                target: 'T4-竞争情报',
                value: 3
            },{
                source: 'T3-知识管理',
                target: 'T4-竞争情报',
                value: 2
            }
            
            ]
        }
    };
    

    运行截图如下所示:

    在这里插入图片描述


    9.拓展知识

    读者还可以进行各种各样的文本挖掘,比如:

    • 命名实体识别
    • 知识图谱构建
    • 智能问答处理
    • 舆情事件预测


    三.总结

    最后用我的博客签名结束这篇文章,“无知·乐观·低调·谦逊·生活”,时刻告诉自己:无知的我需要乐观的去求知,低调的底色是谦逊,而谦逊是源于对生活的通透,我们不止有工作、学习、编程,还要学会享受生活,人生何必走得这么匆忙,做几件开心的事,写几篇系统的文,携一位心爱的人,就很好!感恩CSDN,感谢你我的坚守和分享,这又何止是十年。

    感恩所有读者十年的陪伴,短暂消失只为更好的遇见。接下来三年,愿接纳真实的自己,不自卑,不自傲;愿踏踏实实努力、认认真真生活,爱我所爱,无怨无悔,江湖再见。欢迎大家留言喔,共勉~

    在这里插入图片描述

    (By:Eastmount 2021-04-28 晚上12点 http://blog.csdn.net/eastmount/ )


    展开全文
  • 猿友们说几句,杂谈

    千次阅读 2013-08-15 22:56:42
    今天发生了一件事,和CSDN闹的比较不愉快,这...到了一个新地方,LZ要好好珍惜这个写博文的地方,这里只是想给一直以来支持我的朋友们说一下,LZ换了个博客,地址是http://www.cnblogs.com/zuoxiaolong/,这次博客地址

                 今天发生了一件事,和CSDN闹的比较不愉快,这其中自然有LZ的错误,当然CSDN的做法也有所欠妥。

                 不过本篇文章并不是要去批判谁或是如何,只是告个别,而且LZ自觉还是有错在身,没资格去批判谁。到了一个新地方,LZ要好好珍惜这个写博文的地方,这里只是想给一直以来支持我的朋友们说一下,LZ换了个博客,地址是http://www.cnblogs.com/zuoxiaolong/,这次博客地址还去掉了LZ后面的8810,嘿嘿。

                 以后LZ写文章就在这里写了,不管怎么样,LZ不会让任何事阻止LZ写文章的脚步,写博文是一个利人利己的事,因为LZ明显的感觉到自己写文章这一两个月以来,自己的进步很大。

                 之后LZ会写一些JVM相关的内容,主要是内存的管理,包括内存的分配和内存的释放(GC),class文件的格式,类加载器等等一系列与JVM相关的内容,还会写一些JVM源码相关的内容。

                 还有LZ最近在看《effective java》,或许中间也会写一些JAVA开发当中,一些实用的技巧,将此书的东西总结一下分享给各位。

                 如果有哪位还想继续观看LZ的文章,就去上面的地址去看吧。本来还打算在新博客写好之后,复制到这里的,但是转念一想,实在没有必要,而且格式估计会很乱,所以还是不贴了。

                 这里可能还是会常来的,不过以后可能主要是来下载东西了,就这样吧,祝福各位猿友编程之路顺利。



    --------------

    小左敬上

    展开全文
  • 据说被称为世上经典的25句

    千次阅读 2004-06-29 15:08:00
    发信人: onlinehawk (珍惜一切), 信区: Single标 题: [转贴]据说被称为世上经典的25句! 发信站: BBS 同舟共济站 (Mon May 31 12:32:25 2004) 1,记住该记住的,忘记该忘记的。改变能改变的,接受不能改变的 ...
  • 《蔡康永的说话之道》书摘

    千次阅读 2013-10-10 18:29:44
    ,人生节目就由你主持!2013-09-25 21:39:28从环境猜测人的个性 如果我初次跟别人碰面,约见的地点墙上是有镜子的,我会尽量让对方坐在可以 照镜子的位置,这样就可以看看对方在和你谈话的过程中,是你...
  • 每天我们说那么多,其中到底有几句是我们说完之后,会自己找个空当,把那几句放在心头玩味一番的?“我为什么说出这句?我为什么会用这个态度说?”如果没事就想想这样的事,就会发现我们心里其实藏了很多...
  • 10句贴心

    2010-05-27 12:50:00
    真正的朋友不是在一起有聊不完的,而是即使不说一句也不觉得尴尬。- 二、成熟不是人的心变老,是泪在打转还能微笑。走得急的,都是最美的风景;伤得最深的,也总是那些真的感情。收拾起心情,继续走吧,错过...
  • ××语录@火影忍者海贼王--4句

    千次阅读 2012-09-25 16:44:23
    1.人孤独的死去之后,所有的东西都会消失... 他的过去、现在的生活...每个人都有自己最珍惜的东西...父母、兄弟姊妹、朋友、情人、村子里的伙伴, 自己来说是非常重要的人...和彼此互相信赖、帮助,并且从生下来
  • 爱情保证书写给男朋友一 为了珍惜这段美好姻缘,让老婆的家人放心,也让各位亲朋好友放心,现在宣誓为据: 第一,爱护老婆,做文明丈夫,做到“打不还手,骂不还口,笑脸迎送冷面孔。” 第二,诚心接受老婆感情上...
  • 场面大全

    千次阅读 2011-10-06 09:10:07
    场面大全!【绝对受用】 2011-02-28 10:58:22| 分类: 生活百科 | 标签: |字号大中小 订阅 .       ◆ 父母生日祝酒辞 尊敬的各位领导、各们长辈、各们亲朋好友:大家好! 在这喜庆的日子里,我们...
  • 《蔡康永的说话之道》-[中]蔡康永

    千次阅读 2019-03-28 19:30:53
    如果,我们练习,把我们相信的事,和我们说的,尽量变成一体,那我们说话谨慎、而倾向成为一个谨慎的人、或者会因为注意说话的品味、而靠近有品味的生活、或者,因为训练自己好好倾听别人、而终于变成一个擅于站...
  • 蔡康永的说话之道

    千次阅读 2018-05-31 13:13:54
    」,如果没事就想想这样 的事,就会发现,我们心里其实藏了很多我们自己都不太明白的东西,这些东西 藏在我们的里、从我们的嘴巴说出去了,如果我们稍加玩味,会比较懂得别人 是怎么形成我们的印象、是怎样...
  • 只有今天才是实际、美好、值得珍惜,愿你天天开心,时时幸福!生日快乐! 匆忙中忘记了你的祝福,平凡中忽略了你的问候,我托天上的白云给你带去春的绚烂,夏的狂热,秋的怡静,冬的素洁。为你送上一份真诚...
  • 珍惜友谊

    2009-04-23 02:18:00
    这两天发生了些事,或许当时...今天下课回来,一个人静坐在电脑前,因为埋在心里的太多,感觉这样下去会更加难受,所以,就上Q找了位很要好的朋友聊。了解到最近他电子竞赛上的失利,我也为他感到难过,勉励的
  • 一个从华为离职的朋友

    千次阅读 2019-05-10 17:49:14
    1、我在之前的很多文章里面都谈到了我有一个过硬的华为朋友,我很少去炫耀自己有多厉害,认识了谁谁,但是我非常在意那些跟自己有过交情的朋友,这些朋友不是说你离开了就失去了,也...
  • 三、我以为,真心人,也可以换来别人真心对待。拼了命地不让身边的人难过,却发现,受伤的原来是我自己。经历了一些事,才知道自己真的好傻。四、因为孤独是生命的常态,所以陪伴才显得格外珍贵。永远不要因为新鲜...
  • 一次“民间”的毕业生离校座谈,毕业生为在校生留下真心
  • 28.什么都不懂又怎么样,你知道吗,白纸是容易画出最美的蓝图的。——唐宁 29.我们欢迎四十几岁的人重返职场,因为他们会给企业带来一种踏实与负责任的气质。——郑艳 30.律师这个行业,看起来很美,听起来很...
  • 什么是这个世界上值得你珍惜的[转]很久很久以前,在一个香火很旺的寺庙里,有一只染上了佛性的蜘蛛。有一天,佛从天上路过,看见了这个香火很旺的寺庙,佛来到了这个寺庙里,看见了那只蜘蛛,佛问:"蜘蛛,你知道什...
  • 珍惜的决不放手,分手后不可以做朋友,因为彼此伤害过!也不可以做敌人,因为彼此深爱过。 2、几米说: 当你喜欢我的时候,我不喜欢你,当你爱上我的时候,我喜欢上你, 当你离开我的时候,我却爱上你,是你走得太...
  • 句句教你如何说好拍马屁的

    千次阅读 2014-03-03 18:17:15
     会计师是精于核算收益和风险的专家,会计,这可是精明人从事的职业,金融更是精通了。  这么复杂的账,你一个人算真不简单。  做律师的人都不简单,听说你办理的好几件案子都很轰动。你口才好,做律师...
  • 火影忍者(80

    2005-03-16 10:39:00
    在这些死者中 也有人还抱有梦想但是 大家都拥有同样珍惜的东西父母 兄弟 朋友或者恋人自己来说重要的人们彼此间的信赖和互助从一生下来开始就一直和所珍惜的人们牵在一起然后, 经过时间的琢磨,更加的坚强.
  • 一个男人的心理

    2007-11-13 17:06:00
    亲爱的兄弟们,我要告诉你们的都来自我内心: 首先,要尊重女性,没有她们就没有你。 你必须找到除了事业之外,能够使你感到真正幸福的东西。你必须把权利的渴求和金钱的欲望,渐渐淡化为生活的质朴和快乐。...
  • 文章目录给你的个人微信朋友圈数据生成一本电子书吧!简介部分截图电子书效果纸质书效果代码思路获取微信书链接生成电子书输入微信书链接设置浏览器参数分析网页元素打印电子书如何运行补充License 给你的个人微信...
  • http://tieba.baidu.com/f?kz=722849160<br />  1、如果很喜欢很喜欢一个人,那么,保持一个朋友的距离就够了,这样可以一辈子。千万不要奢望靠近,人一旦有了贪欲,就注定要失去 2、在
  • 如何用一句激怒程序员?

    千次阅读 2019-02-23 21:36:42
    面对这样的程序员,哪些会让他们怀疑人生呢? 1、我要这个这个那个那个功能,今天给我搞出来。 你以为功能只要添加复制就能有的吗?还今天就出来! 2、你这样写不对,应该这样写,我也是搞过技术的。 自以为是...
  • 朋友真好

    2005-10-07 21:51:00
    刚和朋友喝完酒回来,有点醉了,呵,至少,容易冲动了,但也容易说真心了。嗯。有朋友真好。朋友,不仅是用来分享快乐的,更是用来一起喝酒的。朋友十一回家了,说好了回来后一起去喝酒。晚上,一起去小小小炒部,...
  • 给各位程序员初学者一些有用的

    万次阅读 热门讨论 2011-01-19 15:20:00
    给各位 程序员 初学者 一些有用的
  • 微信朋友圈运营指南

    千次阅读 2017-11-28 00:00:00
    朋友圈——中国人集中爱不释手具有强迫症般不刷会死的神奇产品。 每个人在平常生活中,在社交环境中,都是需要自己进行运营的。所以是不是一个好运营,看看你发的朋友圈就知道了。在他人面前塑造你的个人...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 28,127
精华内容 11,250
关键字:

对最珍惜的朋友的话