精华内容
下载资源
问答
  • 怎么获取网站源码

    2012-04-07 17:31:02
    怎么实现获取一个网站源码,求指点,我是菜鸟,希望能给出具体一点的步骤.急.....
  • 点击这个按钮,我这个responseText输出的网站源码,软件工程师都是乱码。 private void button1_Click(object sender, EventArgs e) { HttpWebRequest request = null; HttpWebResponse response = null; ...
  • 用jsoup抓取网页获取网页源码的时候,得到的源码和在网站上面点击右键查看源码不相同,怎么解决 Document doc = Jsoup.parse(new URL(url), 5000);
  • 比如用户访问我的网站查询信息,可是我网站没有,怎么利用 用户的IP去访问某个网站得到源码,然后我网站提取信息展示给用户呢。js行不行?
  • 作为读者,你可能看到一个心动的网站就把他收藏起来,但收藏的越来越多,等你需要找PPT模板时,却出现这样的问题:网站收费了网站失效了怎么找不到优秀模板我的网站我放哪里呢哪个网站的好点呀......相信这样的情况...
    1ce4e56a537329f1a115370d2ab2507f.gif

    最怕免费网站用着用着付费了!

    这2个小众网站,不用注册,让你随时找到高质免费的PPT模板!在找到免费模板这块,弄得准准的!

    5f7c992a0f655fc666cd843d39ee07cc.png

    看了回答下,很多人都推荐了优秀的网站,当然数量也很多。作为读者,你可能看到一个心动的网站就把他收藏起来,但收藏的越来越多,等你需要找PPT模板时,却出现这样的问题:

    • 网站收费了
    • 网站失效了
    • 怎么找不到优秀模板
    • 我的网站我放哪里呢
    • 哪个网站的好点呀
    • ......

    相信这样的情况,你一定遇到过,那有没有办法解决呢?

    b1d93cfbef9918c5396d40059a77d715.png

    关注我的头条号,发送私信【优质模板】即可获取我收藏好的PPT模板哦!

    还真有!你只需记住这个网站,想要什么资源有什么!这个网站包含你想要的所有PPT模板!

    01 虫部落-资源搜索

    这是一个超好用的综合搜索网站,你想要的模板都有,不用注册,直接下载!

    d5ab4657df8e4a98cc2b9fc7d4e92a77.png

    为什么推荐这个奇怪的网站呢?原因很简单!一句话:谁的网盘里还没点优质的PPT模板了!

    无论是付费的还是免费的,大家总是希望把资源囤积在自己的网盘内,那我们想要PPT模板,直接搜索网盘中每个人保存的优质资源,岂不是更好!

    e2c9f587eec226b6e2d32ca7eed45c46.gif

    而且这些PPT模板肯定都是被主人筛选过~

    当然,这样优秀的网盘搜索网站有很多,比如西林街,盘搜搜等,但这个网站比较强大,把优秀的网盘搜索网站做了融合,总计20多个!一个搜不到还有很多个,在一个网页搞定!

    170ecb149b2c92f515195cefc5645e8f.png

    比如我们在任意一个搜索PPT模板,都可以看到很有优秀模板资源;

    079f09322920ffa92c6015507867149e.png

    选择自己喜欢的直接下!

    还支持分类搜索,比如按照时间可以看到最新PPT模板资源:

    d00eff44c43c4e6d15ee4d9349caf863.png

    仔细找,能找到很多优秀模板,比如;

    在这里跟大家推荐一个,我觉得PPT模板资源全面,质量不错的网盘:微盘搜索

    eb3f9f2c0450748c2f38ae42ac86e005.png

    没错,就是微博的资料合集,这上面资源很丰富,而且更新及时。

    最重要的是专门的板块划分,我们要找PPT,可以直接去PPT专场,绝对宝藏!

    f89e2431950ddc0e502e3879a490b803.png

    在专区内按照职业和不同风格又有分类,比如,你要毕业答辩的,直接选择毕业答辩PPT:

    89b598bd485df63ce116791aeba28990.png

    这样的专区有很多,毕竟要几百页,哈哈~

    点击进去:

    df9ddddc671fc68169931468337549b2.png

    随意下载打开一份,质量还不错!

    8cb01937eb631496687d04ed8a5cca31.png

    当然,如果你想要高大上的,要多找找了,比如我找到的这套:

    3a6e5855d8134bf243587301fa3ea188.png

    还有这套:

    5fdd33e0540397f8881949690c9deab1.png

    这个网站,能保证,你绝对找到免费的PPT模板!质量还优秀!资源丰富!

    大家记得收藏下,你早晚用到哦!有帮助,点赞鼓励哈~

    对了,我下载了一些优质PPT模板,如果你有需要可以直接分享给你!

    关注我的头条号,发送私信【优质模板】即可获取我收藏好的PPT模板哦!

    展开全文
  • 爬虫,就是用程序代替人去访问网站...想爬知乎,但查了不少资料,大多是说怎么解析源码的,怎么源码中定位需要的内容;但源码从哪来呢?源码不过就是字符串,总会有工具能提取的,是在不行自己写工具也行;但对于...

    爬虫,就是用程序代替人去访问网站,然后把网站上需要的东西拿下来;类似人输入网址,看到页面,然后复制粘贴,只是把这个过程自动化。

    cd329c108fe0c89def4b09e9f938ac16.png

    那么第一步就是去访问网站,要看到网站的页面,对程序来说也就是源码。笔者在学爬虫时曾被这一步卡了挺久;想爬知乎,但查了不少资料,大多是说怎么解析源码的,怎么从源码中定位需要的内容;但源码从哪来呢?源码不过就是字符串,总会有工具能提取的,是在不行自己写工具也行;但对于高手们来说,这似乎是个简单到不需要说的东西;无米之炊啊;我也是菜鸟,所以准备写一写。

    01安装python

    当然,最最基础的还是得先把Python装上,还有写代码的工具;推荐Pycharm。安装的教程网上很多,搜下就有,这里放一个链接https://www.cnblogs.com/lvtaohome/p/11121377.htmlPycharm用免费版就行,小白要有小白的自觉,高级的用不上的。Python版本用3的。

    装好Pycharm后,要安装库。库就是别人写好的程序,做成了工具箱;当成个装了锤子、剪刀、扳手的工具箱就行;安装库就是从商店把工具箱买回来。

    FileSettingsProject Interpreter→右上方的+号→搜索requests(有s)→Install Package 安装。如果没有项目,就随便找个地方新建个txt文档,后缀改成.py,然后用Pycharm打开。

    e78f5f74061f4bb4a8a7c1281e524208.png

    e9eb8329493ef2b5c57e35889cbbd70f.png

    02如何使用

    工具箱买回来了,下面开始用。

    import requests
    s = requests.session()
    url =
    "http://www.baidu.com"data = s.get(url)with open("baidu.txt","w+",encoding='UTF-8') as f:
        f.write(data.content.decode(
    "utf-8"))

    import requests 把这个工具箱拿过来。

    s = requests.session() 其中的一个工具取个短名,就叫s

    url = "http://www.baidu.com" 这是我们要测试的地址,主要http://不能省。用双引号包起来说明是个字符串。

    data = s.get(url) s.get(url)就是让程序去访问网站,拿到源码了,拿到的源码命名为data

    with open("baidu.txt","w+",encoding='UTF-8') as f:

    源码拿到了我们又看不见,很抽象,很难受,我当时是喜欢把它们写到文档里再研究;所以创建个baidu.txt(用完整的路径也行)的文档,w+模式打开,文件编码是UTF-8,告诉程序这个文件里面写的是中文,不是俄语。as f,让这个文件打开后代号为f,对f的操作就是对文件的操作。

        f.write(data.content.decode("utf-8")) f执行write操作,写入的内容是获取的源码data中的contentdatarequests.Session.get返回的一整坨东西,是一个结构体,不是能写入文本文件的字符串,所以要用里面的content.decode("utf-8") 意思是把鸟语翻译成格式为”utf-8”中文再写进去。

    这些代码可以直接复制到Python Console回车就可以执行;会再py文件所在路径或者你自己设定的baidu.txt的路径生成一个baidu.txt的文件;打开就可以看到源码。

    57256395000e4c3dac976751aa404dc2.pnga9266f1834630369bf6366c718ac7962.png

    打开后可以看到格式比较乱;至于规则化输出,源码解析工具,程序调试之类的事情,后续再写。

    展开全文
  • 在爬一个金融类网站的数据的时候发现jousp获取的html里面居然有个div是空的 ![图片说明](https://img-ask.csdn.net/upload/201909/09/1568025443_67849.png) 然而在chrome的后台看,我需要的数据都在这个div里...
  • 怎么做 :detective_selector: 一个网络搜索引擎,解析多个商店以搜索产品并检索和分析来自客户的评论。 后端:使用Google的自然语言API以Golang编写的REST API。 前端:用Angular编写。 使用Kubernetes在Google ...
  • 如题,公司让做一款简单的新闻类安卓APP,我是只小白,懂得并不多,但是网站是用php写的,我并不懂php,没有接口,我应该如何获取公司网站上的新闻url,有源码
  • 你也可以自己部署文档网站:下载源码后,请使用 http: 或 https: 协议访问源码根目录下的 index.html。 如果你的安装了 Node.js 环境,则可以按照如下步骤轻松启动网站: 进入 ZUI 源码目录; 执行 npm install; ...
  • 至于具体怎么录制,我们下节课再细谈。注意:内置宏的表格,一般是没法直接保存的,会弹出下面的提示:简单的方法就是另存为xlsm文档。这个文档格式可以直接储存宏。docx,它带宏的后缀就是docm,pptx带宏的后缀就是...

    宏的运行方式有以下几种:

    第一种,自我录制运行

    打开开发工具-自己去录制一个宏,然后给它命名,录制完成后运行。至于具体怎么录制,我们下节课再细谈。

    044ccb8f8568bec6dbc622e1c7f9fbf0.png

    注意:内置宏的表格,一般是没法直接保存的,会弹出下面的提示:

    3c9c468c226b421218970a473d36d5c8.png

    简单的方法就是另存为xlsm文档。这个文档格式可以直接储存宏。

    71c96f49779348fcd6ffb41eeb70bf67.png

    docx,它带宏的后缀就是docm,pptx带宏的后缀就是pptm,

    第二种,运行别的带宏的表格文档。

    宏在软件中,默认是共享状态的。什么意思呢?举个栗子:我打开了带有宏的A表格,然后打开了不带宏的B,C,D表格,那么我在B,C,D表格里面,是可以用A表格的宏的。注意哈,前提是打开了A表格,不打开,B,C,D表格肯定是用不了宏的。

    e85d90608a6d670b24615e5ba7875db0.png

    第三种,导入VBA源码

    在“开发工具”界面,有个“Visual Basic”按钮,点击这个按钮就能看到整个Excel的布局了。

    9ba52fda1ba4dcd137245127e138304b.png
    092962fb47543f240d3df0912088a032.png

    单击选中模块,点击”文件“-“导出”,可以看出,vba的源码包后缀为bas。

    36e5ae46ae2d385762ece569601275f1.png

    所以说,第三种运行宏的方式,就是在Visual Basic for Application这个界面,利用“文件”-“导入”功能,直接导入VBA源码,导入后,再去开发工具运行宏就可以了。

    动态图如下:

    886176105d2da0ce19c636a4b5a483c0.gif

    相关代码请参考前面的章节。

    10秒Excel快速排版,你也可以做到。

    下一节:

    第四节:录制一个宏试试吧

    前文回顾:

    第一节:什么是VBA

    第二节:使用宏所需要的环境

    展开全文
  • 书接上文 我们已经学会了怎么如何获取html源码并...首先我们要获取网站源码 import requests from bs4 import BeautifulSoup import re # 这是python的正则表达式库,它终于来了!(无需安装) 准备好了库,大...

    书接上文
    我们已经学会了怎么如何获取html源码并从中进行简单的信息提取
    那么现在我们要学习如何才能精确的获取我们想要的信息
    来做点有趣的事情吧😄

    爬取哔哩哔哩排行榜

    获取源码并解析
    首先我们要获取网站的源码

    import requests
    from bs4 import BeautifulSoup
    import re # 这是python的正则表达式库,它终于来了!(无需安装)
    

    准备好了库,大干一场吧!
    首先打开哔哩哔哩排行榜页面,获取页面url

    url = 'https://www.bilibili.com/ranking?spm_id_from=333.851.b_7072696d61727950616765546162.3'
    response = requests.get(url)
    html = response.text
    soup = BeautifulSoup(html, 'lxml')
    

    提取需要的内容
    接下来就要找到我们需要的信息了,打开浏览器控制台,或者在排行榜任一元素上右键检查,这里我选取的是排行榜视频的标题元素
    在控制台中选中我们想要获取的标签,右键,copy->copy selector
    这是标签的选择器,写过css应该知道他是个什么东西
    在这里插入图片描述
    就在选中的标签上右键,就可以找到copy selector
    其实就是这么一堆东西

    #app > div.b-page-body > div > div.rank-container > div.rank-body > div.rank-list-wrap > ul > li:nth-child(1) > div.content > div.info > a
    

    我们大概看一下就可以发现这个结构和最下面的那一行层次结构是基本一样的
    在这里插入图片描述
    这就代表了我们所想要获取的标签的位置
    但是要注意我们所复制的那一串是一个特定的标签的选择器,如果我们想要让他匹配其他的同层次的元素,要做一点改动

    #app > div.b-page-body > div > div.rank-container > div.rank-body > div.rank-list-wrap > ul > li:nth-child(1)\ > div.content > div.info > a
    
    #app > div.b-page-body > div > div.rank-container > div.rank-body > div.rank-list-wrap > ul > li > div.content > div.info > a
    

    看出来改了哪些吗?
    删掉了li:nth-child(1)中的:nth-child(1),因为我们要获取所有的li
    ok,有了selector之后,我们就可以利用另一个查找方法来获取我们选择的标签

    data = soup.select('#app > div.b-page-body > div > div.rank-container > div.rank-body > div.rank-list-wrap > ul > li > div.content > div.info > a')
    

    这里使用了select()方法,他的具体用法参考这里
    这个方法有相当灵活的匹配模式

    接下来我们只要将所有的标签按我们需要的格式保存或者打印出来即可

    count = 0
    for item in data:
    	count += 1
    	result = {
    		'【排行:' + str(count) + '】': item.get_text(),
    		'链接:': 'https:' + item.get('href')
    	}
    	print(result)
    

    一部分打印结果

    {'【排行:#1】': '破案了 阿伟的死因找到了', '链接:': 'https://www.bilibili.com/video/av78454390'}
    {'【排行:#2】': '【猛男舞团】新宝岛remix 宴 请 八 方【BML2019广州单品】', '链接:': 'https://www.bilibili.com/video/av78441309'}
    {'【排行:#3】': '全世界评分最高动画TOP100!史诗神作!不朽经典!', '链接:': 'https://www.bilibili.com/video/av78273046'}
    {'【排行:#4】': '【朱广权新Rap】央 视 新 闻 来 B 站 了!', '链接:': 'https://www.bilibili.com/video/av78539228'}
    {'【排行:#5】': '为什么说Photoshop 2020是最适合萌新入门的版本?', '链接:': 'https://www.bilibili.com/video/av78407175'}
    {'【排行:#6】': '【沙雕动画】做着不喜欢工作的你', '链接:': 'https://www.bilibili.com/video/av78410421'}
    {'【排行:#7】': '全程高能!请戴好耳机!前方甜蜜大暴击!!前方甜蜜大暴击!!极致舒适,大型秀恩爱下饭现场', '链接:': 'https://www.bilibili.com/video/av78326836'}
    {'【排行:#8】': '两个小姐姐疯狂喷起来了,为了争夺男神老板…【小潮国基网骗】', '链接:': 'https://www.bilibili.com/video/av78477691'}
    {'【排行:#9】': '这种课  应该没人睡觉吧', '链接:': 'https://www.bilibili.com/video/av78486370'}
    {'【排行:#10】': '精  神  之  子', '链接:': 'https://www.bilibili.com/video/av78344245'}
    
    

    也许你还想要更精确的信息,比如
    我想要获取每个视频的av号咋办?
    还记得我们一开始引入的正则库吗
    我们发现视频链接的最后就是视频的av号,那我们可以用正则匹配把他提取出来

    count = 0
    for item in data:
    	count += 1
    	result = {
    		'【排行:' + str(count) + '】': item.get_text(),
    		'链接:': 'https:' + item.get('href')
    		'av号:': re.findall('av\d+', item.get('href'))[0]
    	}
    	print(result)
    
    {'【排行:#1】': '破案了 阿伟的死因找到了', '链接:': 'https://www.bilibili.com/video/av78454390', 'av号:': 'av78454390'}
    {'【排行:#2】': '【猛男舞团】新宝岛remix 宴 请 八 方【BML2019广州单品】', '链接:': 'https://www.bilibili.com/video/av78441309', 'av号:': 'av78441309'}
    {'【排行:#3】': '全世界评分最高动画TOP100!史诗神作!不朽经典!', '链接:': 'https://www.bilibili.com/video/av78273046', 'av号:': 'av78273046'}
    {'【排行:#4】': '【朱广权新Rap】央 视 新 闻 来 B 站 了!', '链接:': 'https://www.bilibili.com/video/av78539228', 'av号:': 'av78539228'}
    {'【排行:#5】': '为什么说Photoshop 2020是最适合萌新入门的版本?', '链接:': 'https://www.bilibili.com/video/av78407175', 'av号:': 'av78407175'}
    {'【排行:#6】': '【沙雕动画】做着不喜欢工作的你', '链接:': 'https://www.bilibili.com/video/av78410421', 'av号:': 'av78410421'}
    {'【排行:#7】': '全程高能!请戴好耳机!前方甜蜜大暴击!!前方甜蜜大暴击!!极致舒适,大型秀恩爱下饭现场', '链接:': 'https://www.bilibili.com/video/av78326836', 'av号:': 'av78326836'}
    {'【排行:#8】': '两个小姐姐疯狂喷起来了,为了争夺男神老板…【小潮国基网骗】', '链接:': 'https://www.bilibili.com/video/av78477691', 'av号:': 'av78477691'}
    {'【排行:#9】': '这种课  应该没人睡觉吧', '链接:': 'https://www.bilibili.com/video/av78486370', 'av号:': 'av78486370'}
    {'【排行:#10】': '精  神  之  子', '链接:': 'https://www.bilibili.com/video/av78344245', 'av号:': 'av78344245'}
    

    (正则不会用?那和我🐇有什么关系呢?)

    展开全文
  • 一、区块宠物区块链游戏怎么玩? 区块宠物整个操作流程非常简单,宠物只是一个商品,用户低买高卖赚差价,公司只提供一个交易平台,所有资金都是玩家点对点交易,无需通过公司。 注册实名认证 输入手机号码(获取...
  • private string getMatch(string text, Regex reg) { Match mBody = reg.Match(text); return mBody.Value; ...private void btnLogin_Click(object sender, ...一直停留在登陆页面进不了后面,怎么解决啊?
  • 什么是网页挂马 网页挂马是指恶意攻击者攻击...笼统地说,它就是指一些人用非正常的手段获取其他网站的权限后,修改其网站的源代码,加入指向自己网站的反向链接代码。其目的是优化自己网站中的一些关键字在搜索引擎...
  • 抓取一个简单的dom抓取工具,以使用jQuery类的语法从任何基于html的网站获取信息,并将该信息转换为JSON API 这个怎么运作? 它可以通过简单地以HCL格式定义一些macros / endpoints来工作,让魔术开始,这是一个...
  • android整个系统源码获取详程

    千次阅读 2012-08-13 09:54:54
    要下载源代码,那么就得先打开官方的网站,看官方怎么说下载源代码。官方地址为:http://www.android.com/,进去后,把页面拉到下方,找到图中显示的这个图标:     点击左边的这个Partners链接,然后就...
  • TODO:我想这样做,因此您可以将“ .md”附加到任何页面URL上,并获取该页面的减价。 我尚不确定该怎么做,但应该可以... 字型 状态:进行中 到目前为止,我发现一些无用的东西: 有趣,但无济于事,因为它们使用的...
  • 起初是想写一个爬虫来爬一个网站的视频,但是怎么爬取都爬取不到,分析了下源代码之后,发现源代码中并没有视频的dom 但是在浏览器检查元素的时候又是有的,这就让我很难过了 百度了一大天,发现是因为普通方法...
  • md弄了一天了……(这个月不会在摸爬虫了,浪费生命)进入正题:起初是想写一个爬虫来爬一个网站的视频,但是怎么爬取都爬取不到,分析了下源代码之后,发现源代码中并没有视频的dom但是在浏览器检查元素的时候又是有的...
  • md弄了一天了……(这个月不会在摸爬虫了,浪费生命)进入正题:起初是想写一个爬虫来爬一个网站的视频,但是怎么爬取都爬取不到,分析了下源代码之后,发现源代码中并没有视频的dom但是在浏览器检查元素的时候又是有的...
  • :star: 这个怎么运作 GitHub Actions用作运行时间监控器 每隔5分钟,工作流程会访问您的网站以确保其正常运行 每6个小时记录一次响应时间并提交给git 每天生成响应时间图 GitHub问题用于事件报告 如果端点关闭,则...
  • jschr.io 静态网站生成器为我的了...预定的Lambda函数从Github,Twitter,Reddit和Medium获取最新活动的摘要。 然后,它使用此生成一个新的静态网站,并将生成的版本上传到S3。 Terraform用于在AWS中创建所需的资源。
  • 网站精选的Flask Extensions及其资源 为什么? 在github和gitlab存储库中分布着一些惊人的Flask扩展,但是我们错过了一个汇总并关注它们全部状态的地方。 怎么样? 在实时编码流中开发了此项目 叠放 该项目分为...
  • 该项目暂停维护,欢迎关注后续开源的个人网站 说明 放到开头,这里重点说明下,很多哥们会发邮件群里艾特,但是好多邮件回复不了不知道什么情况,群里有时候不怎么关注就错过了,大家如果有啥问题咱就直接提issue吧...
  • android 源码下载

    2016-03-20 11:17:00
    最终在网上看到的方法,就是不适用google的地址,而是从其他的网站获取源码。现在记录下方法如下: 1.在自己的主目录下创建bin目录,添加到环境变量中。 mkdir ~/bin PATH=~/bin:$PATH...
  • 如何获取 UEditor 实例? <vue-ueditor-wrap @ready="ready"></vue-ueditor-wrap> methods: { ready (editorInstance) { console.log(`编辑器实例${editorInstance.key}: `, editorInstance) } } ...
  • 遇到好看的视频封面却不知道怎么保存?以下三步教你轻松搞定: 1、进入视频网页后,ctrl+u打开网页源码 2、ctrl+F,找到os:image 3、根据后面的地址就可以得到想要的封面图片啦

空空如也

空空如也

1 2 3 4 5 ... 7
收藏数 138
精华内容 55
关键字:

怎么获取网站源码