精华内容
下载资源
问答
  • 作为一个Python+爬虫的小白,今天要搞点爬虫的活儿,以前没做过,从零开始。 win10的系统,python我的电脑上以前不记得什么时候安装过,安装的是3.6的版本,能代码工具,先使用VS code。 先做个简单的爬取网页的...

    作为一个Python+爬虫的小白,今天要搞点爬虫的活儿,以前没做过,从零开始。 win10的系统,python我的电脑上以前不记得什么时候安装过,安装的是3.6的版本,能用。代码工具,先使用VS code。 先做个简单的爬取网页的demo。 Python3 提供了 urllib 这个标准库,无需安装,即可引用使用:

    from urllib import request

    复制代码

    然后,我们就可以使用urllib发送GET请求了。代码如下:

    from urllib import request

    req_news = request.Request('https://news.163.com/20/0522/13/FD82KGA1000189FH.html')

    req_news.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36')

    html_news = request.urlopen(req_news).read()

    print('------------')

    print(html_news.decode('gbk'))

    复制代码

    User-Agent中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统及版本、CPU 类型、浏览器及版本、浏览器渲染引擎、浏览器语言、浏览器插件等。 这里在请求头中添加这个是为了模拟浏览器正常请求,很多服务器都会做检测,发现不是正常浏览器的请求会直接拒绝(很多网站不一定有这种检测,但这是最基本的防爬虫策略),当然真实的浏览器发送的请求头里面不仅仅只有一个 UA。浏览器上截图。

    906163f0af1c4c6492d48bdcef3525ff.jpg

    注意:request.urlopen(req_news).read()里读出来的内容有时候是二进制(bytes)数据,需要进行转换,中文需要用decode转成 GBK 格式,写入时可写入UTF-8格式。

    有时候读出来的直接是字符串,可以用encoding转成utf-8

    为什么是GBK格式呢?为什么不是UTF-8或或者别的格式呢

    我们F12查看一下网页代码,在html/head/meta标签先有charset属性,标识了网页的编码。我们可以把它取出来作为转码依据。

    注意:默认格式的编码是gbk,如果取出来的charset为空,设为gbk格式

    41a66149af61475b90c6b4bfc6ba68bf.jpg 完善代码如下:

    from urllib import request

    req_news = request.Request('https://news.163.com/20/0522/13/FD82KGA1000189FH.html')

    req_news.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36')

    html_news = request.urlopen(req_news).read()

    if len(char_set) == 0:

    char_set = ['gbk']

    html_news = html_news.decode(char_set[0])

    print('------------')

    print(html_news)

    复制代码

    然后,将读出来的页面信息写到一个文件里。python读写文件需要先引入os。

    import os

    复制代码

    base_dir = os.getcwd()

    #获取当前文件夹的绝对路径

    file_name = os.path.join(base_dir, 'data', 'news.html')

    #打开fie_name路径下的news.html文件,采用写入模式

    #若文件不存在,创建,若存在,清空并写入

    my_open = open(file_name, 'w', encoding="utf-8")

    #在文件中写入内容

    my_open.write(html_news.decode('gbk'))

    my_open.close()

    复制代码

    完整的读写代码如下:

    from urllib import request

    # from lxml import etree

    # import re

    import os

    req_news = request.Request('https://news.163.com/20/0522/13/FD82KGA1000189FH.html')

    req_news.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36')

    html_news = request.urlopen(req_news).read().decode('gbk')

    print('------------')

    print(html_news)

    base_dir = os.getcwd()

    #获取当前文件夹的绝对路径

    file_name = os.path.join(base_dir, 'data', 'news.html')

    # print(file_name)

    #打开fie_name路径下的news.html文件,采用写入模式

    #若文件不存在,创建,若存在,清空并写入

    my_open = open(file_name, 'w', encoding="utf-8")

    #在文件中写入内容

    my_open.write(html_news)

    my_open.close()

    复制代码

    这只是爬虫的第一步,接下来还需要分析网页数据,提取自己想要的内容。

    展开全文
  • 相关的库可能需要自己安装第步,你需要获得网页上下载文件地址的列表浏览器查看页面源文件得到可以看到,这格式是很清晰的,xpath获得列表即可,这部分你可以去网上找相关教程,这部分的代码如下:...

    脚本在最后,可以直接试用,相关的库可能需要自己安装

    第一步,你需要获得网页上下载文件地址的列表

    用浏览器查看页面源文件得到 />

    可以看到,这个格式是很清晰的,用xpath获得列表即可,

    这部分你可以去网上找相关教程,这部分的代码如下:

    Host = 'http://cnn.csail.mit.edu/motif_occupancy/'

    response = requests.get(Host).content

    selector = html.fromstring(response)

    book_list = selector.xpath('//table//a//@href')

    # 去除部分表头元素

    book_list = filter(lambda x: x.startswith('wg'), book_list)

    第二步,进入其中一个下载列表

    查看页面源文件得到 />

    我只看了若干的几个,假设任意一个都是这种格式,那么相关的连接无需搜索即可手动确定

    第三步,在本地创建文件夹,并保存文件

    # 在需要的地方建立文件夹

    os.system('mkdir -p %s' % book)

    for category in ['train.data', 'test.data']:

    url = Host + book + category

    headers["Referer"] = Host + book

    a = requests.get(url, headers = headers)

    xxx

    with open(os.path.join(book, category), 'wb') as f:

    f.write(requests.get(url).content)

    现在的问题是,不知道什么原因,我这边的网络下载文件速率巨慢,大概1分钟3M的样子,可能是网络的原因吧,如果题主下载速率还可以,那就没问题,如果也不行,你只能自己找找原因了。我这边浏览器下载文件也很慢,看来网站并没有抑制爬虫的措施。

    整体代码为

    #!/usr/local/bin/python3

    #-*-coding:utf-8-*-

    import requests

    from lxml import html

    import os

    headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_1) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.1 Safari/605.1.15",

    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",

    "Referer": "",

    "DNT": "1",

    }

    Host = 'http://cnn.csail.mit.edu/motif_occupancy/'

    response = requests.get(Host).content

    selector = html.fromstring(response)

    book_list = selector.xpath('//table//a//@href')

    # 去除部分表头元素

    book_list = filter(lambda x: x.startswith('wg'), book_list)

    for book in book_list:

    # 在需要的地方建立文件夹

    os.system('mkdir -p %s' % book)

    for category in ['train.data', 'test.data']:

    url = Host + book + category

    headers["Referer"] = Host + book

    with open(os.path.join(book, category), 'wb') as f:

    f.write(requests.get(url, headers = headers).content)

    展开全文
  • 如何用Latex代码

    千次阅读 2019-12-20 18:24:57
    如何用Latex代码等Aurora无法使用,使用在线Latex网站编写Overleaf以一个例子说明一些测试算例可学习Latex还是强大 还有很多要学 Aurora无法使用,使用在线Latex网站编写 由于本人用Aurora一直probleming ...

    Aurora无法使用,使用在线Latex网站编写

    由于本人用Aurora一直probleming running,试过网站上各种方法实在无奈最终选择用在线Latex编写
    主要以下网站,而且也不需要各种查找如何加入中文的方法:
    http://latex.codecogs.com/eqneditor/editor.php
    https://www.sharelatex.com/project/59f985ff88ec741052f6394b
    https://www.overleaf.com/read/pzfyspxjnscm#/37167460/

    以下方法都是本人初学自己摸索的,如果错了还各位大佬指正!

    Overleaf

    这里我主要使用了overleaf,主要以此为例:
    在这里插入图片描述
    调用package,(一般以下够用):

    \documentclass[11pt]{article}
    \usepackage{CJK}
    \usepackage[top=2cm, bottom=2cm, left=2cm, right=2cm]{geometry}
    \usepackage{algorithm}
    \usepackage{algorithmicx}
    \usepackage{algpseudocode}
    \usepackage{amsmath}
    \usepackage{indentfirst}
    
    \floatname{algorithm}{算法}
    \renewcommand{\algorithmicrequire}{\textbf{输入:}}
    \renewcommand{\algorithmicensure}{\textbf{输出:}}
    

    若想要输入中文,需要加上这一对代码:

    \begin{CJK*}{UTF8}{gkai}
    \end{CJK*}        //中文代码
    

    以一个例子说明

    1、未加入中文代码

    \documentclass[11pt]{article}
    \usepackage{CJK}
    \usepackage[top=2cm, bottom=2cm, left=2cm, right=2cm]{geometry}
    \usepackage{algorithm}
    \usepackage{algorithmicx}
    \usepackage{algpseudocode}
    \usepackage{amsmath}
    \usepackage{indentfirst}
    
    \floatname{algorithm}{算法}
    \renewcommand{\algorithmicrequire}{\textbf{输入:}}
    \renewcommand{\algorithmicensure}{\textbf{输出:}}
    
    \begin{document}
        \begin{algorithm}
            \caption{用归并排序求逆序数}
            \begin{algorithmic}[1] %每行显示行号
                \Require $Array$数组,$n$数组大小
                \Ensure 逆序数
                \Function {MergerSort}{$Array, left, right$}
                    \State $result \gets 0$
                    \If {$left < right$}
                        \State $middle \gets (left + right) / 2$
                        \State $result \gets result +$ \Call{MergerSort}{$Array, left, middle$}
                        \State $result \gets result +$ \Call{MergerSort}{$Array, middle, right$}
                        \State $result \gets result +$ \Call{Merger}{$Array,left,middle,right$}
                    \EndIf
                    \State \Return{$result$}
                \EndFunction
                \State
                \Function{Merger}{$Array, left, middle, right$}
                    \State $i\gets left$
                    \State $j\gets middle$
                    \State $k\gets 0$
                    \State $result \gets 0$
                    \While{$i<middle$ \textbf{and} $j<right$}
                        \If{$Array[i]<Array[j]$}
                            \State $B[k++]\gets Array[i++]$
                        \Else
                            \State $B[k++] \gets Array[j++]$
                            \State $result \gets result + (middle - i)$
                        \EndIf
                    \EndWhile
                    \While{$i<middle$}
                        \State $B[k++] \gets Array[i++]$
                    \EndWhile
                    \While{$j<right$}
                        \State $B[k++] \gets Array[j++]$
                    \EndWhile
                    \For{$i = 0 \to k-1$}
                        \State $Array[left + i] \gets B[i]$
                    \EndFor
                    \State \Return{$result$}
                \EndFunction
            \end{algorithmic}
        \end{algorithm}
    \end{document}
    

    渲染结果
    可以看见中文无法显示

    2、加入了中文代码

    \documentclass[11pt]{article}
    \usepackage{CJK}
    \usepackage[top=2cm, bottom=2cm, left=2cm, right=2cm]{geometry}
    \usepackage{algorithm}
    \usepackage{algorithmicx}
    \usepackage{algpseudocode}
    \usepackage{amsmath}
    \usepackage{indentfirst}
    
    \floatname{algorithm}{算法}
    \renewcommand{\algorithmicrequire}{\textbf{输入:}}
    \renewcommand{\algorithmicensure}{\textbf{输出:}}
    
    \begin{document}
    \begin{CJK*}{UTF8}{gkai}
        \begin{algorithm}
            \caption{用归并排序求逆序数}
            \begin{algorithmic}[1] %每行显示行号
                \Require $Array$数组,$n$数组大小
                \Ensure 逆序数
                \Function {MergerSort}{$Array, left, right$}
                    \State $result \gets 0$
                    \If {$left < right$}
                        \State $middle \gets (left + right) / 2$
                        \State $result \gets result +$ \Call{MergerSort}{$Array, left, middle$}
                        \State $result \gets result +$ \Call{MergerSort}{$Array, middle, right$}
                        \State $result \gets result +$ \Call{Merger}{$Array,left,middle,right$}
                    \EndIf
                    \State \Return{$result$}
                \EndFunction
                \State
                \Function{Merger}{$Array, left, middle, right$}
                    \State $i\gets left$
                    \State $j\gets middle$
                    \State $k\gets 0$
                    \State $result \gets 0$
                    \While{$i<middle$ \textbf{and} $j<right$}
                        \If{$Array[i]<Array[j]$}
                            \State $B[k++]\gets Array[i++]$
                        \Else
                            \State $B[k++] \gets Array[j++]$
                            \State $result \gets result + (middle - i)$
                        \EndIf
                    \EndWhile
                    \While{$i<middle$}
                        \State $B[k++] \gets Array[i++]$
                    \EndWhile
                    \While{$j<right$}
                        \State $B[k++] \gets Array[j++]$
                    \EndWhile
                    \For{$i = 0 \to k-1$}
                        \State $Array[left + i] \gets B[i]$
                    \EndFor
                    \State \Return{$result$}
                \EndFunction
            \end{algorithmic}
        \end{algorithm}
        \end{CJK*}
    \end{document}
    

    渲染结果
    在这里插入图片描述

    一些测试算例可学习

    https://blog.csdn.net/lwb102063/article/details/53046265

    Latex还是强大 还有很多要学

    展开全文
  • 如何用记事本编写 简单 的 j ava 代码 精品资料 精品资料 仅供学习与交流如有侵权请联系网站删除 谢谢 仅供学习与交流如有侵权请联系网站删除 谢谢 PAGE # 精品资料 精品资料 仅供学习与交流如有侵权请联系网站...
  • 请问如何用AsyncClient写一个能访问并登录网站的程序?不是android-async-http AsyncHttpClient。 能够根据地址,还有用户名和密码就能登录网站。初学网络程序设计,所以希望代码简洁些。请大家帮帮忙,谢谢。 !...
  • 如果你还没用过flask,可以先看一下其官方文档的快速入门:http://docs.jinkan.org/docs/flask/quickstart.html了解如何创建并运行一个简单的 flask 网站应用。另外,因为这里我们用到了flas...

    这次给大家带来的是一个非常小的Flask案例,首先看一下做出来的效果:

    d8a3beec9c9fd874018cd9531b750aef.png

    我们主要分为两部分来做,这两部分分别是上图的上部分的表单和下面的列表展示。

    如果你还没用过 flask,可以先看一下其官方文档的快速入门:

    http://docs.jinkan.org/docs/flask/quickstart.html

    了解如何创建并运行一个简单的 flask 网站应用。

    另外,因为这里我们用到了 flask_sqlalchemy,所以你也需要安装它。

    http://www.pythondoc.com/flask-sqlalchemy/quickstart.html

    首先,我们需要通过 flask_sqlalchemy 来创建我们的数据表以及里面的数据:

    from flask import Flask,render_templatefrom flask_sqlalchemy import SQLAlchemyimport pymysqlapp = Flask(__name__)class Config(object):    # sqlalchemy的配置参数    SQLALCHEMY_DATABASE_URI = "mysql+pymysql://root:数据库密码@127.0.0.1:3306/author_book?charset=utf8"    # 设置sqlalchemy自动跟踪数据库    SQLALCHEMY_TRACK_MODIFICATIONS = Trueapp.config.from_object(Config)db = SQLAlchemy(app)# 定义数据库模型class Author(db.Model):    '''作者'''    __tablename__ = "tbl_authors"    id = db.Column(db.Integer, primary_key=True)    name = db.Column(db.String(32), unique=True)    book = db.relationship("Book", backref="author")class Book(db.Model):    '''书籍'''    __tablename__ = "tbl_books"    id = db.Column(db.Integer, primary_key=True)    name = db.Column(db.String(32), unique=True)    author_id = db.Column(db.Integer,db.ForeignKey("tbl_authors.id"))if __name__ == '__main__':    db.drop_all()    db.create_all()    author_kuls = Author(name="kuls")    author_wu = Author(name="吴承恩")    author_luo = Author(name="罗贯中")    db.session.add_all([author_kuls,author_luo,author_wu])    db.session.commit()    book_pac = Book(name="爬虫从入门到入狱",author_id=author_kuls.id)    book_wu = Book(name="西游记",author_id=author_wu.id)    book_luo = Book(name="三国演义",author_id=author_luo.id)    db.session.add_all([book_luo,book_pac,book_pac])    db.session.commit()

    通过上面代码,我们创建了两个数据表并在数据表中添加了相关的数据。

    ef6a9c50cb417b2d1bf367fbae0b9cde.png

    ac26406efeb9f3a3f1136e961084023d.png

    第一步我们成功做完,成功的通过flask_sqlalchemy创建了数据表和数据的导入。

    既然数据解决了,接下来就是来写前端相关的东西了。首先我们来写一下底下的列表部分

    首先,编写视图函数,给前端提供数据:

    @app.route("/")def index():    author_li = Author.query.all()    return render_template("author_book.html", authors=author_li)

    创建 author_book.html:

    <html lang="en"><head>    <meta charset="UTF-8">    <title>Titletitle>head><body>   <ul>       {% for author in authors %}        <li>作者:{{author.name}}li>      <ul>          {% for book in author.book %}          <li>书籍:{{book.name}}li>          {% endfor %}      ul>       {% endfor %}   ul>body>html>

    最后效果图:

    64147cb1a5668afb3a135218450875d1.png

    写完了上部分的内容,下面我们接着来写表单,表单在系列前面的文章中也写过,所以这里详细的不说,我们直接来使用:

    class AuthorBookForm(FlaskForm):    '''表单模型类'''    author_name = StringField(label=u"作者", validators=[DataRequired(u"作者必填")])    book_name = StringField(label=u"书籍", validators=[DataRequired(u"书籍必填")])    submit = SubmitField(label=u"保存")@app.route("/",methods=["POST","GET"])def index():    # 创建表单对象    form = AuthorBookForm()    # 如果提交成功    if form.validate_on_submit():        author_name = form.author_name.data        book_name = form.book_name.data        # 保存至数据库        author = Author(name=author_name)        db.session.add(author)        db.session.commit()        book = Book(name=book_name, author_id=author.id)        db.session.add(book)        db.session.commit()    author_li = Author.query.all()    return render_template("author_book.html", authors=author_li,form = form)

    我们创建一个表单模型类,并且在视图函数中进行表单数据的获取和储存。

       <form method="post">       {{form.csrf_token}}       {{form.author_name.label}}    <p>{{form.author_name}}p>       {% for msg in form.author_name.errors %}       <p>{{msg}}p>       {% endfor%}       {{form.book_name.label}}    <p>{{form.book_name}}p>       {% for msg in form.book_name.errors %}       <p>{{msg}}p>       {% endfor%}       {{form.submit}}   form>

    整体的视图函数逻辑很简单,首先获取到表单内容然后将其保存至数据库,最后执行查询数据库。通过这样每次我们点击提交按钮时会自动刷新列表里的内容。

    接下来我们再为这个项目添加一个删除功能,整体的思路很简单,通过get请求拿到前端发送过来的book_id,后端再对这个book_id进行删除处理。

    @app.route("/delete_book")def delete_book():    '''删除数据'''    book_id = request.args.get("book_id")    # 删除数据    book = Book.query.get(book_id)    db.session.delete(book)    db.session.commit()    return redirect(url_for("index"))

    前端在书籍下面加一个a标签即可:

    <html lang="en"><head>    <meta charset="UTF-8">    <title>Titletitle>head><body>   <form method="post">       {{form.csrf_token}}       {{form.author_name.label}}    <p>{{form.author_name}}p>       {% for msg in form.author_name.errors %}       <p>{{msg}}p>       {% endfor%}       {{form.book_name.label}}    <p>{{form.book_name}}p>       {% for msg in form.book_name.errors %}       <p>{{msg}}p>       {% endfor%}       {{form.submit}}   form><hr>   <ul>       {% for author in authors %}        <li>作者:{{author.name}}li>      <ul>          {% for book in author.book %}          <li>书籍:{{book.name}}li>          <a href="/delete_book?book_id={{book.id}}">删除a>          {% endfor %}      ul>       {% endfor %}   ul>body>html>

    整体的项目差不多就在这里结束了,当然你也可以自己去添加一些小功能。

    完整代码:

    author.py:

    from flask import Flask,render_template,request,url_for,redirectfrom flask_sqlalchemy import SQLAlchemyfrom flask_wtf import FlaskFormfrom wtforms import StringField,SubmitFieldfrom wtforms.validators import DataRequiredapp = Flask(__name__)class Config(object):    # sqlalchemy的配置参数    SQLALCHEMY_DATABASE_URI = "mysql+pymysql://root:liusHuang@123@127.0.0.1:3306/author_book?charset=utf8"    SECRET_KEY = "fasnfjaksndddasd123"    # 设置sqlalchemy自动跟踪数据库    SQLALCHEMY_TRACK_MODIFICATIONS = Trueapp.config.from_object(Config)db = SQLAlchemy(app)# 定义数据库模型class Author(db.Model):    '''作者'''    __tablename__ = "tbl_authors"    id = db.Column(db.Integer, primary_key=True)    name = db.Column(db.String(32), unique=True)    book = db.relationship("Book", backref="author")class Book(db.Model):    '''书籍'''    __tablename__ = "tbl_books"    id = db.Column(db.Integer, primary_key=True)    name = db.Column(db.String(32), unique=True)    author_id = db.Column(db.Integer,db.ForeignKey("tbl_authors.id"))class AuthorBookForm(FlaskForm):    '''表单模型类'''    author_name = StringField(label=u"作者", validators=[DataRequired(u"作者必填")])    book_name = StringField(label=u"书籍", validators=[DataRequired(u"书籍必填")])    submit = SubmitField(label=u"保存")@app.route("/",methods=["POST","GET"])def index():    # 创建表单对象    form = AuthorBookForm()    # 如果提交成功    if form.validate_on_submit():        author_name = form.author_name.data        book_name = form.book_name.data        # 保存至数据库        author = Author(name=author_name)        db.session.add(author)        db.session.commit()        book = Book(name=book_name, author_id=author.id)        db.session.add(book)        db.session.commit()    author_li = Author.query.all()    return render_template("author_book.html", authors=author_li,form = form)@app.route("/delete_book")def delete_book():    '''删除数据'''    book_id = request.args.get("book_id")    # 删除数据    book = Book.query.get(book_id)    db.session.delete(book)    db.session.commit()    return redirect(url_for("index"))if __name__ == '__main__':    # db.drop_all()    # db.create_all()    # author_kuls = Author(name="kuls")    # author_wu = Author(name="吴承恩")    # author_luo = Author(name="罗贯中")    # db.session.add_all([author_kuls,author_luo,author_wu])    # db.session.commit()    #    # book_pac = Book(name="爬虫从入门到入狱",author_id=author_kuls.id)    # book_wu = Book(name="西游记",author_id=author_wu.id)    # book_luo = Book(name="三国演义",author_id=author_luo.id)    # db.session.add_all([book_luo,book_pac,book_pac])    # db.session.commit()    app.run(debug=True)

    author_book.html:

    <html lang="en"><head>    <meta charset="UTF-8">    <title>Titletitle>head><body>   <form method="post">       {{form.csrf_token}}       {{form.author_name.label}}    <p>{{form.author_name}}p>       {% for msg in form.author_name.errors %}       <p>{{msg}}p>       {% endfor%}       {{form.book_name.label}}    <p>{{form.book_name}}p>       {% for msg in form.book_name.errors %}       <p>{{msg}}p>       {% endfor%}       {{form.submit}}   form><hr>   <ul>       {% for author in authors %}        <li>作者:{{author.name}}li>      <ul>          {% for book in author.book %}          <li>书籍:{{book.name}}li>          <a href="/delete_book?book_id={{book.id}}">删除a>          {% endfor %}      ul>       {% endfor %}   ul>body>html>

    作者:JAP君 

    来源:Python进击者 


    ba3bad91233f4a9c2d41f2e8f7f40678.png

    展开全文
  • 如何用html写一个电商网页主页 前言 目前我还在学习这个初阶段,如果有错误的地方或者没有做好的地方,还请诸位大佬指正,我会虚心学习,多谢了 正文 里面的东西 后面我会详细讲解内容 ps 这里是html代码 效果图 <!...
  • 如何用python写出python的解释器,我感觉这是一个很好的问题,于是就去看看,打算用python写一个试试,后来我发现一个事情,python里面的subprocess算是一个很有趣的东西,他可以解释python自己的代码,之后就有个...
  • 文本来自StackOverflow问答网站一个热门讨论:如何用Java编写一段会发生内存泄露的代码。  Q:刚才我参加了面试,面试官问我如何出会发生内存泄露的Java代码。这个问题我一点思路都没有,好?。  A1:通过...
  • 如何用python写出python的解释器,我感觉这是一个很好的问题,于是就去看看,打算用python写一个试试,后来我发现一个事情,python里面的subprocess算是一个很有趣的东西,他可以解释python自己的代码,之后就有个...
  • 本文来自StackOverflow问答网站一个热门讨论:如何用Java编写一段会发生内存泄露的代码。   Q:刚才我参加了面试,面试官问我如何出会发生内存泄露的Java代码。这个问题我一点思路都没有,好囧。 A1:通过...
  • 今天给大家总结一个小案例,如何实现一个快递查询的接口。所谓接口,就是程序之间交互数据的一种方式,说白了就是浏览器通过url请求到的地址中的代码。而提供快递查询的第三方平台有很多,常见的有快递100、聚合数据...
  • ...通过一个网址 读取网站的源代码 可是上面的代码会乱码  这样就不会了 InputStreamReader inp =new InputStreamReader(url.openStream(),"UTF-8");  reader = new BufferedRe
  • 如何用python写出python的解释器,我感觉这是一个很好的问题,于是就去看看,打算用python写一个试试,后来我发现一个事情,python里面的subprocess算是一个很有趣的东西,他可以解释python自己的代码,之后就有个...
  • node 写一个爬虫

    2020-05-30 11:35:05
    教大家如何使用node.js 3分钟写一个简单的爬虫 提示 !!!!!! 爬取网站内容之前、 请先看看网站的 robots 协议、 要不然 ~~ 面向监狱编程 ? 首先 先查看网站 robots 中有没有不让你动的东西 、 有的话最好别碰 ...
  • 如何写一个页面 一、前期准备素材 学成在线PSD源文件 开发工具 = PS(切图)+ submit(编辑器【代码】)+ Chrome(浏览器【测试】) 二、前期准备工作 创建study目录文件夹(用于存放我们页面的相关内容) ...
  • 本文来自StackOverflow问答网站一个热门讨论:如何用Java编写一段会发生内存泄露的代码。Q:刚才我参加了面试,面试官问我如何出会发生内存泄露的Java代码。这个问题我一点思路都没有,好囧。A1:通过以下步骤...
  • php无数据库读写配置做小网站,或者业务中无需数据库的网站,常常需要一些配置项,如果为了配置这些参数使用数据库实在是太麻烦,这里记录下配置文件的修改实现逻辑程序中使用一个文件用来存储配置参数,如:...
  • 就拿下面一个网站的首页来讲 根据网页效果可以将网页分成各个模块,比如将例子网页可以分割成下图所示的模块图,这样可以方便我们写代码时不容易出错,可以进行好的模块化设计,一个个部分拼接在一起就可以建成一个...
  • 原文地址:http://flychao88.iteye.com/blog/2113133原文如下:本文来自StackOverflow问答网站一个热门讨论:如何用Java编写一段会发生内存泄露的代码。 Q:刚才我参加了面试,面试官问我如何出会发生内存泄露...
  • 很多网站在用户注册账号的时候为了保证账户的安全,都会自动检测用户密码的强度并给出提醒让用户设置一个相对安全的密码,你是不是很好奇这个密码强度检测是怎么开发的,原理又是怎样的,来吧,这个项目就教大家如何...
  • 如何用js放大镜

    2020-12-19 09:43:03
    今天带大家来学习学习如何使用js来写一个放大镜,放大镜的代码其实不难,难在对于结构的理解。 结构的理解 这点大家可以参考一下,某宝某东等等购物网站,其中的商品都会放上去就会显示一张大照片。 一般情况下都是 ...
  • 新手可以做好网站的 无非是博客网站和公司网站,都有源码和视频教程...想要做公司网站也是一个道理,源码下载后上传,具体的看教程吧! 个人独立博客制作-typecho_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili​ 如果你只想...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,007
精华内容 402
关键字:

如何用代码写一个网站