精华内容
下载资源
问答
  • 计算机中目前最普遍使用的汉字字符编码是ASCII码,它是用七位二进制数进行编码的,可表示128个字符。ASCII码是基于拉丁字母的一套电脑编码系统,主要用于显示现代英语和其他西欧语言。计算机中目前最普遍使用的汉字...

    计算机中目前最普遍使用的汉字字符编码是ASCII码,它是用七位二进制数进行编码的,可表示128个字符。ASCII码是基于拉丁字母的一套电脑编码系统,主要用于显示现代英语和其他西欧语言。

    430d6d1068e6119bd1df0a0c6d285384.png

    计算机中目前最普遍使用的汉字字符编码是ASCII码。

    (相关推荐:windows)

    目前在微型机中最普遍采用的字符编码是ASCII码(美国标准信息交换码),它是用七位二进制数进行编码的,可表示128个字符。

    相关介绍:

    ASCII ((American Standard Code for Information Interchange): 美国信息交换标准代码)是基于拉丁字母的一套电脑编码系统,主要用于显示现代英语和其他西欧语言。它是最通用的信息交换标准,并等同于国际标准ISO/IEC 646。ASCII第一次以规范标准的类型发表是在1967年,最后一次更新则是在1986年,到目前为止共定义了128个字符。

    展开全文
  • 工具功能: 字符串转ASCII编码 字符串转...汉字转ASCII编码 汉字转UNICODE编码 ASCII编码汉字 UNICODE编码汉字 比如:字符串“你好” 转为 ASCII“C4 E3 BA C3”和UNICODE“60 4F 7D 59”,也可以实现反转换
  • 什么是计算机中应用最普遍的字符编码发布时间:2020-08-07 11:15:28来源:亿速云阅读:127作者:Leah什么是计算机中应用最普遍的字符编码?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想...

    什么是计算机中应用最普遍的字符编码

    发布时间:2020-08-07 11:15:28

    来源:亿速云

    阅读:127

    作者:Leah

    什么是计算机中应用最普遍的字符编码?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

    在计算机中应用最普遍的字符编码是ASCII码。

    ASCII ((American Standard Code for Information Interchange): 美国信息交换标准代码)是基于拉丁字母的一套电脑编码系统,主要用于显示现代英语和其他西欧语言。它是最通用的信息交换标准,并等同于国际标准ISO/IEC 646。

    ASCII 码使用指定的7 位或8 位二进制数组合来表示128 或256 种可能的字符。标准ASCII 码也叫基础ASCII码,使用7 位二进制数(剩下的1位二进制为0)来表示所有的大写和小写字母,数字0 到9、标点符号,以及在美式英语中使用的特殊控制字符。

    0~31及127(共33个)是控制字符或通信专用字符(其余为可显示字符),如控制符:LF(换行)、CR(回车)、FF(换页)、DEL(删除)、BS(退格)、BEL(响铃)等;通信专用字符:SOH(文头)、EOT(文尾)、ACK(确认)等;ASCII值为8、9、10 和13 分别转换为退格、制表、换行和回车字符。它们并没有特定的图形显示,但会依不同的应用程序,而对文本显示有不同的影响。

    32~126(共95个)是字符(32是空格),其中48~57为0到9十个阿拉伯数字。

    65~90为26个大写英文字母,97~122号为26个小写英文字母,其余为一些标点符号、运算符号等。

    关于什么是计算机中应用最普遍的字符编码问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注亿速云行业资讯频道了解更多相关知识。

    展开全文
  • JAVA中文字符编码问题详解

    千次阅读 2018-05-11 10:44:51
    JAVA中文字符编码问题详解 JAVA的中文字符乱码问题一直很让人头疼。特别是在WEB应用中。网上的分析文章和解决方案都很多,但总是针对某些特定情况的。很多次遇到乱码问题后,经过极为辛苦的调试和搜索资料后终于...

    JAVA中文字符编码问题详解

        JAVA的中文字符乱码问题一直很让人头疼。特别是在WEB应用中。网上的分析文章和解决方案都很多,但总是针对某些特定情况的。很多次遇到乱码问题后,经过极为辛苦的调试和搜索资料后终于解决,满以为自己已经掌握了对付这些字符乱码怪兽的诀窍。可当过段时间,换了个应用或换了个环境,又会碰到那讨厌的火星文,并再次无所适从。于是下决心好好整理一下中文字符编码问题,以方便自己记忆,也为其他程序员兄弟们提供一份参考。
        
        首先要了解JAVA处理字符的原理。JAVA使用UNICODE来存储字符数据,处理字符时通常有三个步骤:
        - 按指定的字符编码形式,从源输入流中读取字符数据
        - 以UNICODE编码形式将字符数据存储在内存中
        - 按指定的字符编码形式,将字符数据编码并写入目的输出流中。
        所以JAVA处理字符时总是经过了两次编码转换,一次是从指定编码转换为UNICODE编码,一次是从UNICODE编码转换为指定编码。如果在读入时用错误的形式解码字符,则内存存储的是错误的UNICODE字符。而从最初文件中读出的字符数据,到最终在屏幕终端显示这些字符,期间经过了应用程序的多次转换。如果中间某次字符处理,用错误的编码方式解码了从输入流读取的字符数据,或用错误的编码方式将字符写入输出流,则下一个字符数据的接收者就会编解码出错,从而导致最终显示乱码。
        这一点,是我们分析字符编码问题以及解决问题的指导思想。
        
        好,现在我们开始一只只的解决这些乱码怪兽。
        
        一、在JAVA文件中硬编码中文字符,在eclipse中运行,控制台输出了乱码。
        例如,我们在JAVA文件中写入以下代码:
        String text = "大家好";
      System.out.println(text);
      如果我们是在eclipse里编译运行,可能看到的结果是类似这样的乱码:��Һ�。那么,这是为什么呢?
      
      我们先来看看整个字符的转换过程。
      1. 在eclipse窗口中输入中文字符,并保存成UTF-8的JAVA文件。这里发生了多次字符编码转换。不过因为我们相信eclipse的正确性,所以我们不用分析其中的过程,只需要相信保存下的JAVA文件确实是UTF-8格式。
      2. 在eclipse中编译运行此JAVA文件。这里有必要详细分析一下编译和运行时的字符编码转换。
       - 编译:我们用javac编译JAVA文件时,javac不会智能到猜出你所要编译的文件是什么编码类型的,所以它需要指定读取文件所用的编码类型。默认javac使用平台缺省的字符编码类型来解析JAVA文件。平台缺省编码是操作系统决定的,我们使用的是中文操作系统,语言区域设置通常都是中国大陆,所以平台缺省编码类型通常是GBK。这个编码类型我们可以在JAVA中使用System.getProperty("file.encoding")来查看。所以javac会默认使用GBK来解析JAVA文件。如果我们要改变javac所用的编码类型,就要加上-encoding参数,如javac -encoding utf-8 Test.java。
         这里要另外提一下的是eclipse使用的是内置的编译器,并不能添加参数,如果要为javac添加参数则建议使用ANT来编译。不过这并非出现乱码的原因,因为eclipse可以为每个JAVA文件设置字符编码类型,而内置编译器会根据此设置来编译JAVA文件。
       - 运行:编译后字符数据会以UNICODE格式存入字节码文件中。然后eclipse会调用java命令来运行此字节码文件。因为字节码中的字符总是UNICODE格式,所以java读取字节码文件并没有编码转换过程。虚拟机读取文件后,字符数据便以UNICODE格式存储在内存中了。
      3. 调用System.out.println来输出字符。这里又发生了字符编码转换。
      System.out.println使用了PrintStream类来输出字符数据至控制台。PrintStream会使用平台缺省的编码方式来输出字符。我们的中文系统上缺省方式为GBK,所以内存中的UNICODE字符被转码成了GBK格式,并送到了操作系统的输出服务中。因为我们操作系统是中文系统,所以往终端显示设备上打印字符时使用的也是GBK编码。如果到这一步,我们的字符其实不再是GBK编码的话,终端就会显示出乱码。
      
      那么,在eclipse运行带中文字符的JAVA文件,控制台显示了乱码,是在哪一步转换错误呢?我们一步步来分析。
      - 保存JAVA文件成UTF-8后,如果再次打开你没有看到乱码,说明这步是正确的。
      - 用eclipse本身来编译运行JAVA文件,应该没有问题。
      - System.out.println会把内存中正确的UNICODE字符编码成GBK,然后发到eclipse的控制台去。等等,我们看到在Run Configuration对话框的Common标签里,控制台的字符编码被设置成了UTF-8!问题就在这里。System.out.println已经把字符编码成了GBK,而控制台仍然以UTF-8的格式读取字符,自然会出现乱码。
      将控制台的字符编码设置为GBK,乱码问题解决。
      (这里补充一点:eclipse的控制台编码是继承了workspace的设置的,通常控制台编码里没有GBK的选项而且不能输入。我们可以先在workspace的编码设置中输入GBK,然后在控制台的设置中就可以看到GBK的选项了,设置好后再把workspace的字符编码设置改回utf-8就是。)

        二、JSP文件中硬编码中文字符,在浏览器上显示乱码。
        我们用eclipse编写一个JSP页面,使用tomcat浏览这个页面时,整个页面的中文字符都是乱码。这是什么原因呢?
        JSP页面从编写到在浏览器上浏览,总共有四次字符编解码。
        1. 以某种字符编码保存JSP文件
        2. Tomcat以指定编码来读取JSP文件并编译
        3. Tomcat向浏览器以指定编码来发送HTML内容
        4. 浏览器以指定编码解析HTML内容
        这里的四次字符编解码,有一次发生错误最终显示的就会是乱码。我们依次来分析各次的字符编码是如何设置的。
        - 保存JSP文件,这是在编辑器中设置的,比如eclipse中,设置文件字符类型为utf-8。
        - JSP文件开头的<%@ page language="java" contentType="text/html; charset=utf-8" pageEncoding="utf-8"%>,其中pageEncoding用来告诉tomcat此文件所用的字符编码。这个编码应该与eclipse保存文件用的编码一致。Tomcat以此编码方式来读取JSP文件并编译。
        - page标签中的contentType用来设置tomcat往浏览器发送HTML内容所使用的编码。这个编码会在HTTP响应头中指定以通知浏览器。
        - 浏览器根据HTTP响应头中指定的字符编码来解析HTML内容。如:
    HTTP/1.1 200 OK 
    Date: Mon, 01 Sep 2008 23:13:31 GMT 
    Server: Apache/2.2.4 (Win32) mod_jk/1.2.26 
    Vary: Host,Accept-Encoding 
    Set-Cookie: JAVA2000_STYLE_ID=1; Domain=www.java2000.net; Expires=Thu, 03-Nov-2011 09:00:10 GMT; Path=/ 
    Content-Encoding: gzip 
    Transfer-Encoding: chunked 
    Content-Type: text/html;charset=UTF-8 
        另外,HTML中有个标签<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">中也指定了charset。不过这个字符编码只有在当网页保存在本地作为静态网页时有效,因为没有HTTP头,所以浏览器根据此标签来识别HTML内容的编码方式。
        
        现在在JSP文件中硬编码出现乱码的机会比较小了,因为大家都用了如eclipse的编辑器,基本上可以自动保证这几个编码设置的正确性。现在更多碰到的是在JSP文件中从其他数据源中读取中文字符所产生的乱码问题。
        
        三、在JSP文件中读取字符文件并在页面中显示,中文字符显示为乱码。
        比如,我们在JSP文件中使用以下代码:
        <%
        BufferedReader reader = new BufferedReader(new FileReader("D://test.txt"));
      String content = reader.readLine();
      reader.close();
      %>
      <%=content%>
      test.txt里保存的是中文字符,但在浏览器上看到的乱码。这是个经常见到的问题。我们继续用之前的方法一步步来分析输入和输出流
      1. test.txt是以某种编码方式保存中文字符,比如UTF-8。
      2. BufferedReader直接读取test.txt的字节内容并以默认方式构造字符串。分析BufferedReader的代码,我们可以看到BufferedReader调用了FileReader的read方法,而FileReader又调用了FileInputStream的native的read方法。所谓native的方法,就是操作系统底层方法。那么我们操作系统是中文系统,所以FileInputStream默认用GBK方式读取文件。因为我们保存test.txt用的是UTF-8,所以在这里读取文件内容使用GBK是错误的编码。
      3. <%=content%>其实就是out.print(content),这里又用到了HTTP的输出流JspWriter,于是字符串content又被以JSP的page标签中指定的UTF-8方式编码成字节数组被发送到浏览器端。
      4. 浏览器以HTTP头中指定的方式解码字符,这时无论是用GBK还是UTF-8解码,显示的都是乱码。
      可见,我们字符编码转换在第二步时出错了,UTF-8的字符串被当做GBK读入了内存中。
      解决这个乱码问题有两种方法,一是把test.txt用GBK保存,则FileInputStream能正确读入中文字符;二是使用InputStreamReader来转换字符编码,如:
      InputStreamReader sr = new InputStreamReader(new FileInputStream("D://test.txt"),"utf-8");
      BufferedReader reader = new BufferedReader(sr);
      这样,JAVA就会用utf-8的方式来从文件中读取字符数据。
      另外,我们可以通过在java命令后带上Dfile.encoding参数来指定虚拟机读取文件使用的默认字符编码,例如java -Dfile.encoding=utf-8 Test,这样,我们在JAVA代码里用System.getProperty("file.encoding")取到的值为utf-8。
      
      四、JSP读取request.getParameter里的中文参数后,在页面显示为乱码。
      
      在JAVA的WEB应用中,对request对象里的parameters的中文处理一直是常见也最难搞的一只大怪兽。经常是刚搞定了这边,那边又出了乱码。而导致这种复杂性的,主要是此过程中字符编解码次数非常多,而且无论是浏览器还是WEB服务器特别是TOMCAT总是不能给我们一个比较满意的支持。
      首先我们来分析用GET方式上传参数的乱码情况。
      例如我们在浏览器地址栏输入以下URL:http://localhost:8080/test/test.jsp?param=大家好
      我们的JSP代码如此处理param这个参数:
      <% String text = request.getParameter("param");  %>
      <%=text%>
      而就这么简单的两句代码,我们很有可能在页面上看到这样的乱码:´ó¼ÒºÃ 
      网上对处理request.getParamter中的乱码有很多文章和方法,也都是正确的,只是方法太多让人一直不明白到底是为什么。这里给大家分析一下到底是怎么一回事。
      首先,我们来看看与request对象有哪些相关的编码设置:
      1. JSP文件的字符编码
      2. 请求这个带参数URL的源页面的字符编码
      3. IE的高级设置中的选项“总以utf-8方式发送URL地址”
      4. TOMCAT的server.xml中配置URIEncoding
      5. 函数request.setCharacterEncoding()
      6. JS的encodeURIComponent函数与JAVA的URLDecoder类

      这么多条相关编码设置,也难怪大家被搞得头晕了。这里给大家根据各种情况给大家一一分析一下。见下表:

    序号

    请求源页面编码

    从地址栏输入URL访问

    TOMCAT的URIEncoding设置

    IE的UTF-8发送URL地址设置

    结果

    1

    UTF-8

     

    未设置

    打开

    显示符号乱码

    2

    UTF-8

     

    未设置

    关闭

    显示符号乱码

    3

    GBK

     

    为设置

    打开

    显示符号乱码

    4

    GBK

     

    未设置

    关闭

    显示符号乱码

    5

     

    地址栏输入

    未设置

    打开

    显示符号乱码

    6

     

    地址栏输入

    未设置

    关闭

    显示符号乱码

    7

    UTF-8

     

    GBK

    打开

    显示汉字乱码

    8

    UTF-8

     

    GBK

    关闭

    显示汉字乱码

    9

    GBK

     

    GBK

    打开

    正常

    10

    GBK

     

    GBK

    关闭

    正常

    11

     

    地址栏输入

    GBK

    打开

    正常

    12

     

    地址栏输入

    GBK

    关闭

    正常

    13

    UTF-8

     

    UTF-8

    打开

    IE6:奇数个的中文最后一位为乱码

    IE7:正常

    14

    UTF-8

     

    UTF-8

    关闭

    IE6:奇数个的中文最后一位为乱码

    IE7:正常

    15

     

    地址栏输入

    UTF-8

    打开

    显示口字乱码

    16

     

    地址栏输入

    UTF-8

    关闭

    显示口字乱码

    17

    GBK

     

    UTF-8

    打开

    显示问号乱码

    18

    GBK

     

    UTF-8

    关闭

    显示问号乱码

    19

     

    地址栏输入

    UTF-8

    打开

    显示口字乱码

    20

     

    地址栏输入

    UTF-8

    关闭

    显示口字乱码

    以上表格里的现象,除了指名在IE7上,其他全是在IE6上测试的结果。
      由这个表我们可以看到,IE的“总以utf-8方式发送URL地址”设置并不影响对parameter的解析,而从页面请求URL和从地址栏输入URL居然也有不同的表现。
      根据这个表列出的现象,大家只要用smartSniff抓几个网络包,并稍稍调查一下TOMCAT的源代码,就可以得出以下结论:
      1. IE设置中的“总以utf-8方式发送URL地址”只对URL的PATH部分起作用,对查询字符串是不起作用的。也就是说,如果勾选了这个选项,那么类似http://localhost:8080/test/大家好.jsp?param=大家好这种URL,前一个“大家好”将被转化成utf-8形式,而后一个并没有变化。这里所说的utf-8形式,其实应该叫utf-8+escape形式,即%B4%F3%BC%D2%BA%C3这种形式。
      那么,查询字符串中的中文字符,到底是用什么编码传送到服务器的呢?答案是系统默认编码,即GBK。也就是说,在我们中文操作系统上,传送给WEB服务器的查询字符串,总是以GBK来编码的。
      2. 在页面中通过链接或location重定向或open新窗口的方式来请求一个URL,这个URL里面的中文字符是用什么编码的?答:是用该页面的编码类型。也就是说,如果我们从某个源JSP页面上的链接来访问http://localhost:8080/test/test.jsp?param=大家好这个URL,如果源JSP页面的编码是UTF-8,则大家好这几个字的编码就是UTF-8。
      而在地址栏上直接输入URL地址,或者从系统剪贴板粘贴到地址栏上,这个输入并非从页面中发起的,而是由操作系统发起的,所以这个编码只可能是系统的默认编码,与任何页面无关。我们还发现,在不同的浏览器上,用链接方式打开的页面,如果在地址栏上再敲个回车,显示的结果也会不同。IE上敲回车后显示不变化,而傲游上可能就会有乱码或乱码消失的变化。说明IE上敲回车,实际发送的是之前记忆下来的内存中的URL,而傲游上发送的从当前地址栏重新获取的URL。
      3. TOMCAT的URIEncoding如果不加以设置,则默认使用ISO-8859-1来解码URL,设置后便用设置了的编码方式来解码。这个解码同时包括PATH部分和查询字符串部分。可见,这个参数是对用GET方式传递的中文参数最关键的设置。不过,这个参数只对GET方式传递的参数有效,对POST的无效。分析TOMCAT的源代码我们可以看到,在请求一个页面时,TOMCAT会尝试构造一个Request对象,在这个对象里,会从Server.xml里读取URIEncoding的值,并赋值给Parameters类的queryStringEncoding变量,而这个变量将在解析request.getParameter中的GET参数时用来指导字符解码。
      4. request.setCharacterEncoding函数只对POST的参数有效,对GET的参数无效。且这个函数必须是在第一次调用request.getParameter之前使用。这是因为Parameters类有两个字符编码参数,一个是encoding,另一个是queryStringEncoding,而setCharacterEncoding设置的是encoding,这个是在解析POST的参数是才用到的。
      所以,这就导致了我们通常都要分开处理POST和GET的字符编码,用TOMCAT自带的filter只能处理POST的,另外要设置URIEncoding来设置GET的。这样很麻烦而且URIEncoding无法根据内容来动态区分编码,总还是一个问题。
      在调查TOMCAT的代码时发现了另一个在server.xml里的参数useBodyEncodingForURI,可以解决这个问题。这个参数设成true后,TOMCAT就会用request.setCharacterEncoding所设置的字符编码来同样解析GET参数了。这样,那个SetCharacterEncodingFilter就可以同时处理GET和POST参数了。
      
      知道了以上知识后,我们再来分析一下前面表格中列出的几个典型现象。
      第一条,请求源页面的编码为UTF-8,而TOMCAT的URIEncoding未指定,则TOMCAT用ISO8859-1方式来解码参数,所以从request中读出来后,内存中存储的为错误的UNICODE数据,导致之后到屏幕显示的所有转换全部出错。
      第九条,请求源页面编码为GBK,而TOMCAT的URIEncoding也为GBK,TOMCAT用GBK方式去解码原本用GBK编码的字符,解码正确,内存中的UNICODE值正确,最终显示正确的中文。
      第十三条,请求源页面编码为UTF-8,TOMCAT的URIEncoding也为UTF-8,而在IE6中最终显示的中文字符,如果是奇数个数,则最后一个会显示为乱码。这是为什么呢?
      我的猜测是,这是因为IE6将URL地址发送时,对查询字符串是直接对UTF-8格式的字符使用GBK来编码,而不是对UNICODE的字符来用GBK编码,所以UTF-8的数据没有经过UNICODE而直接编码成了GBK。而到了TOMCAT这边,GBK的编码又被当成UTF-8做了解码。所以这个过程中经过了UTF-8转换成GBK,然后又从GBK转换成UTF-8的过程,而这种转换,恰好就会出现奇数个中文字符串的最后一位为乱码的现象。而在IE7中,估计把这种现象当做BUG已经被解决了,即在发送地址时会先转成UNICODE再编码成GBK。那么估计在IE7的浏览器+中文操作系统环境下,如果我们把TOMCAT的URIEncoding设置成GBK,无论JSP编码成什么格式,都不会出现乱码。这个没测试,请大家自己验证。
      其他几条就不再做分析了,有兴趣的大家自己分析。
      
      五、对URL做Encode和Decode
      
      对于request参数的中文乱码问题,个人觉得最好的还是用URLEncode/URLDecode,因为如果你的WEB站点要支持国际化,最好就是保证从IE递送过来的参数永远是正确的UTF-8编码。
      在IE端,我们可以用JS脚本来对参数编码:encodeURIComponent(),编码后中文字符便变成了%B4%F3%BC%D2%BA%C3这种形式。在JAVA端,可以用java.net.URLDecoder.decode来解码。不过这里要注意一个问题,就是TOMCAT会自动先对URL做一次decode,我们可以在TOMCAT的UDecoder类中看到这一点。不过TOMCAT并非使用了URLDecoder.decode,而是自己编写了一个decode函数。网上有些文章上介绍过一种处理乱码的方法便是在JS中对参数做两次encodeURIComponent,在JAVA中做一次decode,可以解决一些没有设置URIEncoding时发生的乱码问题。不过个人觉得如果弄懂了整个字符编码转换的过程,基本上是用不到这种方法的。
        
      六、从数据库中读取中文字符数据,在页面上显示为乱码。
      
      对于数据库中读取中文字符出现乱码的问题,本人遇到的还比较少,所以暂时没有总结。如果大家有类似的经验,欢迎补充说明,我一定注明作者身份。
      
      好了,对各种字符乱码问题的分析就总结到这里,相信只要把握“以指定编码读取--转换为UNICODE--以指定编码输入”这基本步骤,初学者也可以很快分析出字符乱码的根源所在。另外我建议不要随便使用new String(str.getBytes(enc1),enc2)这种方式来强行转码,也不要随便使用网上的字符转码函数,我觉得只会把问题隐藏更深更复杂化。我们应该清晰地分析整个字符流的编解码过程,自然可以找出乱码的根源所在,从而保证整个字符流动中,在内存中的UNICODE始终是正确的。
      
      
      另外再附上个人总结的乱码分析的一套秘籍!即从乱码的长相来分析是哪种编码转换错误。有人可以闻香识酒,我们也来个看字识码。请看下表:

    名称

    示例

    特点

    产生原因

    古文码

    鐢辨湀瑕佸ソ濂藉涔犲ぉ澶悜涓?

    大都为不认识的古文,并加杂日韩文

    以GBK方式读取UTF-8编码的中文

    口字码

    ����Ҫ�¨²�ѧϰ������

    大部分字符为小方块

    以UTF-8的方式读取GBK编码的中文

    符号码

    ç±æè¦å¥½å¥½å­¦ä¹ å¤©å¤©åä¸

    大部分字符为各种符号

    以ISO8859-1方式读取UTF-8编码的中文

    拼音码

    ÓÉÔÂÒªºÃºÃѧϰÌìÌìÏòÉÏ

    大部分字符为头顶带有各种类似声调符号的字母

    以ISO8859-1方式读取GBK编码的中文

    问句码

    由月要好好学习天天向??

    字符串长度为偶数时正确,长度为奇数时最后的字符变为问号

    以GBK方式读取UTF-8编码的中文,然后又用UTF-8的格式再次读取

    锟拷

    锟斤拷锟斤拷要锟矫猴拷学习锟斤拷锟斤拷锟斤拷

    全中文字符,且大部分字符为“锟斤拷”这几个字符

    以UTF-8方式读取GBK编码的中文,然后又用GBK的格式再次读取

     

      不过个人至今仍然弄不明白的就是问号码的产生原因,问号码即所有字符几乎全部为问号的乱码。问号码的出现有多种情况。我目前能确认的当我们把中文字符强行以ISO8859-1编码写入文件后,字符的高位信息会丢失,从而再次从文件中读出字符时便全部变为问号符。而我在JAVA代码中用UTF-8的方式去读取GBK编码的字符,出来的也是问号码,而并非口字码,这是我百思不得其解的问题。




    展开全文
  • 中文汉字字符、标点和unicode、GBK的编码对应表
  • 解决python的中文字符编码问题

    万次阅读 2018-07-15 17:00:23
    摘要:最近在做自然语言处理相关的项目,发现中文编码的问题实在需要好好学习下,我用python为例,简单介绍下python编程时如何处理好中文编码的问题。

    摘要:最近在做自然语言处理相关的项目,发现中文编码的问题实在需要好好学习下,我用python为例,简单介绍下python编程时如何处理好中文编码的问题。

    关键字:自然语言处理, 字符编码, python


    1. 从字符编码谈起

    讲真,字符编码是很大的一块内容,单用一篇博客是完全讲不完的。这里借用一下大佬的文章:字符编码笔记:ASCII,Unicode 和 UTF-8 - 阮一峰的日志

    看完上面的那篇文章之后,相信你对字符编码有了一定的认识。在中文的自然语言处理中,最常遇到的是ASCII,Unicode,UTF-8,GB2312,GBK等。这几种编码,你都可以搜索相关的文章看下,我这里就不展开介绍了。直接用几个python的程序解释下如何在python中处理字符编码的问题。

    2. 关于python的str类型和print过程

    比如一段程序:

    # -*- coding:utf-8 -*-
    
    s = "这是一段中文"  # s是str类型的变量
    print(s)
    
    # 程序输出:“这是一段中文”
    

    这段程序中的变量s就是str类型的。我们都知道计算机内部都是二进制的0和1,str类型就是这样的0和1组成的二进制字节流,也就是说这里的变量s在计算机内部是一段二进制字节,并不是字符串。

    如果你是在python的交互式编程环境中,那么你可以做个实验:

    >>> s = "这是一段中文"
    >>> s
    \xe8\xbf\x99\xe6\x98\xaf\xe4\xb8\x80\xe6\xae\xb5\xe4\xb8\xad\xe6\x96\x87
    

    \x表示这个数是十六进制数,\xe8表示这个数是十六进制数“E8”,转换为二进制为11101000,上面的“\xe8\xbf\x99\xe6\x98\xaf\xe4\xb8\x80\xe6\xae\xb5\xe4\xb8\xad\xe6\x96\x87”就是变量s所代表的字节流,换句话说,就是字符串“这是一段中文”在utf-8编码格式下的二进制表示。

    这里就出现了两个问题:

    1. 变量s赋值时,一段中文字符串是怎么变成二进制字节流的?
    2. 打印变量s时,二进制字节流是怎么变成一段中文字符串的?

    首先是问题1。变量s赋值时,字符串经过某种编码方式编码(encode)成为二进制字节,再赋值给变量s。这里的“某种编码方式”由代码显式指出,代码的第一行# -*- coding:utf-8 -*-就是用来显式地告诉计算机,你在str类型赋值时,用utf-8的编码方式。

    然后是问题2。打印变量s时,二进制字节流通过某种编码方式解码(decode)为字符串。这里的“某种编码方式”由操作系统指出。我用的ubuntu系统使用的是utf-8的编码方式。

    注意体会编码解码这两个词的不同。编码方式和解码方式一样,才能正常print,否则显示的是乱码。

    可能你还是不太明白,我们用上面的程序再做一组实验。因为每台电脑的命令行的编码方式不一样,我用的是ubuntu的系统,编码格式是utf-8,我以我的电脑为例来讲解。同时,注意实验要在命令行的状态下进行。有些ide比较智能,会自动更换输出环境的编码格式,达不到实验效果。

    第一个程序和上面的一样,我们来看下效果:

    # -*- coding:utf-8 -*-
    
    # 命令行的编码方式为utf-8
    
    s = "这是一段中文"  # s是str类型的变量,计算机把字符串以utf-8格式编码成二进制字节,赋值给s
    
    print(s)    # s是str类型的变量,计算机读取s(也就是读取出二进制字节),然后以utf-8格式解码为字符串
    
    # 程序输出:“这是一段中文”
    

    然后,我们改动第一行:

    # -*- coding:GBK -*-
    
    # 命令行的编码方式为utf-8
    
    s = "这是一段中文"  # s是str类型的变量,计算机把字符串以GBK格式编码成二进制字节,赋值给s
    
    print(s)    # s是str类型的变量,计算机读取s(也就是读取出二进制字节),然后以utf-8格式解码为字符串
    
    # 程序输出:一段乱码
    

    我们再做第三个实验:

    # -*- coding:utf-8 -*-
    
    # 命令行的编码方式为GBK
    
    s = "这是一段中文"  # s是str类型的变量,计算机把字符串以utf-8格式编码成二进制字节,赋值给s
    
    print(s)    # s是str类型的变量,计算机读取s(也就是读取出二进制字节),然后以GBK格式解码为字符串
    
    # 程序输出:一段乱码
    

    我想你应该能理解这三个程序之间的区别。

    2. 关于unicode类型

    unicode类型是python中的一种字符串类型,在计算机内也是二进制字节。不过不同于str是单纯的二进制字节,unicode类型特指由ucs2或者ucs4编码格式编码的二进制字节。

    如果你在python的交互式编程环境中,你可以做个实验:

    >>> s = u"这是一段中文"    # 这边多了个u,表示变量s为unicode变量
    >>> s
    u'\u8fd9\u662f\u4e00\u6bb5\u4e2d\u6587'
    

    可以看到,和上面str类型的实验结果的\x不一样了,这里出现的是\u\u代表了在unicode编码表中的位置,比如\u8fd9就代表unicode编码表中8fd9这个位置的字符。

    python中unicode类型的变量是作为一个中转站存在的。比如你要把一段字符串从utf-8编码转为GBK编码,你需要做的是:

    # -*- coding:utf-8 -*-
    
    s = "这是一段中文"  # s是str类型的变量,计算机把字符串以utf-8格式编码成二进制字节,赋值给s
    
    s.decode("utf-8")   # 二进制字节s以utf-8格式解码到unicode,解码后s从str类型变为unicode类型
    
    s.encode("GBK")     # unicode类型的变量s被以GBK格式编码为二进制字符串,编码后变量s从unicode类型变为str类型
    
    # 程序输出:一段乱码
    

    反过来,要把一个GBK编码的字符串转为utf-8也一样,要以unicode作为中转站。

    3. sys.setdefaultencoding(‘utf-8’)

    网上一些教程会教你,在遇到中文编码问题的时候,在代码的开头加上这几句:

    # -*- coding:utf-8 -*-
    import sys
    reload(sys)
    sys.setdefaultencoding('utf-8')
    

    你一试,还真的解决了问题,但你不知道这几句话有什么用。

    第一句# -*- coding:utf-8 -*-上一段已经说了,是为了显式地说明代码是由utf-8格式编码的,如果你不加的话,一般来说是采用默认编码ascii。ascii不支持中文,你的代码中有任何中文就会出错。

    后面三句,最重要的是sys.setdefaultencoding('utf-8'),它的目的是修改默认的解码方式为utf-8。

    看下面的实验:

    # -*- coding: utf-8 -*- 
    s = '中文字符'  # s是字符串经过utf-8编码格式编码后的二进制字节,str类型
    s.encode('GBK') # s是二进制字节,它不会直接encode。python会首先调用decode,将s从str类型变为unicode格式,再用GBK编码为str类型
    

    你可以使用以下代码获取python默认的解码方式:

    import sys
    print(sys.getdefaultencoding())
    

    假如你获取到的默认解码方式为ascii。那么:

    # -*- coding: utf-8 -*- 
    s = "这是一段中文"  # s是字符串经过utf-8编码格式编码后的二进制字节,str类型
    s.encode("GBK") # s是二进制字节,它不会直接encode。python会首先调用decode,将s从str类型变为unicode格式,再用GBK编码为str类型
    
    # 如果你的默认解码方式为ascii,那么上面一句话在实际执行时,相当于下面这句话
    s.decode("ascii").encode("GBK")
    

    显然,程序会报错:UnicodeDecodeError: ‘ascii’ codec can’t decode byte 0xe4 in position 。

    解决方法1,显示地指明解码格式:

    # -*- coding: utf-8 -*- 
    s = "这是一段中文" 
    
    s.decode("utf-8").encode("GBK") 
    

    解决方法2,修改默认解码方式:

    # -*- coding: utf-8 -*- 
    import sys
    reload(sys)
    sys.setdefaultencoding('utf-8')
    
    s = "这是一段中文" 
    
    s.encode("GBK") 
    

    你应该能从这几个实验中明白sys.setdefaultencoding('utf-8')的作用。

    4. 检验学习成果

    python常见编码错误集合 - 妙音的博客

    看看上面链接的博客里所列举的几个错误示例,现在你是否能够一眼就找出错误点,并给出解决方法呢?

    展开全文
  • GB 18030-2005 信息技术 中文编码字符
  • 原文链接:程序员必备:彻底弄懂常见的7种中文字符编码 文章目录一、字符编码要做什么事情?二、几种常见中文编码的关系如何?三、ASCII编码四、GB2312、GBK、GB18030编码【GB2312】【GBK】【GB18030】五、UTF8编码...
  • 在现在的互联网,字符编码是互联网信息交互的一个重要基础,各种语言都有支持信息编码的机制,Python也不例外。Python除了字符编码之外,对于字节码和字符串两种类型有严格区分,字符串是本地可以读取的信息,字节码...
  • 汉字字符编码查询 unicode编码查询

    万次阅读 2018-09-13 09:04:06
    GB2312编码:1981年5月1日发布的简体中文汉字编码国家标准。GB2312对汉字采用双字节编码,收录7445个图形字符,其中包括6763个汉字。 BIG5编码:台湾地区繁体中文标准字符集,采用双字节编码,共收录13053...
  • Python语言在网络爬虫领域应用的十分广泛。在爬虫的应用程序中,我们需要对...先开始我们不讲编程,不堆概念,我们讲讲故事:说说字符编码是如何变成今天这样的关于字符编码的概念太多太杂,当ASCII、GB2312、Unicod...
  • 字符编码查询/反查工具
  • 字符编码windows notepad、windows notepad++和sublime text的字符编码显示区别: windows notepad notepad++ sublime text ANSI ANSI GB2312 Unicode UCS-2 LE BOM UTF-16LE Unicode big endian UCS-2 BE...
  • 常见的汉字字符编码

    万次阅读 2017-07-13 16:59:27
    以下是常见的汉字字符编码: GB2312编码:1981年5月1日发布的简体中文汉字编码国家标准。GB2312对汉字采用双字节编码,收录7445个图形字符,其中包括6763个汉字。 BIG5编码:台湾地区繁体中文标准字符集,采用双...
  • 话题:在微型计算机中,应用最普遍的西文字符编码是什么回答:美国佬的ASCII,没办法,计算机是他们发明的。参考回答:ASCII码话题:微机中常用的西文字符编码是什么?回答:微机中普遍使用的字符编码是ASCII码吗? 完全...
  • 《信息交换用汉字编码字符集》是由中国国家标准总局1980年发布,1981年5月1日开始实施的一套国家标准,标准号是GB2312-1980。GB2312编码适用于汉字处理、汉字通信等系统之间的信息交换,通行于中国大陆;新加坡等地...
  • 西文字符和汉字的编码表示西文字符概念ASCII码表特点西文字符特点西文字符表示(常用编码为7位ASCII码)西文字符操作汉字字符编码形式输入码字符集与汉字内码 西文字符 概念 西文字符由拉丁字母、数字、标点符号及...
  • GB 2312-1980 信息交换用汉字编码字符集 基本集
  • GBK字符编码

    2014-02-10 13:52:24
    标准的GBK字符编码表,工具类文档必备
  • 中文字符编码的相互转换

    千次阅读 2017-06-06 20:18:46
    尤其是在前后台交互的过程中,字符编码如影随行。如果多个平台的字符编码不一致,需要相互转化的话,很有必要了解一下编码的工作原理。网上有太多关于编码的知识了,在此我尽量按照我对编码的理解描述的简单易懂。1...
  • 字符集(Character set)是多个字符的集合,字符集种类较多,每个字符集包含的字符个数不同,常见字符集有:ASCII字符集、GB2312字符集、BIG5字符集、 GB18030字符集、Unicode字符集等。 那么为什么会有那么多字符集...
  • C++与字符集、字符编码

    千次阅读 2019-11-02 10:50:06
    字符编码 字符集与字符编码的关系 多种字符编码存在的意义 字符编码的发展历史 活动代码页 c++的多字节字符与宽字节字符 c++的多字节字符串与宽字节字符串 C++程序输出字符串的编码 字符串常量 参考文章 ...
  • java中文字符汉字转GBK编码

    千次阅读 2020-12-15 19:41:10
    public static String toGBK(String source) throws UnsupportedEncodingException { StringBuilder sb = new StringBuilder(); byte[] bytes = source.getBytes("GBK"); for(byte b : bytes) { sb.append("%" + ...
  • 结合Java详谈字符编码和字符集

    万次阅读 多人点赞 2018-07-07 14:04:45
    字符编码和字符集是两个基础性的概念,很多开发人员对其都并不陌生,但是很少有人能将其讲得很准确。当应用出现乱码时,如何分析和定位原因,很多人仍是一头雾水。这篇文章,将从字符编码和字符集的相关概念开始讲解...
  • js 对中文字符的 解码 与 编码

    千次阅读 2020-12-16 11:03:05
    功能: 解码由 encodeURIComponent 方法或者其它类似方法编码的标识符,一般用于解码标识符为中文。 Demo: let encodeStr = encodeURIComponent('中文') console.log(encodeStr) // "%E4%B8%AD%E6%96%87" let ...
  • 本文属于 字符编码系列文章之一,更多请前往 字符编码系列。 题纲 基本概念 欧美的编码 ASCII码 ISO-8859-1编码 中文系列编码 GB2312编码 GBK编码 BIG5编码 GB18030编码 ANSI 编码 Unicode与UCS Unicod...
  • 常见的几种字符编码方式

    千次阅读 2020-08-05 17:53:11
    (1)unicode编码: 用十六位二进制数表示一个字符 (2) utf-8: A用01000001表示,用两个八位存储中文。 输出的结果中出现乱码原因: 计算机只能处理0和1两个数字,所以想要处理文本,必须把文本变成0和1这样的数字,最...
  • css字符编码

    千次阅读 2017-10-26 11:01:48
    最近在css中使用中文字体遇到了乱码问题,上网查了一下,原来是字符编码的问题。
  • C语言字符串与中文编码

    千次阅读 2020-03-24 10:26:09
    该博文为原创文章,未经博主同意不得转载,如同意转载请注明博文出处 本文章博客地址:https://cplusplus.blog.csdn.net/article/details/105065750 字符串与中文编码 前言 问题分析: 解决办法 方案1. 使用wchar_t...
  • Java常用字符编码详解

    千次阅读 2021-02-26 12:01:02
    Java常用字符集编码详解Web开发的时候经常会遇到一些字符编码的错误,如页面乱码等问题,所以有必要需对字符编码有所了解,以下是Ricki收集的一些资料(可能不是很全,但希望对你有所帮助)Java标准字符集:所谓Java...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 404,957
精华内容 161,982
关键字:

哪些是中文字符编码