精华内容
下载资源
问答
  • UTF-8
    千次阅读
    2022-01-07 10:54:50

    在有些python代码中会看到

    # coding:utf-8
    

    或者

    # coding=utf-8
    

    或者

    ## -*- coding:utf-8 -*-
    

    的代码行,它们是什么意思呢?

    【作用】

    这三行代码都是起到 “设置编码格式” 的作用,三者可以说作用一样,都是声明该python文件是按照 “utf-8” 编码的。

    在python2中,默认采用ASCII编码,此时如果文件中出现中文,则程序会报错,即使中文在注释中,程序也会报错。如果想在python2中添加中文,则需要加入上面三行代码中的一个,以声明文件按照 “utf-8” 编码,从而支持中文字符

    在python3中,默认采用 utf-8 编码,所以一般不用特意声明。

    注意:“coding” 和 “utf-8” 之间使用 “:” 或者 “=” 均可,但是 “:” 和 “=” 左边不能有空格,否则会报错。

    【位置】

    一般,这行设置编码格式的生命代码会放在第一行或者第二行,否则就不起作用了。

    更多相关内容
  • UTF-8UTF-8(BOM)区别和一些说明

    千次阅读 2021-07-31 16:31:19
    写在前面在我们通常使用的...原因在于:此时保存的编码方式自动会变为UTF-8 BOM 一、一个汉字在不同的编码方式中占多少字节?        1.在UTF-8中,一个汉字占3个字节(一个字符占一个字...

    写在前面

    在我们通常使用的windows系统中,我发现了一个有趣的现象。我新建一个空的文本文档,点击文件-另存为-编码选择UTF-8,然后保存。此时这个文件明明是空的,却占了3字节大小。原因在于:此时保存的编码方式自动会变为UTF-8 BOM

    一、一个汉字在不同的编码方式中占多少字节?

           1.在UTF-8中,一个汉字占3个字节(一个字符占一个字节)

          2.在ASCII码中,一个汉字占2个字节(一个字符占一个字节)

          3.在Unicode编码中,一个汉字占2个字节(一个字符同样占两个字节,所以JAVA中char a = '中';是可以的)

    二、UTF-8与UTF-8 BOM

            BOM即byte order mark,具体含义可百度百科或维基百科,UTF-8文件中放置BOM主要是微软的习惯,但是放在别的系统上会出现问题。不含BOM的UTF-8才是标准形式,UTF-8不需要BOM带BOM的UTF-8文件的开头会有U+FEFF,所以我新建的空文件会有3字节的大小。

    BOM的含义

      BOM即Byte Order Mark字节序标记。BOM是为UTF-16和UTF-32准备的,用户标记字节序(byte order)。拿UTF-16来举例,其是以两个字节为编码单元,在解释一个UTF-16文本前,首先要弄清楚每个编码单元的字节序。例如收到一个“奎”的Unicode编码是594E,“乙”的Unicode编码是4E59。如果我们收到UTF-16字节流"594E",那么这是“奎”还是“乙”?

      Unicode规范中推荐的标记字节顺序的方法是BOM:在UCS编码中有一个叫做"ZERO WIDTH NO-BREAK SPACE"(零宽度无间断空间)的字符,它的编码是FEFF。而FEFF在UCS中是不不能再的字符(即不可见),所以不应该出现在实际传输中。UCS规范建议我们在传输字节流前,先传输字符"ZERO WIDTH NO-BREAK SPACE"。这样如果接收者接收到FEFF,就表明这个字节流是Big-Endian的;如果收到FFFE,就表明这个字节流是Little-Endian的。因此字符"ZERO WIDTH NO-BREAK SPACE"又被称为BOM。

      UTF-8是以字节为编码单元,没有字节序的问题


    延伸一下:

      UTF-8编码是以1个字节为单位进行处理的,不会受CPU大小端的影响;需要考虑下一位时就地址 + 1。

      UTF-16、UTF-32是以2个字节和4个字节为单位进行处理的,即1次读取2个字节或4个字节,这样一来,在存储和网络传输时就要考虑1个单位内2个字节或4个字节之间顺序的问题。


     

    UTF-8 BOM

      UTF-8 BOM又叫UTF-8 签名,UTF-8不需要BOM来表明字节顺序,但可以用BOM来表明编码方式。当文本程序读取到以 EF BB BF开头的字节流时,就知道这是UTF-8编码了。Windows就是使用BOM来标记文本文件的编码方式的


    补充:

    "ZERO WIDTH NO-BREAK SPACE"字符的UCS编码为FEFF(假设为大端),对应的UTF-8编码为 EF BB BF 


     

      即以EF BB BF开头的字节流可表明这是段UTF-8编码的字节流。但如果文件本身就是UTF-8编码的,EF BB BF这三个字节就毫无用处了。 所以,可以说BOM的存在对于UTF-8本身没有任何作用

     

    UTF-8文件中包含BOM的坏处

      1、对php的影响

      php在设计时就没有考虑BOM的问题,也就是说他不会忽略UTF-8编码的文件开头的那三个EF BB BF字符,直接当做文本进行解析,导致解析错误。

      2、在linux上执行SQL脚本报错


      最近开发过程中遇到,windows下编写的SQL文件,在linux下执行时,总是报错。

      在文件的开头,无论是使用中文注释还是英文注释,甚至去掉注释,也会报SP2-0734: unknown command beginning "?<span "="">dec<span "="">lare ..." - rest of line ignored. 的错误。
    <span "="">如下是文件开头部分

    1 --create tablespace
    2 declare
    3 v_tbs_name varchar2(200):='hytpdtsmsshistorydb';
    4 begin

      报错如下:

    1 SP2-0734: unknown command beginning "?--create ..." - rest of line ignored.
    2 
    3 
    4 PL/SQL procedure successfully completed.

      网上没有找到类似问题的解决办法,且文件编码确认已经更改为utf-8,该问题困惑了我很久。
      最后查看一下BOM与 no BOM的区别,尝试更改为no BOM,居然就没有再出现错误。

      修改完成后,无论使用中文,还是英文,或者去掉注释,都能正常执行。


     

     

    血泪建议:UTF-8最好不要带BOM

      UTF-8」和「带 BOM 的 UTF-8」的区别就是有没有 BOM。即文件开头有没有 U+FEFF。

      1、Linux中查看BOM的方法:使用less命令,其它命令可能看不到效果:

    在这里插入图片描述

      发现词语之前多了一个<U+FEFF>。

    三、创建UTF-8(而非UTF-8 BOM)文件的方法

            在发现文件另存为UTF-8缺得到UTF-8 BOM文件后,我们怎样才能得到UTF-8呢?

    方法:.先另存为UTF-8保存,再使用notepad++打开,把里面的编码设置为无BOM的UTF-8然后保存。(此方法治标不治本,因为当你再次在里面写汉字时,文件会自动变成UTF-8 BOM)

                              

     

    2、UTF-8去除BOM的方法

      Linux下:

      (1)

        1)vim打开文件

        2)执行:set nobomb

        3)保存:wq

      (2)

        dos2unix filename

        将windows格式文件转为Unix、Linux格式文件。该命令不仅可将windows文件的换行符\r\n转为Unix、Linux文件的换行符\n,还可以将UTF-8 Unicode (with BOM)转换为UTF-8 Unicode.

      PS:

      遇到一个比较坑爹的情况,1个UTF-8 Unicode (with BOM)文件中包含两个<U+FEFF>,这是无论使用方法(1)还是方法(2),都要执行两次才能将<U+FEFF>完全去除!!!

      (2)Windows下,使用NotePad++打开这个文件,然后选择“编码”,再选择“以UTF-8无BOM格式编码”,最后重新保存文件即可!

    展开全文
  • UTF-8和不带BOM的UTF-8有什么区别?

    千次阅读 2019-12-20 09:24:02
    没有BOM的 UTF-8UTF-8有什么区别? 哪个更好?

    没有BOM的 UTF-8和UTF-8有什么区别? 哪个更好?


    #1楼

    我从另一个角度看待这个问题。 我认为带有BOM的UTF-8更好,因为它提供了有关文件的更多信息。 仅当遇到问题时,我才使用不带BOM的UTF-8。

    我长时间在页面上使用多种语言(甚至是西里尔字母 ),并且在保存文件时不使用BOM并重新打开它们以使用编辑器进行编辑(如cherouvim所述),某些字符已损坏。

    请注意,当您尝试使用UTF-8编码保存新创建的文件时,Windows的经典记事本会自动使用BOM表保存文件。

    我个人保存带有BOM的服务器端脚本文件(.asp,.ini,.aspx) 带有BOM的 .html文件


    #2楼

    具有BOM的UTF-8可以更好地识别。 我已经很难得出这个结论。 我正在一个项目中,结果之一是一个CSV文件(包括Unicode字符)。

    如果保存的CSV文件没有BOM表,则Excel会认为它是ANSI并显示乱码。 一旦在前面添加了“ EF BB BF”(例如,通过使用带UTF-8的记事本重新保存它;或带UTF-8的BOM一起使用Notepad ++),Excel就会很好地打开它。

    RFC 3629建议将BOM表字符添加到Unicode文本文件中:“ UTF-8,ISO 10646的转换格式”,2003年11月,位于http://tools.ietf.org/html/rfc3629 (此最新信息位于: http://www.herongyang.com/Unicode/Notepad-Byte-Order-Mark-BOM-FEFF-EFBBBF.html


    #3楼

    当您要显示以UTF-8编码的信息时,您可能不会遇到问题。 例如,将HTML文档声明为UTF-8,您将在浏览器中显示包含在文档正文中的所有内容。

    但是,当我们在Windows或Linux上拥有文本, CSV和XML文件时,情况并非如此。

    例如,Windows或Linux中的文本文件是可以想到的最简单的东西之一,它不是(通常)UTF-8。

    将其另存为XML并声明为UTF-8:

    <?xml version="1.0" encoding="UTF-8"?>
    

    即使已声明为UTF-8,它也不会正确显示(不会被读取)。

    我有一串包含法语字母的数据,需要将其另存为XML以供联合使用。 无需从一开始就创建UTF-8文件(更改IDE中的选项和“创建新文件”)或在文件的开头添加BOM表

    $file="\xEF\xBB\xBF".$string;
    

    我无法将法语字母保存在XML文件中。


    #4楼

    将BOM放入UTF-8编码的文件中至少存在三个问题。

    1. 不包含任何文本的文件不再为空,因为它们始终包含BOM。
    2. 包含UTF-8 ASCII子集内的文本的文件本身不再是ASCII,因为BOM不是ASCII,这会使某些现有工具失效,并且用户无法替换这些旧版工具。
    3. 无法将多个文件连接在一起,因为现在每个文件的开头都有一个BOM。

    而且,正如其他人提到的那样,拥有BOM表来检测某物是否为UTF-8既不充分,也没有必要:

    • 这是不够的,因为任意字节序列可能会以构成BOM的确切序列开头。
    • 这是没有必要的,因为您可以像读取字节一样将它们当作UTF-8读取。 如果成功,按照定义,它是有效的UTF-8。

    #5楼

    如果您在HTML文件中使用UTF-8,在同一页面中使用塞尔维亚西里尔字母,塞尔维亚拉丁语,德语,匈牙利语或其他外来语言,则带有BOM的UTF更好。 我的观点是(计算机和IT行业已有30年的历史)。


    #6楼

    如上所述,带有BOM的UTF-8可能会导致非BOM感知(或兼容)软件出现问题。 我曾经使用基于Mozilla的KompoZer编辑了编码为UTF-8 + BOM的HTML文件,因为客户端要求使用所见即所得程序。

    保存时,布局总是会被破坏。 我花了一些时间来解决这个问题。 这些文件在Firefox中运行良好,但是在Internet Explorer中显示CSS异常,再次破坏了布局。 摆弄了几个小时的CSS链接无济于事之后,我发现Internet Explorer不喜欢BOMfed HTML文件。 再也不。

    另外,我刚刚在Wikipedia中找到了这个:

    shebang字符由扩展ASCII编码中的相同两个字节表示,包括UTF-8,UTF-8通常用于当前类Unix系统上的脚本和其他文本文件。 但是,UTF-8文件可以以可选的字节顺序标记(BOM)开头; 如果“ exec”功能专门检测到字节0x23 0x21,则在shebang之前存在BOM(0xEF 0xBB 0xBF)将阻止脚本解释器被执行。 为此,一些权威人士建议不要在POSIX(类似Unix的)脚本中使用字节顺序标记,[15]并出于更广泛的互操作性和哲学考虑


    #7楼

    一个实际的区别是,如果您为Mac OS X编写了一个shell脚本并将其另存为普通UTF-8,则将得到响应:

    #!/bin/bash: No such file or directory
    

    响应shebang行,指定您要使用的外壳:

    #!/bin/bash
    

    如果另存为UTF-8,则没有BOM(例如BBEdit )都可以。


    #8楼

    没有BOM的UTF-8没有BOM,这不会比带有BOM的UTF-8更好,除非文件的使用者需要知道(或会从中获知)文件是否为UTF-8编码或不。

    BOM通常可用于确定编码的字节序,这在大多数情况下不是必需的。

    此外,对于那些不了解或不关心BOM的用户而言,BOM可能是不必要的噪音/痛苦,并可能导致用户困惑。


    #9楼

    http://en.wikipedia.org/wiki/Byte-order_mark

    字节顺序标记(BOM)是Unicode字符,用于表示文本文件或流的字节序(字节顺序)。 它的代码点是U + FEFF。 BOM的使用是可选的,并且如果使用的话,应出现在文本流的开始。 除了将其特定用作字节顺序指示符之外,BOM字符还可以指示文本在几种Unicode表示形式中的哪一种编码。

    始终在文件中使用BOM将确保始终在支持UTF-8和BOM的编辑器中正确打开它。

    我缺少BOM的真正问题如下。 假设我们有一个包含以下内容的文件:

    abc
    

    如果没有BOM,则在大多数编辑器中都将以ANSI的形式打开。 因此,此文件的另一个用户将其打开并附加一些本机字符,例如:

    abg-αβγ
    

    糟糕...现在该文件仍在ANSI中,请猜测“αβγ”不占用6个字节,而是3个。这不是UTF-8,这会在以后的开发链中引起其他问题。


    #10楼

    UTF-8 BOM是文本流(EF BB BF)开头的字节序列,它使读者可以更可靠地猜测文件是否已以UTF-8编码。

    通常,BOM用来表示编码的字节序,但是由于字节序与UTF-8不相关,因此不需要BOM。

    根据Unicode标准不建议使用UTF-8文件BOM

    2.6编码方案

    ...对于UTF-8既不需要也不建议使用BOM,但是在从使用BOM的其他编码形式转换UTF-8数据或BOM用作UTF-8签名的情况下可能会遇到BOM。 。 有关更多信息请参见第16.8节特价 ”中的“字节顺序标记”小节。


    #11楼

    在BOM表的Wikipedia页面的底部引用: http : //en.wikipedia.org/wiki/Byte-order_mark#cite_note-2

    “对于UTF-8,既不需要也不建议使用BOM,但是在从使用BOM的其他编码形式转换UTF-8数据或BOM用作UTF-8签名的情况下,可能会遇到BOM的情况。”


    #12楼

    其他出色的答案已经回答:

    • UTF-8和使用BOM的UTF-8之间没有官方区别
    • BOM格式的UTF-8字符串将从以下三个字节开始。 EF BB BF
    • 从文件/流中提取字符串时,必须忽略这些字节(如果存在)。

    但是,作为对此的附加信息,如果字符串以UTF-8编码,则UTF-8的BOM可能是“嗅觉”的好方法...或者它可以是任何其他编码形式的合法字符串...

    例如,数据[EF BB BF 41 42 43]可以是:

    • 合法的ISO-8859-1字符串“ABC”
    • 合法的UTF-8字符串“ ABC”

    因此,虽然通过查看第一个字节来识别文件内容的编码可能很酷,但您不应依赖它,如上面的示例所示

    编码应该是已知的,而不是不可分割的。


    #13楼

    仅当文件实际包含某些非ASCII字符时,带BOM的UTF-8才有用。 如果包含该文件,则不包含任何文件,那么它可能会破坏以前将文件解释为纯ASCII的旧应用程序。 这些应用程序遇到非ASCII字符时肯定会失败,因此我认为BOM仅应在文件可以且不应再解释为纯ASCII的情况下添加。

    编辑:仅想说明一下,我完全不希望使用BOM,如果一些旧的垃圾无法使用,则将其添加进去,并且替换该旧应用程序是不可行的。

    不要期望UTF8有BOM。


    #14楼

    问题:没有BOM的UTF-8和UTF-8有什么区别? 哪个更好?

    这是Wikipedia文章中有关字节顺序标记(BOM)的一些摘录,我相信这些摘录可为该问题提供可靠的答案。

    关于BOM和UTF-8的含义:

    Unicode标准允许使用UTF-8中BOM ,但不要求也不建议使用它。 字节顺序在UTF-8中没有任何意义,因此它在UTF-8中的唯一用途是一开始就表示文本流已以UTF-8编码。

    使用BOM的 参数

    不使用BOM的主要动机是与不支持Unicode的软件向后兼容。另一个不使用BOM的动机是鼓励将UTF-8用作“默认”编码。

    论据 使用BOM:

    使用BOM的理由是,如果没有BOM,则需要进行启发式分析以确定文件正在使用的字符编码。 从历史上看,这种区分各种8位编码的分析很复杂,容易出错,有时速度很慢。 有许多库可简化任务,例如Mozilla通用字符集检测器和Unicode国际组件。

    程序员错误地认为检测UTF-8同样困难(这不是因为绝大多数字节序列都是无效的UTF-8,而这些库试图区分的编码允许所有可能的字节序列)。 因此,并非所有支持Unicode的程序都执行这种分析,而是依赖BOM。

    特别是, Microsoft编译器和解释器以及Microsoft Windows上的许多软件(例如记事本)将无法正确读取UTF-8文本,除非它只有ASCII字符或以BOM表开头,并且在保存时将BOM表添加到开头文字为UTF-8。 将Microsoft Word文档下载为纯文本文件时,Google文档将添加BOM。

    使用 BOM表 使用BOM表 ,哪个更好

    IETF建议,如果协议(a)始终使用UTF-8,或者(b)使用某种其他方式指示所使用的编码,则该协议“应禁止使用U + FEFF作为签名”。

    我的结论:

    当与软件应用程序的兼容性是绝对必要的时才使用BOM。

    还要注意,虽然参考的Wikipedia文章指出许多Microsoft应用程序都依赖BOM来正确检测UTF-8,但并非所有 Microsoft应用程序都如此。 例如,如@barlop所指出的那样 ,当将Windows命令提示符与UTF-8 †一起使用时 ,此类和more type命令不会期望BOM表存在。 如果BOM 存在时,它可以是有问题的,因为它是用于其他应用。


    chcp命令通过代码页65001提供对UTF-8( BOM)的支持。


    #15楼

    请注意,对于某些文件,即使在Windows上也必须没有 BOM。 示例是SQL*plusVBScript文件。 如果此类文件包含BOM表,则在尝试执行它们时会出错。


    #16楼

    没有BOM的UTF-8和UTF-8有什么区别?

    简短的答案:在UTF-8中,BOM编码为文件开头的字节EF BB BF

    长答案:

    最初,预期Unicode将以UTF-16 / UCS-2编码。 BOM是为此编码形式设计的。 当您有2个字节的代码单元时,有必要指出这两个字节的顺序,并且通常的惯例是在数据的开头包含字符U + FEFF作为“字节顺序标记”。 字符U + FFFE是永久未分配的,因此它的存在可用于检测错误的字节顺序。

    无论平台的字节顺序如何,UTF-8的字节顺序都相同,因此不需要字节顺序标记。 但是,它可能会发生(作为字节序列EF BB FF )从UTF-16转换为UTF-8的数据中,或者作为“签名”表示该数据是UTF-8。

    哪个更好?

    没有。 正如Martin Cote回答的那样,Unicode标准不建议这样做。 它会导致非BOM感知软件出现问题。

    检测文件是否为UTF-8的更好方法是执行有效性检查。 UTF-8对有效的字节序列有严格的规定,因此误报的可能性可以忽略不计。 如果字节序列看起来像UTF-8,则可能是这样。


    #17楼

    这个问题已经有一百万个答案了,其中许多都很好,但是我想尝试弄清楚何时应该使用或不应该使用BOM。

    如上所述,在确定字符串是否为UTF-8时对UTF BOM(字节顺序标记)的任何使用都是有根据的猜测。 如果有适当的元数据(例如charset="utf-8" ),那么您已经知道应该使用什么,否则,您需要测试并做一些假设。 这涉及检查字符串来自的文件是否以十六进制字节码EF BB BF开头。

    如果找到了对应于UTF-8 BOM的字节码,则概率很高,可以假定它是UTF-8,您可以从那里开始。 但是,如果被迫做出这种猜测,那么在读取时进行额外的错误检查仍然是一个好主意,以防万一出现乱码。 如果输入绝对不是基于源的UTF-8,则应该仅假设BOM不是UTF-8(即latin-1或ANSI)。 但是,如果没有BOM,则可以通过对编码进行验证来简单地确定它是否应为UTF-8。

    为什么不建议使用BOM?

    1. 不支持Unicode或不兼容的软件可能会认为它是latin-1或ANSI,并且不会从字符串中删除BOM,这显然会引起问题。
    2. 并不是真正需要的(只需检查内容是否符合要求,当找不到符合要求的编码时,始终使用UTF-8作为后备)

    什么时候应该使用BOM编码?

    如果您无法以其他任何方式(通过字符集标记或文件系统元数据)记录元数据,并且无法像BOM一样使用程序,则应使用BOM进行编码。 在Windows上尤其如此,在Windows上,通常假定没有BOM的任何东西都在使用旧版代码页。 BOM告诉Office之类的程序,是的,该文件中的文本为Unicode。 这是使用的编码。

    说到它,我真正真正遇到过的唯一文件是CSV。 根据程序,它要么必须具有BOM,要么必须没有BOM。 例如,如果您在Windows上使用Excel 2007+,则要平滑打开它而不必求助于导入数据,则必须使用BOM对其进行编码。


    #18楼

    这是一个古老的问题,有很多好的答案,但应该增加一件事。

    所有答案都很笼统。 我要添加的是实际上会导致实际问题的BOM用法示例,但是很多人对此并不了解。

    BOM中断脚本

    Shell脚本,Perl脚本,Python脚本,Ruby脚本,Node.js脚本或需要由解释程序运行的任何其他可执行文件-所有这些都以shebang行开头,该看起来像其中之一:

    #!/bin/sh
    #!/usr/bin/python
    #!/usr/local/bin/perl
    #!/usr/bin/env node
    

    它告诉系统调用此类脚本时需要运行哪个解释器。 如果脚本以UTF-8编码,则可能会想在开始时包含BOM。 但是实际上是“#!” 字符不仅仅是字符。 实际上,它们是一个魔术数字 ,恰好由两个ASCII字符组成。 如果在这些字符之前放置一些东西(例如BOM),则文件看起来像是具有不同的幻数,这可能会导致问题。

    参见维基百科, 文章:Shebang,章节:幻数

    shebang字符由扩展ASCII编码中的相同两个字节表示,包括UTF-8,UTF-8通常用于当前类Unix系统上的脚本和其他文本文件。 但是,UTF-8文件可以以可选的字节顺序标记(BOM)开头; 如果“ exec”功能专门检测到字节0x23和0x21,则在shebang之前存在BOM(0xEF 0xBB 0xBF)将阻止脚本解释器被执行。 为此,一些权威人士建议不要在POSIX(类Unix)脚本中使用字节顺序标记,[14]并出于更广泛的互操作性和哲学考虑。 另外,在UTF-8中不需要字节顺序标记,因为该编码不存在字节顺序问题。 它仅用于将编码标识为UTF-8。 [加重]

    BOM在JSON中是非法的

    参见RFC 7159第8.1节

    实现不得在JSON文本的开头添加字节顺序标记。

    BOM在JSON中是多余的

    不仅在JSON中是非法的,而且也不需要确定字符编码,因为存在更可靠的方法来明确确定任何JSON流中使用的字符编码和字节序(有关详细信息,请参见此答案 )。

    BOM破坏了JSON解析器

    它不仅在JSON中是非法的并且不需要 ,而且实际上破坏了使用RFC 4627中介绍的方法确定编码的所有软件

    确定JSON的编码和字节序,检查NUL字节的前4个字节:

    00 00 00 xx - UTF-32BE
    00 xx 00 xx - UTF-16BE
    xx 00 00 00 - UTF-32LE
    xx 00 xx 00 - UTF-16LE
    xx xx xx xx - UTF-8
    

    现在,如果文件以BOM表开头,它将如下所示:

    00 00 FE FF - UTF-32BE
    FE FF 00 xx - UTF-16BE
    FF FE 00 00 - UTF-32LE
    FF FE xx 00 - UTF-16LE
    EF BB BF xx - UTF-8
    

    注意:

    1. UTF-32BE不是以三个NUL开头,因此不会被识别
    2. UTF-32LE第一个字节后没有3个NUL,因此不会被识别
    3. UTF-16BE的前4个字节只有1个NUL,因此不会被识别
    4. UTF-16LE的前4个字节只有1个NUL,因此不会被识别

    根据实现的不同,所有这些都可能被错误地解释为UTF-8,然后被错误地解释或拒绝为无效的UTF-8,或者根本无法被识别。

    此外,如果实现按照我建议的那样测试有效的JSON,则即使该输入确实被编码为UTF-8,也将拒绝该输入,因为它不以RFC规定的ASCII字符<128开头。

    其他数据格式

    不需要JSON中的BOM,这是非法的,并且会破坏根据RFC正常运行的软件。 那时不使用它应该是一个明智的选择,但是总有些人坚持通过使用BOM,注释,不同的引用规则或不同的数据类型来破坏JSON。 当然,任何人都可以自由使用BOM或其他任何需要的东西-那就不要将其称为JSON。

    对于除JSON之外的其他数据格式,请看一下它的实际外观。 如果唯一的编码是UTF- *,并且第一个字符必须是小于128的ASCII字符,那么您已经拥有确定数据的编码和字节序所需的所有信息。 即使将BOM表作为可选功能添加,也只会使其更加复杂且容易出错。

    BOM的其他用途

    至于JSON或脚本之外的用途,我认为这里已经有了很好的答案。 我想添加更多有关脚本和序列化的详细信息,因为这是导致实际问题的BOM字符的示例。


    #19楼

    Unicode 字节顺序标记(BOM)常见问题解答提供了一个简洁的答案:

    问:我应该如何处理BOM?

    答:以下是一些指导原则:

    1. 特定协议(例如,Microsoft .txt文件约定)可能要求在某些Unicode数据流(例如文件)上使用BOM。 当您需要遵循此类协议时,请使用BOM。

    2. 对于未加标签的文本,某些协议允许使用可选的BOM。 在那种情况下

      • 如果已知文本数据流是纯文本,但编码方式未知,则BOM可用作签名。 如果没有BOM,则编码可以是任何形式。

      • 如果已知文本数据流是纯Unicode文本(而不是哪个字节序),则BOM可用作签名。 如果没有BOM,则文本应解释为big-endian。

    3. 某些面向字节的协议期望在文件开头使用ASCII字符。 如果这些协议使用UTF-8,则应避免使用BOM作为编码形式签名。

    4. 在已知数据流的确切类型的地方(例如Unicode大端或Unicode小端),不应使用BOM。 特别是,每当数据流声明为UTF-16BE,UTF-16LE,UTF-32BE或UTF-32LE时,都不得使用BOM。


    #20楼

    这是我对Visual Studio,SourceTree和Bitbucket拉取请求的经验,这给了我一些问题:

    因此,在审查请求请求时,带有签名的BOM会在每个文件上包含一个红点字符(可能会很烦人)。

    在此处输入图片说明

    如果将鼠标悬停在它上面,它将显示一个类似于“ ufeff”的字符,但结果表明sourcetree没有显示这些类型的字节标记,因此它很可能最终出现在您的请求中,这应该没问题,因为VS 2017就是这样编码的现在是新文件,所以也许bitbucket应该忽略此文件或以其他方式显示它,更多信息请参见:

    红点标记BitBucket差异视图


    #21楼

    BOM倾向于在某个地方某个地方繁荣(没有双关语意)。 而且当它蓬勃发展时(例如,未被浏览器,编辑器等识别),它显示为文档开头的奇怪字符 (例如HTML文件, JSON响应, RSS ,等),并导致这种尴尬,例如奥巴马在Twitter上的谈话中遇到最近编码问题

    当它出现在难以调试的地方或忽略测试时,这很烦人。 因此,除非您必须使用它,否则最好避免它。

    展开全文
  • UTF-8、en_US.UTF-8和zh_CN.UTF-8的区别 en_US.UTF-8、zh_CN.UTF-8叫做字符集,就是说‘A’、‘B’、‘中’、‘国’等对应的整数值, en_US.UTF-8只包含了ASCII码,zh_CN.UTF-8包含了6000多个汉字? 如果是这样的话...

    UTF-8、en_US.UTF-8和zh_CN.UTF-8的区别

    en_US.UTF-8、zh_CN.UTF-8叫做字符集,就是说‘A’、‘B’、‘中’、‘国’等对应的整数值,
    en_US.UTF-8只包含了ASCII码,zh_CN.UTF-8包含了6000多个汉字?
    如果是这样的话,那所谓UTF-8,就是把这些整数,编写成一串字节的方法?

     

    UTF-8 是编码方式

     

    en_US.UTF-8 和 zh_CN.UTF-8 是语言环境,也就是字符集

     

    en_US.UTF-8 和 zh_CN.UTF-8 包含的字符数量是基本上一样的,大概是七万个汉字,编码都是 UTF-8 编码,字符集是 Unicode,版本是 4.1 吧?zh_CN.GB18030 和 zh_CN.GBK 的字符集都与 Unicode 3 是等价的,记得应该是这样
    语言环境的差别就是另一回事了,中国人和外国人表示时间啦,数字啦,习惯都不一样,所以必须区分开。大部分程序根据语言环境变量来选择界面的语言是中文还是英文。

     

     

     

    所以一般linux系统的语言环境设置成:export LANG=zh_CN.UTF-8,代表中国人使用的unicode字符集

     

    回到顶部

     查看默认语言

    1

    2

    3

    4

    [root@localhost ~]$ cat /etc/locale.conf <-----之前的 /etc/sysconfig/i18n 已变为 /etc/locale.conf

     

      LANG=en_US.UTF-8​​​<------默认是英

     或 [root@localhost​~]$ echo $LAN

    回到顶部

     查看系统已安装的语言包

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    $ locale

     LANG=en_US.UTF-

     LC_CTYPE="en_US.UTF-8

     LC_NUMERIC="en_US.UTF-8

     LC_TIME="en_US.UTF-8

     LC_COLLATE="en_US.UTF-8

     LC_MONETARY="en_US.UTF-8

     LC_MESSAGES="en_US.UTF-8

     LC_PAPER="en_US.UTF-8

     LC_NAME="en_US.UTF-8

     LC_ADDRESS="en_US.UTF-8

     LC_TELEPHONE="en_US.UTF-8

     LC_MEASUREMENT="en_US.UTF-8

     LC_IDENTIFICATION="en_US.UTF-8"​​<-------装的都是英文包 ,没有安装中文

    回到顶部

    临时修改默认语言

    1

    [root@localhost​~]$ LANG="zh_CN.UTF-8"​​<----临时设置默认语言为中文,前提是安装了中文语言

     

    回到顶部

    永久修改语言包

      1 、安装中文语言包:

    1

    [root@host ~]# yum install -y kde-l10n-Chinese

     2 、安装 glibc-common(如果已经安装过,则需要重新安装):

      先检查是否已经安装 glibc-common :

    1

    [root@host ~]# yum list installed | grep glibc-common

    或者

    1

    [root@host ~]# rpm -qa | grep glibc-common

    如果已经安装过,则需要重新安装,这样才能利用上第一步的中文语言包:

    1

    [root@host ~]# yum reinstall -y glibc-common

    如果没有安装过,那么安装即可:

    1

    [root@host ~]# yum install -y glibc-common

    3 、查看系统是否支持中文语言包:

    1

    [root@host ~]# locale -a | grep zh

    4 、修改配置文件,再重启服务器即可:

    1

    2

    [root@host ~]# echo 'LANG="zh_CN.UTF-8"' > /etc/locale.conf

    [root@host ~]# reboot

     

     

    回到顶部

    查看文件编码及修改文件编码

    1

    [root@localhost​~]$ enca filename​​​​<--- 没有这个命令请安装​ sudo yum install -y enc


     需要说明一点的是,enca对某些GBK编码 的文件 识别的不是很好,识别时会出现
     Unrecognized encodin
     在Vim中查看文件编码

     :set fileencodin

     如果想查看其它编码格式的文件或者想解决用Vim查看文件乱码的问题,那么你可以
     ~/.vimrc 文件 中添加以下内容
     set encoding=utf-8 fileencodings=ucs-bom,utf-8,cp93
     这样,就可以让vim自动识别文件 编码 (可以自动识别UTF-8或者GBK编码 的文件 ),其实就是依照 fileencodings提供的编码 列表尝试,如果没有找到合适的编码 ,就用latin-1(ASCII)编码 打开

     在Vim中直接进行转换文件编码 ,比如将一个文件 转换成utf-8格
     :set fileencoding=utf-

     用命令enconv 转换文件编码

    1

    2

    enconv -L 原编码 -x 新编码 filename

    例如: enconv -L zh_CN -x UTF-8 filenam


     用命令iconv 转换文件编码

    1

    2

    iconv -f 原编码 -t 新编码 filenam

    例如:iconv -f encoding -t encoding filenam


     用命令convmv 转换文件名编码:​​<-----此命令常用于解决Linux文件拷贝到Windows后文件名乱码的问
     convmv -f 原编码 -t 新编码 [选项] filenam
     常用参数
     -r 递归处理子文件 
     --notest 真正进行操作,请注意在默认情况下是不对文件 进行真实操作的,而只是试验
     --list 显示所有支持的编
     --unescap 可以做一下转义,比如把 变成空
     注意:该命令只转换文件名编码,文件内容不
     不要在NTFS和FAT文件 系统中使用此命令,否则可能产生意外结果,如果要在Linux 中正确的显示NTFS和 FAT的中文件名,可以通过mount参数来解决,具体方法查看一下man手册

     

    展开全文
  • Unicode 和 UTF-8、UTF-16、UTF-32之间的关系

    万次阅读 多人点赞 2019-03-15 21:41:05
    Unicode 和 UTF-8、UTF-16、UTF-32之间的关系 要厘清它们之间的关系就要先从编码开始说起: ASCII码 我们都知道,在计算机的世界里,信息的表示方式只有 0 和 1,但是我们人类信息表示的方式却与之大不相同,很多时候...
  • UTF-8 with BOM“与 “UTF-8“ 的区别

    千次阅读 2020-08-13 11:41:00
    先看图 : 但内容都一样 ,为什么相差了3个字节...微软在utf-8中使用bom是因为这样可以把UTF-8和ASCII等编码区分开来,但这样的文件在windows之外的操作系统里会带来问题。 不推荐使用 UTF-8 with BOM 如何将utf-8 w
  • utf-8utf-8-sig的区别(CSV文件 乱码)

    万次阅读 多人点赞 2019-07-17 14:35:45
    1、”utf-8“ 是以字节为编码单元,它的字节顺序在所有系统中都是一样的,没有字节序问题,因此它不需要BOM,所以当用"utf-8"编码方式读取带有BOM的文件时,它会把BOM当做是文件内容来处理, 也就会发生类似上边的错误. ...
  • UTF-16转UTF-8的方法,防止文件有BOM头

    千次阅读 2019-01-27 10:25:07
    在读公司代码的时候,发现了一个UTF-16转UTF-8的方法,这还是博主第一次见到这种方法,不由的好奇了起来。为什么要转,应用场景是什么呢?这里大家一起来探讨下 二、贴代码 /** * @desc UTF-16转为UTF-8编码, 必须...
  • 字符编码的概念(UTF-8、UTF-16、UTF-32都是什么鬼)

    万次阅读 多人点赞 2017-11-30 17:11:56
    1) UTF-8 UTF-8 的编码规则很简单:如果只有一个字节,那么最高的比特位为 0;如果有多个字节,那么第一个字节从最高位开始,连续有几个比特位的值为 1,就使用几个字节编码,剩下的字节均以 10 开头。 具体的表现...
  • 所以不含 BOM 的 UTF-8 才是标准形式,在 UTF-8 文件中放置 BOM 主要是微软的习惯(顺便提一下:把带有 BOM 的小端序 UTF-16 称作「Unicode」而又不详细说明,这也是微软的习惯)。 BOM是为 UTF-16 和 UTF-32 准备的...
  • 将字符串的编码格式转换为utf-8

    万次阅读 2021-02-13 00:31:13
    方式一:/*** 将字符串的编码格式转换为utf-8** @param str* @return Name = new* String(Name.getBytes("ISO-8859-1"), "utf-8");*/public static String toUTF8(String str) {if (isEmpty(str)) {return "";}try {...
  • 首先明确一点:UTF-8 BOM与UTF-8带签名指的是同一回事,二者指的是UTF-8的同一格式 UTF-8 BOM中的BOM,全称为Byte order mark。 带BOM(签名)的UTF-8文本文件与不带BOM的UTF-8文本文件的区别在于:前者在文件的...
  • utf-8utf-8-sig 两种编码格式区别

    千次阅读 2019-02-06 13:40:48
    转:...   As UTF-8 is an 8-bit encoding no BOM is required and anyU+FEFF character in the decoded Unicode string (even if it’s the firstcharacter)...
  • Unicode、UTF-8、UTF-16之间的区别

    万次阅读 多人点赞 2018-08-29 14:51:24
    由上面我们可以看出UTF-8在局部的字节错误(丢失、增加、改变)不会导致连锁性的错误,因为 UTF-8 的字符边界很容易检测出来,所以容错性较高。   Unicode版本2  前面说的都是unicode的第一个版本.但...
  • UTF-8(with BOM)与UTF-8相互转换

    千次阅读 2020-04-23 00:21:14
    Eclipse采用UTF-8 BOM格式编码,而Linux下采用UTF-8无BOM格式。BOM用来标记编码的字节顺序,但是由于编码字节顺序对于UTF-8来说无关紧要,而且Unicode标准也并不推荐使用带BOM的UTF-8编码格式。总之,由于Windows和...
  • utf-8与带有BOM的utf-8的区别

    千次阅读 2020-06-17 08:20:14
    最近在学习处理的过程中,遇到了需要txt转换为csv文件的需求,第一步当然是另存txt为utf-8的格式,但是博主在保存时,发现了utf-8有两种格式,如下图: 怀着满满的好奇心,我查找了一下两者的区别: ...
  • 批量转换文件编码格式为UTF-8工具

    千次下载 热门讨论 2012-08-02 16:44:56
    批量转换文件编码格式为UTF-8工具.zip 支持多层文件夹替换! 使用说明: 1.文件根目录:即您要转码的文件所在根目录 2.转码文件目录:即您转码后的文件所在目录 3.转码文件后缀:指[文件根目录]下,需要转码的文件后缀,...
  • eclipse中UTF-8设置

    千次阅读 2021-03-17 13:01:22
    eclipse中UTF-8设置 1.windows->Preferences 打开"首选项"对话框; 2.然后,general->Workspace,右侧Text file encoding,选择Other,改变为UTF-8。 3.Web->打开,把CSS、HTML、JSP、JavaScript、 XML等...
  • UTF-8带BOM格式与UTF-8无BOM格式转换

    千次阅读 2019-05-16 19:56:58
    Qt在windows下使用VS建立的工程文件转到Linux环境下编译报出大量错误,...VS采用UTF-8 BOM格式编码,而Linux下采用UTF-8无BOM格式。BOM用来标记编码的字节顺序,但是由于编码字节顺序对于UTF-8来说无关紧要,而且Un...
  • python中Unicode和UTF-8的区别

    千次阅读 2020-12-01 12:40:01
    1,UTF-8在python的开始处,#coding:utf-8或者#coding=utf-8的作用一样,声明Python代码的文本格式是UTF-8,按照这种格式来读取程序。如下编写一个脚本:如果不添加#coding=utf-8,脚本有中文时程序会报错2,Unicode和...
  • html声明charset="utf-8"后,浏览器访问中文依旧乱码(绝对...charset="UTF-8"是让浏览器要用utf-8来解释,而文档的编码格式,是保存时的选择决定的。  也就是说:这个HTML文件保存时的字符集不是UTF-8!  所以,HT...
  • 中文的csv文件的编码改成utf-8的方法

    千次阅读 2021-01-12 03:38:11
    直奔主题:把包含中文的csv文件的编码改成utf-8的方法:啰嗦几句:在用pandas读取hive导出的csv文件时,经常会遇到类似UnicodeDecodeError: 'gbk' codec can't decode byte 0xa3 in position 12这样的问题,这种问题...
  • utf-8utf-8-sig

    千次阅读 2017-11-07 12:00:26
    As UTF-8 is an 8-bit encoding no BOM is required and anyU+FEFF character in the decoded Unicode string (even if it’s the firstcharacter) is treated as a ZERO WIDTH NO-BREAK SPACE. UTF-8以字节为...
  • JAVA实现—UTF-8编码与解码

    千次阅读 2022-03-27 09:36:41
    java——UTF-8编码与解码 渗透测试有时候会遇到%E9%99%88这类的编码 在线转的结果 导入java中转换的结果: JAVA代码如下: import java.net.URLDecoder; import java.net.URLEncoder; //URLDecoder.decode("%E5%...
  • 2、通过 chcp命令改变代码页,UTF-8的代码页为65001 chcp 65001 # 切换代码页到UTF-8 chcp 936 # 恢复默认显示,GBK 执行命令后如下图: 执行:chcp 65001命令后截图执行该操作后,代码页就被变成UTF-8了。但是...
  • UTF-8

    万次阅读 多人点赞 2019-07-10 13:53:46
    UTF-8编码规则 UTF-8是Unicode的一种实现方式,也就是它的字节结构有特殊要求,所以我们说一个汉字的范围是0X4E00到0x9FA5,是指unicode值,至于放在utf-8的编码里去就是由三个字节来组织,所以可以看出unicode是给...
  • java中GBK转UTF-8乱码如何解决

    千次阅读 2021-02-12 21:30:30
    java中GBK转UTF-8乱码如何解决发布时间:2020-04-29 09:25:25来源:亿速云阅读:960作者:小新今天小编给大家分享的是java中GBK转UTF-8乱码如何解决,相信很多人都不太了解,为了让大家更加了解GBK转UTF-8乱码的解决...
  • python对utf-8的中文转换

    万次阅读 2022-05-19 11:30:52
    python3默认支持utf-8,因此对于\uXXXX这种格式的中文,可以直接转换,但经常爬虫抓取回来的中文是\\uXXXX格式,因此需要进行转换 s1='\u65f6\u4e0d\u53ef\u5931\uff0c\u65f6\u4e0d\u518d\u6765\uff01' print('s1=...
  • java中GBK与UTF-8编码的转换

    万次阅读 多人点赞 2019-06-25 15:08:59
    java中文件编码的转换,主要说明了GBK与UTF-8编码之间的转换, 还介绍了利用cpdetector开源库确定文件文件(网页)编码的方法。
  • UTF-8编码规则

    万次阅读 多人点赞 2019-04-25 10:10:40
    UTF-8编码规则(转) 2018年08月08日 00:24:18 机器猫的世界 阅读数:1463 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,518,464
精华内容 1,807,385
关键字:

UTF-8