精华内容
下载资源
问答
  • Lorenz吸引子

    千次阅读 2016-03-14 22:23:41
    如此想象,我们只是宇宙中轨迹早已确定的粒子而已,我们今天要干什么明天要干什么早已有了定数。等等,今天没赶上地铁根据哪个公式算的?:-o于是许多人不禁感叹上帝的伟大,他设计了多么精美绝伦的机器啊!伟大的...

    拉普拉斯妖:

    根据牛顿物理学,宇宙可以被想象成一个巨大的机器,其中每件事物都具有精确的运行轨迹。宇宙中大到恒星,小到原子,都是可以预测的,宇宙的过去早已决定了宇宙的未来。如此想象,我们只是宇宙中轨迹早已确定的粒子而已,我们今天要干什么明天要干什么早已有了定数。等等,今天没赶上地铁是根据哪个公式算的?:-o

    于是许多人不禁感叹上帝的伟大,他设计了多么精美绝伦的机器啊!

    伟大的拉普拉斯也相信一切事物都是有定数的,不过他是坚定的无神论者,由于从小在共产主义的熏陶下(胡说八道的)茁壮成长,他不相信这是上帝的功劳。但他假定有某个智者,能完全计算出宇宙的过去和未来。这位最最伟大的智者,现在被称为“拉普拉斯妖”。

    不管是伟大的牛顿还是伟大的拉普拉斯,都是决定论者。

    洛伦兹与蝴蝶效应 (Lorenz 1917–2008)

    蝴蝶效应:话说亚马逊丛林里有一只蝴蝶早上起来锻炼,看到不远处花儿朵朵开,正好还没吃饭,它高兴坏了,就拍了两下翅膀。这一拍不要紧,没想到两周后,在美帝德克萨斯洲引起了一场龙卷风。

    后记:三胖看到威力如此巨大的“武器”,十分羡慕,便邀请蝴蝶共谋大事。无奈蝴蝶摇头如捣蒜,只道:天机不可泄露。


    蝴蝶效应是由伟大的Lorenz发现的。老洛自幼敏于常人,年纪轻轻就考上了哈佛,专门捣鼓数学。二战中,国家有难,老洛思量应当从军报国,便投到陆军航空队,从事气象预报。干一行爱一行,后来战事结束,老洛不去炒房地产也不炒股票,仍旧扎根在气象这一行。他到了MIT专攻气象预报论,后来又在MIT当了教授。

    Lorenz没日没夜的搞计算,有次他发现,一个初始数据的微小差别(0.000127)导致了结果巨大的差异。这个0.000127就是蝴蝶的那一下翅膀。

    Lorenz告诉我们,预测是十分困难的,初始值的微小差别可能就会导致结果天南海北。

    Lorenz吸引子

    Lorenz以他天才的头脑,将气象预报模型里的上百个参数和方程进行了简化,得到下面的微分方程组:

    dxdt=σ(yx)dydt=x(ρz)ydzdt=xyβz

    上面方程组中的ρ在流体力学中叫做瑞利数

    吸引子参考: http://bzhang.lamost.org/website/archives/lorenz_attactor

    下面来看看这个微分方程在三维空间中的样子吧。

    fzijXxW20E_IL3dlkxhX1heXZ2fF9yQ7r2MdTzUQfc4ABAAAqAUAAEpQ.jpg

    # 程序来自http://old.sebug.net/paper/books/scipydoc/scipy_intro.html#id5
    from scipy.integrate import odeint
    import numpy as np
    from mpl_toolkits.mplot3d import Axes3D
    import matplotlib.pyplot as plt 
    
    def lorenz(w, t, p, r, b): 
        x, y, z = w 
        return np.array([p*(y - x), x * (r - z) - y, x * y - b * z]) 
    
    t = np.arange(0, 30, 0.01)
    
    track1 = odeint(lorenz, (0.0, 1.00, 0.0), t, args=(10.0, 28.0, 3.0))
    track2 = odeint(lorenz, (0.0, 1.01, 0.0), t, args=(10.0, 28.0, 3.0))
    
    fig = plt.figure()
    ax = Axes3D(fig)
    ax.plot(track1[:,0], track1[:,1], track1[:,2])
    ax.plot(track2[:,0], track2[:,1], track2[:,2])
    plt.show()

    这里写图片描述
    这里写图片描述
    像蝴蝶的翅膀了
    这里写图片描述

    展开全文
  • 混沌学吸引子的联想

    2018-12-02 16:23:30
    简介:双义图片,爱恨转换,量子纠缠,是不是都是吸引子影响的结果?      大家经常看到一些歧义图片(或叫双义图片)。图片有时看着象甲,有时看着象乙。虽然图片本身就是这样设计的,但是,为什么大脑有时...

    混沌学吸引子的联想

     

     

    红朝儒生

    2014-8-11

     

    关键字:混沌 吸引子

    简介:双义图片,爱恨转换,量子纠缠,是不是都是吸引子影响的结果?

     

     

      大家经常看到一些歧义图片(或叫双义图片)。图片有时看着象甲,有时看着象乙。虽然图片本身就是这样设计的,但是,为什么大脑有时认为这样,有时认为那样呢?这与大脑的选择性认知有关。对于收集到的信息,大脑会根据意识或潜意识中的习惯,筛选出想看的信息。即,汝只会看到想看到的东西。

      还没有更深刻的原因?

      

      混沌学,好象也是数学的分支,跟分形有点关系?在混沌学中,就有一种概念叫吸引子,可以理解为一个稳定状态。在一个系统中,有时会有多个吸引子,一个中间状态,无法维持较长时间,会迅速的滑向吸引子中的一个。

      双义图片的转换过程,是不是就是吸引子的存在结果?

      

      男女感情中,经常发生爱恨转换的事情。比如说,追女孩子的时候,坏印象,比没有印象强。因为坏印象,在适当时机,可以转换为好印象。那么,这是不是吸引子的结果?

      

      量子认为,一对光子,不论分开多么遥远的距离,二者之间的状态是相互纠缠的,可以迅速传递给另外一个。嗯,这也跟吸引子有很大的关系。

      

      再进一步,是不是所有的稳定状态,都是吸引子的结果?比如物质的存在?

    展开全文
  •  电流继电器和电压继电器区别是什么:电流继电器是电流保护,电压继电器是电压保护。  电流继电器是反映电流变化的继电器,它有吸引线圈匝数少且线径较粗,能通过较大电流,使用时与负载串联。电压继电器是反映电压...
  • 电流继电器反映电流变化的继电路,它有吸引线圈匝数少且线径较粗,能通过较大电流,使用时与负载串联。  各种电磁式电流继电器的符号如图。其中的(a)一般的电流继电器,(b)与(c)分别表示欠流继电器和过流继电...
  • 点击上方“程序IT圈”,选择“置顶公众号”关键时刻,第一时间送达!本文由公众号代码集中营授权发布旅行青蛙已经火了有一阵了,现在让我们静下来好好思考一下,旅行青蛙到底为什么会那么火,...

    点击上方“程序IT圈”,选择“置顶公众号”

    关键时刻,第一时间送达!

    本文由公众号 代码集中营 授权发布

    旅行青蛙已经火了有一阵子了,现在让我们静下来好好思考一下,旅行青蛙到底为什么会那么火,一款日系游戏,会在中国的App Store登上榜首,热度超过跳一跳、吃鸡游戏,这是为什么呐?其实,仔细分析一下,会发现,这款游戏会火的本质还是他是对现实生活的映射。

    下面,让我们来回顾一下游戏里的画风,发现这简直就是发送在我们身边的点点滴滴~

    1

    当我们无所事事的时候,妈妈会唠叨说

    2

    当我们上去看书的时候,妈妈就会说

    3

    当我们一直在吃饭的时候


    4

    当我们出去逛逛的时候

    5

    当我们结交了朋友后,妈妈又开始说

    6

    当我们在外面疯的时候

    7

    没错,这就是我们的妈妈

    心心念念的妈妈,总是念叨,但却关心你的一切

    有时候我们会一直窝在家里,妈妈就开始巴拉巴拉的说了好多

    8

    当我们要远游的时候

    妈妈,明天我打算和小伙伴出去旅游,于是,妈妈就开始忙绿起来

    9

    当我们出门不久后

    妈妈又开始担忧起来,一直问啥时候回来,担心这,担心那

    10

    儿行千里母担忧

    儿行千里母担忧,就是这样,平时在家念叨,儿子出门后,又开始担心,但我们一直想告诉妈妈的是,其实儿子知道妈妈的念叨是对我们好,儿子心中一直是有你的,我亲爱的妈妈

    看完了吗?知道《旅行青蛙》这款产品,能迅速的火爆流行起来了吗?

    这款游戏会火的本质就是折射出我们大部分人生活的点滴哈。


    推荐阅读:

    关注【程序IT圈】,让我们一起成长

    展开全文
  • 上一节我们详细的讲解了Hopfield神经网络的工作过程,引出了吸引子的概念,简单来说,吸引子就是Hopfield神经网络稳定时其中一个状态,不懂的请看 Hopfield神经网络详解,下面我们就开始看看吸引子什么性质: ...

    上一节我们详细的讲解了Hopfield神经网络的工作过程,引出了吸引子的概念,简单来说,吸引子就是Hopfield神经网络稳定时其中一个状态,不懂的请看 Hopfield神经网络详解,下面我们就开始看看吸引子有什么性质:

    1.吸引子的性质

             性质1:若X是网络的一个吸引子,且阈值T=0,在sgn(n)处,x_j(t+1) = x_j(t),则(-x)也一定是该网络的吸引子。

                  证明: 因为X是吸引子,即X = f(WX),从而有:

                               f[W(-X)] = f(-WX) =-f(WX)= -X

                              所以(-x)也一定是该网络的吸引子。

             性质2: 若X^a是网络的一个吸引子,则与X^a的海明距离dH(x^a,x^b) = 1x^b一定不是吸引子。

                    注:所谓海明距离是通信的含义就是说状态位不一样的个数,如1100和1000,其海明距离为1,因为不同的位就只有1位,

                  证明:两个向量的海明距离dH(x^a,x^b)是指两个向量中不同元素的个数,不妨设 

                              x_1^a\neq x_1^b,x_j^a\neq x_j^b,j=2,3,...,n,因为w_{11}=0,由吸引子定义,有:

                                                             x_1^a = f(\sum_{i=2}^{n}w_{ii}x_i^a - T_1) = f(\sum_{i=2}^{n}w_{ii}x_i^b-T_1)

                             由假设条件知,x_1^a\neq x_1^b,故:

                                                              x_1^b\neq f(\sum_{i=2}^{n}w_{ii}x_i^b-T_1)

                              所以x^b一定不是吸引子。

                性质3:

                               若有一组向量X^p(p=1,2,...,P)均是网络的吸引子,且在sgn(0)处,x_j(t+1) = x_j(t),则有该组向量线性组合而成的向量\sum_{p=1}^{P}a_pX^p也是该网络的吸引子。

    2.吸引子的吸引域

              能使网络稳定在同一吸引子的所有初态的集合,称该吸引子的吸引域,下面给出吸引域的定义:

              定义1: 若X^a是吸引子,对于异步方式,若存在一个调整次序,使网络可以从状态X演变到X^a,则称X弱吸引到X^a;若对于任意调整次序,网络都可以从状态X演变到X^a,则称X强吸引到X^a

              定义2:若对于某些X,有X弱吸引到吸引子X^a,则称这些X的集合为X^a的弱吸引域;若对某些X,有X强吸引到吸引子X^a,则称这些X的集合为X^a的弱吸引域。

               欲使反馈网络具有联想能力,每个吸引子应该都具有一定的吸引域,这样这样带噪声和缺失信息的初始样本,网络才能经过动态演变而稳定到某一个吸引子状态,从而实现正确的联想。反馈网络设计的目的就是要使网络能落到期望的稳定点上,并且具有最可能大的吸引域,以增强联想的功能即抗干扰的能力。

    下面举个例子来说明是如何联想的:

              这里就不画图了,直接从书中截图过来,然后详细讲解:

    先解释一下,(a)图是说明x_1,x_2,x_3的权值和阈值,其中圆圈内的是阈值即T,连线旁边的是权值,状态的排列是这样的即:x_1x_2x_3,假设的状态的更新顺序为x_1\rightarrow x_2\rightarrow x_3,在假设初始状态为000,那么下面开始第一步更新:

          设各节点状态取值为1或者0,3节点的DHNN网络应有2^3 = 8种状态,设x =(x_1,x_2,x_3)^T = (0,0,0)^T,更新顺序为:x_1\rightarrow x_2\rightarrow x_3,下面开始:

    第一步更新x_1:       x_1 = sgn[(-0.5)\times 0+0.2\times 0-(-0.1)]=sgn(0.1)=1,其他节点状态不变,网络的状态由(0,0,0)^T变为(1,0,0)^T,如果先更新x_2或者x_3,网络状态仍为(0,0,0)^T,因此初始状态保持不变的概率为\frac{2}{3},而变为(1,0,0)^T的概率为\frac{1}{3}.

    第二步,此时的网络为(1,0,0)^T,更新x_2后,得到x_2 = sgn[(-0.5)\times 1+0.6\times 0-0]=sgn(-0.5) = 0,其他节点保持不变,网络状态仍为(1,0,0)^T,如果本步先更新x_1或者x_3,网络的状态将为(1,0,0)^T(1,0,1)^T,因此本状态保持不变的概率为\frac{2}{3},为变为(1,0,1)^T\frac{1}{3}.

    第三步,此时的网络状态为(1,0,0)^T,更新x_3得到,x_3 = sgn(0.2\times 1+0.6\times 0-0) = sgn(0.2)=1

    同理可算出其他状态的直接的演变过程和状态转移概率,如上图b给出八种状态,从图中我们看到x = (0,1,1)^T是一个吸引子,网络从任意状态更新后都将达到此稳定状态。

    上面就是网络的转移过程和联想过程,下面我们来看看,如何设计吸引子,即如何设置网络权值。

    3.网络的权值设计

           从上面我们知道了网络是如何动态的更新到吸引子的,那么我们现在如何设计吸引子呢?

    吸引子的分布是由权值决定的,设计吸引子的核心是如何设计一组合适的权值,为了使所设计的权值满足要求,权值矩阵应符合如下要求:

    1.  为保证异步方式工作时网络收敛,w应该为对称阵
    2.   为保证同步方式工作时网络收敛,w应该为非负定对称阵
    3.  保证给定的样本是网络的吸引子,并且要有一定的吸引域

    根据所要求的的吸引子的数量,可以采用不同的方法设计吸引子,如下:

    联立方程法:

                 下面根据上图的3个节点继续设计吸引子,设要求设计的吸引子为x^a = (0,1,0)^Tx^b = (1,1,1)^T,权值和阈值在【-1,1】区间取值,试求权值和阈值。

                 考虑到w_{ij} = w_{ji},对于状态x^a = (0,1,0)^T,各节点净输入应该满足如下:

                                       net_1 = w_{12}\times 1+w_{13}\times 0 - T_1 = w_{12} - T_1 < 0

                                       net_2 = w_{12}\times 0+w_{23}\times 0 - T_2 = - T_2 > 0

                                        net_3 = w_{13}\times 0+w_{23}\times 1 - T_3= w_{23} - T_3 < 0

                   对于x^b = (1,1,1)^T状态,各节点净输入应满足:

                                       net_1 = w_{12}\times 1+w_{13}\times 1 - T_1 > 0

                                       net_2 = w_{12}\times 1+w_{23}\times 1 - T_2 > 0

                                        net_3 = w_{13}\times 1+w_{23}\times 1 - T_3> 0

    联立可以接得:权值的范围,在范围内选择一个权值就可以,下面直接给出答案了,权值不唯一:

                                         w_{12}=0.5,T_1 = 0.7

                                         w_{13}=0.4,T_1 = -0.2

                                         w_{23}=0.5,T_3= 0.1

    因此该参数的从初态最终会演变到我们设计的两个吸引子中。

    但是此种方法只适合吸引子较少的时候计算,如果吸引子较多时就需要采用外积和法。

    外积和法:

             更为通用的权值设计方法是采用Hebb规则的外积和法,设给定P个模式样本x^p,p = 1,2,3,,,,,P,x\epsilon \left \{ -1,1 \right \}^n,并且设样本两两正交,且n>p,则权值矩阵为记忆样本的外积和:

                                          W = \sum_{p=1}^{P}x^p(x^p)^T                                                                              \left ( 1 \right )

              若w_{jj} =0,上式写为:

                                          W = \sum_{p=1}^{P}[x^p(x^p)^T-I]                                                                    \left ( 2 \right )

                式中,I为单位矩阵,上式写成分量形式,可写为:

                                            w_{ij} = \left\{\begin{matrix} \sum_{p=1}^{P}x_i^px_j^p, \ i\neq j\ & \\ & \\ & \\ 0, \ i=j\ \end{matrix}\right.

                  所以上面w必然满足对称性要求,下面还需要检查一下是否为吸引子。

                  因P个样本x^pp = 1,2,3,,,,,P,x\epsilon \left \{ -1,1 \right \}^n是两两正交的,有:

                                              (x^p)^Tx^k = \left\{\begin{matrix} 0, \ p\neq k\ & \\ & \\ & \\ n, \ p=k\ & \end{matrix}\right.

                    所以:

                                               WX^k = \sum_{p=1}^{P}[x^p(x^p)^T - I]x^k = \sum_{p=1}^{P}[x^p(x^p)^Tx^k-x^k]

                                                          = x^k(x^k)^Tx^k - Px^k

                                                          = nx^k - px^k = (n-p)x^k

                        因为n>p,所以有:

                                              f(wx^p ) = f[(n-p)x^p] =sgn[(n-p)x^p]=x^p

    可见给定样本x^pp = 1,2,3,,,,,P,是吸引子,但是需要指出来的是我们设计时有时候并不能正好的设计那么多,例如我需要60个吸引子,但是我需要设计64个吸引子,因此会多出4个吸引子,该吸引子称为伪吸引子。下面画个图给大家理解一下什么意思,伪吸引子并不是我们想要的,但是它存在:                

    假如吸引子a,b,c是我们设计的吸引子,但是后面的就是伪吸引子,如何处理伪吸引子,我们将在下节继续讨论,这里先提一下。

    4.网络的信息存储容量

           当网络规模一定时,所能记忆的模式是有限的,对于所容许的联想出错率,网络所能存储的最大模式数P_{max}称为网络容量,网络的容量与网络的规模、算法以及记忆模式向量的分布都有关系,下面给出DHNN网络存储容量的有关定理:

          定理1: 若DHNN网络的规模为n,且权矩阵主对角线元素为0,该网络的信息容量上界为n。

          定理2: 若P个记忆模式x^pp = 1,2,3,,,,,P,x\epsilon \left \{ -1,1 \right \}^n是两两正交的,n>p,且权值矩阵w按照\left ( 1 \right )进行求得,则所有P个记忆模式都是DHNN网(w,0)的吸引子.

           定理3:若P个记忆模式x^pp = 1,2,3,,,,,P,x\epsilon \left \{ -1,1 \right \}^n是两两正交的,n>p,且权值矩阵w按照\left ( 2 \right )进行求得,则所有P个记忆模式都是DHNN网(w,0)的吸引子.

    从上面的定理可知,当用外积设计DHNN网络时,如果记忆模式都满足两两正交的条件,则规模为n维网络最多可记忆n个模式,一般情况,模式样本不可能都满足正交条件,对于非正交模式,网络的信息存储会大大降低。

        事实上,当网络规模n一定时,要记忆的模式越来越多,联想时出错的可能性很大,反之,要求出错率越低,网络的信息存储容量上限越小。研究表明当存储模式数P超过0.15n时,联想时就有可能出错,错误结果对应的是能量的局部极小点,或称为伪吸引子。

        提高网络存储容量有两个基本途径:

                  1.改进网络拓扑结构

                  2.改进网络的权值设计方法

    常用的改进方法有:反复学习法、纠错学习法、移动兴奋门限法、伪逆法、忘记规则和非线性谢谢规则等。

    我们们知道了, Hopfield神经网络的最大问题在于伪吸引子的存在,一旦存在伪吸引子,因此容易造成错误,如何处理伪吸引子就是我们下一节所要解决的。

    到这里DHNN就结束了,CHNN这里不讲了,感兴趣的自行查阅资料了解。

     

     

     

                 

    展开全文
  • 今天数据处理专题的第10篇文章,我们继续来聊聊matplot这个工具库。在上周的文章当中我们...道理也很简单,老板让你去做一份数据出来,结果你画出来的图啥也没有,也不知道什么颜色代表什么内容,也没有标题,难...
  • 数据分析与机器学习中常需要大量的可视化,因此才能直观了解模型背地里都干了些什么。而在可视化中,matplotlib 算得上最常用的工具,不论对数据有个预先的整体了解,还是可视化预测效果,matplotlib 都不可...
  • 现在随着人们聊天方式越来越方便,手机像素也越来越清晰,蓝光无损似乎成为了人们的首选,但关于人们对表情包的选择,现实似乎与这个想法大相径庭,糊的表情包才更有味道,也更受大家的喜欢。 在这个聊天看不见脸...
  • 放弃近50万的年薪白手起家,父母并不支持儿子的决定,更难以理解,这个学理工科的儿子搞的竟然是什么“巧克力3D打印”。可曾冠维觉得这其实跟他学的专业挺对口。 他的团队要研制一台全世界精密度都很高的“巧克力...
  • 安卓汽车电子的未来吗?

    千次阅读 2013-12-31 11:32:13
    当今IT及电子产业最大的浪潮和趋势是什么?毫无疑问应该是移动互联网的蓬勃兴起。作为移动通信和互联网两大强劲增长的业务和技术的结合,移动互联网正迅猛地渗透到人们生活、工作的每一个领域,深刻地改变信息时代的...
  • Java开发已经悄无声息的走进我们的生活中,无论手机软件、手机Java游戏还是电脑软件等,只要你使用到电子产品就会碰到和Java有关的东西,更多的企业正采用Java语言开发网站,也吸引了好多志同道合的朋友开始加入...
  • 什么是电离空气?

    千次阅读 2014-05-19 11:29:32
    这允许分子作为空气中的灰尘颗粒污染物自然吸引子和作为一种封闭的环境一般洁面乳。  电离空气也更突出自然的雨和闪电风暴后,这解释了为什么天空经常出现明亮和清晰后,风暴已经过去比在干燥的正常的,阳光
  • 伴随着网络时代的到来,网络极大地改善了人们的生活,从以前的电视广告、纸质广告、报纸杂志,到如今充斥着网络广告。网络营销不再是一个陌生的词汇。 什么是网络营销?...网络营销的特点是什么? 一、网络营销
  • 用 matlab 画 cantor 三分集 摘要: 本文介绍了分形几何中的 cantor 三分集 并且给出了 MATLAB 程序以及运行结果分形作为双曲迭代函数系统的吸引子 根据程序中的迭代将分形模拟确为迭代法 关键词 分形几何cantor 三分...
  • 币赞PTRC花生链是什么? 全称:Peanut travel chain 简称代码:PTRC 中文名:花生旅行链 Peanut travel chain花生旅行社区是由在旅游行业拥有多年丰富经验的资深团队,和最早进入区块链技术研发领域的资深技术团队...
  • 是什么吸引了近6万人从全国各地甚至世界各地赶来?大会的门票也跟明星演唱会那样一票难求,这足以说明大会的成功。 100年前,伦敦向世界输出了地铁,巴黎输出了下水道,纽约输出了电网。今天,杭州携手阿里云,...
  • 哪位对UI技术比较牛的看一下迅雷7的几个页面的截图...效果相当的好了,我更新了一下迅雷一下被这界面吸引住了,有没有谁知道这个如何实现的??? 转载于:https://www.cnblogs.com/skyme/archive/2010/10/28/1...
  • r1 r2 <1 ... 吸引子 c >1 >1 排斥子 p >1 <1 ...
  • 博主深夜来写这篇文章,主要因为在近段时间的EDM中,发现标题不同对邮件的打开率有很大影响。究其原因,应该标题的吸引力不同导致的。...什么是悬念呢?这里你可以想象一下,悬念就是让你有欲罢不...
  • 我一下就被她深深吸引,加为好友后就开始热聊起来。在接下来的几天内,我们越聊越有共同语言,开始视频聊天,从婚姻、家庭、未来等等聊了很多,在几个夜晚都聊到了深夜。 蓝心烟身材匀称,很白,一笑两个...
  • Windows 10 中包含了一个 WSL(Windows Subsystem for Linux)系统,我们可以在其中运行未经修改过的原生 Linux ELF 可执行文件。利用它我们可以做很多事情,对开发人员和普通用户都如此。当然对开发人员的吸引...
  • 区块链电子合同的属性和效力问题

    千次阅读 2018-02-02 10:41:00
    如果要问什么是现今最火热、最受关注的互联网科技,答案毫无疑问会“区块链”。有人说,区块链技术的1.0版本比特币“挖矿”,2.0版本远程加密传输,3.0版本则其它各种实际应用。在目前已经出现的区块链服务...
  • Chrome浏览器吸引我的地方

    万次阅读 热门讨论 2011-09-29 16:50:04
    我以前一直都IE7的忠实拥趸者。有一天下载了谷歌浏览器Chrome,用了不到一个星期就被它...为什么Chrome一下吸引了我呢? ;"><img src="http://hi.csdn.net/attachment/201109/27/0_1317107538OU47.gif" /></p>
  • 支付宝刷脸技术的发展2014年蚂蚁金服人脸识别项目开始研发2015年人脸识别技术应用于支付宝2016年人脸识别技术多场景广泛应用2017年全球首次刷脸支付商业试点2018年百万用户率先体验刷脸支付商家为什么安装刷脸支付...
  • 什么样的内容最具吸引力?其实,我们看书或者刷微博的时候都能明显的感受到,好的内容... 尽量短,并直达中心主题你最想传达的是什么内容?最想让读者记住什么?把这个放在第一位,然后清晰的将其表达出来,并说清...
  • Java开发已经悄无声息的走进我们的生活中,无论手机软件、手机Java游戏还是电脑软件等,只要你使用到电子产品就会碰到和Java有关的东西,更多的企业正采用Java语言开发网站,也吸引了好多志同道合的朋友开始加入...

空空如也

空空如也

1 2 3 4 5 ... 15
收藏数 293
精华内容 117
关键字:

吸引子是什么