精华内容
下载资源
问答
  • 某种商品有N(用未知数N来表示是因为规格的数组由用户制定且随时可以编辑的,所以对程序来说,它是个未知数)类规格,每类规格又有M个规格值,各种规格值的组合便是个型号,比如说,颜色是商品规格的类,...

    近来在开发SKU模块的时候,遇到这样一个需求,某种商品有N(用未知数N来表示是因为规格的数组由用户制定且随时可以编辑的,所以对程序来说,它是一个未知数)类规格,每一类规格又有M个规格值,各种规格值的组合便是一个型号,比如说,颜色是商品规格的一类,可能的值有红、黄、绿、蓝,而尺码是另一类规格,可能的取值有LM。那它们的规格组合数为:4*2 = 8,如果再另一类规格是版型,分别为修身和宽松,那就有4 * 2 * 2 = 16种组合了。怎样简单高效地求出这些组合呢?

    这类问题首先考虑的方法是用递归,但返回之间并没有相互依赖的关系,到底什么时候结束是个问题,用嵌套的循环又会由于数组的维度及深度不得而知而变得困难重重,后来,想到了一种很可能并非性能最优,但简单直观的方法,写在这里与大家分享一下,如果你有更好的算法,请不吝赐教,小弟感激不尽。

    刚开始的时候想到要从多个数组中依次抽取一个元素出来,感觉去进行深度遍历相当复杂,后来换了一种思路,其实每次只要把两个数组合并起来,然后把这两个数组合并的结果再与下个数组进行合并,最终,就能得出逐个抽取一个元素来进行组合的结果。这跟算组合总数的思路是一样的,也就是2*4*3,先是求出2*4=8,再用8*3=24;这样,24种组合的结果就得了,下面是JS代码,供大家参考一下,我知道这肯定并非最佳算法,所以,再次希望有其它解决办法的朋友赐教。

    function generateTrRow(specItemList){
    	var specValueList = [];
    	for(var i in specItemList){
    		var s = specItemList[i];
    		var arrValue = s.value.split(',');
    		specValueList.push(arrValue);
    	}
    	var arrGroup = [], tempGroup = [];
    	if(specValueList.length > 0){
    		var firstSpecValueList = specValueList[0];
    		for(var i in firstSpecValueList){
    			tempGroup.push([firstSpecValueList[i]]);
    		}
    		specValueList.splice(0, 1);
    		arrGroup = generateGroup(specValueList, tempGroup);
    	}
    }
    /**
     * 生成规格值组合的方法
     */
    function generateGroup(arrSpecValueList, tempGroup){
    	for(var i in arrSpecValueList){
    		var s = arrSpecValueList[i];
    		var newTempGroup = [];
    		for(var j in tempGroup){
    			for(var k in s){				
    				var tempOne = [];
    				for(var x in tempGroup[j]){
    					tempOne.push(tempGroup[j][x]);
    				}				
    				tempOne.push(s[k]);				
    				newTempGroup.push(tempOne);
    			}
    		}
    		if(newTempGroup.length > 0){
    			tempGroup = newTempGroup;
    		}
    	}
    	return tempGroup;
    }

    其中generateTrRow方法是我生成表格中的行用到的,它主导把数组合并后删除已合并的数组,下面的generateGroup方法则是执行把两个数组合并的请求。

    展开全文
  • 货币的一种互联网体系架构

    万次阅读 2019-05-10 10:50:30
    中本聪最伟大的发明比特币,可以因为以下处不同的特征广受赞誉: 比特币是公开的,去中心化的,加密总账(cryptographic ledger),同时拥有基本总账能力。 加密总账能追踪新的比特币的余额。 以比特币为基础的...

    I. 介绍

    中本聪最伟大的发明比特币,可以因为以下两处不同的特征广受赞誉:

    1. 比特币是公开的,去中心化的,加密总账(cryptographic ledger),同时拥有基本总账能力。
    2. 加密总账能追踪新的比特币的余额。

    以比特币为基础的平行金融体系正在被着力打造当中。加密总账在灵活性上的便利开发诸多。例如多重签名账户,去中心化兑汇,机器间交易的新应用,而这些成为了开发的驱动力。这一论文分析加密总账在目前金融体系中的应用,同时促进对一下内容的讨论:
    如果金融机构利用公共加密去中心化总账,同时有基本总账能力,当他们检测资产负债余额情况时,哪些速度、成本、灵活性上面的优势可以达成?

    这些总账给实时全额结算系统(Real Time Gross Settlement)例如CHAPS和FedWire的构建带来了新的方式,同时还有延迟净额清算系统(Deferred Net Settlement)例如ACH,Bacs和对应银行,外汇交易市场,股票交易市场和其他金融体系的支柱。这篇文章把这些去中心化的元素压缩进一个基于层级的连续框架,同时称它为:货币的一种互联网体系架构

    货币的一种互联网体系架构带来的可感知好处将会随着对系统的介绍一同枚举。这些好处是邀约的动机。

    II. 缩写和定义

    • ACH:自动清算系统,确保美国基于延迟净额清算基础的零售支付过程可行的系统。
    • Bacs:确保英国基于延迟净额清算基础的零售支付过程可行的系统
    • CHAPS:英国用来实施高价值交易的基础全额结算基金交易系统
    • Consensus Pool:一组服务器,拥有给定的主人,使用容错算法来持续达到共识状态的总账。健康的共识池(consensus pool)一般由不同对手方控制若果服务器。
    • DApp:去中心化应用
    • DE:去中心化交易
    • DEP:去中心化交易协议(protocol),在7a部分有描述
    • DNS:延迟净额清算
    • DNSP:延迟净额清算协议,在7d部分有描述
    • FedWire:美国用来实施高价值交易的基础全额结算基金交易系统
    • Issuer:在加密总账上发放财产的对手方。这一对手方可以是一家银行,公司,去中心化的匿名机构,政府或者私人个体。财产可以是商品保障代币,货币,情报类货物,公司内部股权,代表航空里程的代币。
    • Ledger contracting:请在3,4小节找到释义
    • ODFI:初始存储金融机构,一家创立自动清算贷款的银行。
    • OFI:初始金融机构,一家创立FedWire贷款的银行。
    • RDFI:存储接受金融机构,一个结束ACH贷款的银行。
    • RFI:接受金融机构,一家结束FedWire贷款的银行。
    • RTGS:实时全额结算系统。
    • GTGSP:实时全额结算系统协议,在7c中有描述。
    • SIPS:重要支付系统。
    • SL3P:静态流动性支付过程协议,在7b中有描述
    • Tx:交易

    III. 框架

    由OSI层模型得到启发货币互联网构架按图一(Figure 1)进行:

    接下来的部分详述每一层的需求和能力,论文和划分为以下分段:

    • 4,5节描述了总账协议,由比特币和以太坊项目概念升级引领的创新。总账协议给此文多重组成建造了基础。在4小节对比特币的描述中,尽管在抽象有利情况下来看是正确的,但又与目前的实现有所偏离。
    • 6,12,13小节讨论总账层,6小节做了整体假设,省略了理由。理由和详述在12小节。13小节的目的写在5小节。
    • 7a,7b,7c和7d描述了DEP,SL3P,RTGSP和DNSP。这一段阐述了货币互联网的潜在核心创新。
    • 8小节展示了7小节中的协议可以统一成两个基本的总账运行。这一联合使得实现易于处理。
    • 9,10和11小节分别介绍了寻找的目标,协议一节程序层。
    • 14小节展示了重要的观察和开发问题。
    • 参考文献在15小节,作者详细情况在16小节。

    最后,便签颜色编码(本文是翻译文,不参照下述):

    • 深蓝色粗体 字体用于部分的标题。
    • 天蓝色粗体字体用于分节标题。
    • 绿色加粗字体demarate多相支付和交换协议阶段。
    • 灰色加粗字体标出重要的定义,意见或段落。
    • 文章详细介绍其他颜色和形状公约,以备不时之需。

    IV. 比特币的总账合约

    总账协议是追踪价值余额账户的协议。它们允许客户在自己账户里减去X单元,同时在另一个账户里计入X单元。为了达成一个重要的运作,客户的账户必须有超过X的余额。图一形象化了两个花旗银行客户,Alice和Bob。Alice创立了这个支付。

    在上图的运行中,比特币通过总账协议增加了财富。总账协议是保持余额的账户在预定规则下运作。比特币外部的实体,像Alice和Bob,在完成规则集(rule sets)前不能用总账协议来缔约。这一实施因为违背协议规则拒绝比特币节点来进行。

    例如,Alice想要把比特币转给Bob,同时Bob只能在15年12月31日后使用比特币。创立一个保持比特币暂时余额的总账协议(ledger contract)就能进行。对Bob的转账,在总账协议中设置给定日期后才能获得比特币。图三展示了这个流程:

    总账协议可以被认为是中立的,自动的第三方,调停Alice和Bob之间的转账关系。读者需要知道上面的图是一个抽象 (abstract ) 概念,比特币可以不同方式地来实施交易。

    图四提供了第二个注释。Alice是一个买家,Bob是一个卖家。货物交易有个很长的运输时间。Trent是同时被Alice和Bob信任的第三方。在这一买卖中,Alice把买物价值存在总账协议,按以下条约:

    • 三方中任意两个必须签约保证协议资金不能动。
    • 如果货品错误接受,Alice和Trent能把资金给回Alice。
    • 销售顺利结束,Bob和Trent把支付款项给到Bob。

    图四展示了成功销售交货时候的交易流程。总账协议就像一个中立的自动第三方调停Alice,Bob和Trent直接的交易关系。

    比特币总账协议由堆栈为基础的(stack-based)字节代码(bytecode)语言编程,我们叫它为“Bitcoin script”(比特币脚本)。每个总账协议都有代码和缓存数据结构。

    比特币协议系统有两个重要的限制:

    • 价值盲区(value-blindness):协议不能执行比总共存储在内的资金金额低的交易。也就是说检索时间内应用人要一次提出所有资金。
    • 缺少持久储存/状态:协议不能存储数据,这限制应用人不能做去中心化交易。

    图五展示了强调限制的假设情况。Alice想用总账协议把比特币换成狗狗币。她建立了一个总账协议,并规定用比特币来交易。条约为:当对方给Alice的地址提供了狗狗币支付证明(payment proof),协议会把比特币给到对方指定的地址。

    价值盲区限制指Bob作为另一方,必须交易Alice在协议里实际指定的数额。对方可能希望一个较小的交易量,然后得到总账协议里相应部分的资金。这一操作在单比特币总账协议中无法进行。

    假设部分交易可行,比特币总账协议必须存储能使用的支付凭证。当这一存储流失,对方能重复提供同样的凭证,不公平地提尽资金。无法存储和价值盲区限制了去中心化交易等程序。

    目前的例子仅为了强调限制。它有其他未被提及的瑕疵。去中心化交易比特币在另一个结构——原子交叉链交易(Atomic Cross Chain Trrade)中,可以更好地实施。尽管它也有价值盲区限制。

    下一个小节强调的是简介的以太坊方式,为此中描述的协议奠定了基础。

    V. 含有以太坊的总账合约

    以太坊项目含有许多创新,其中以下几个对本文很重要:

    1. 总账协议是有价值意识(value-aware),拥有持久存储能力。
    2. 总账协议在需要的时候能存入/提取(loaded/unloaded)资金。存入/提取条件由协议代码(contract code)执行。
    3. 有数据的消息可以传送到总账协议。协议能用数据回复,把价值传到输入处。

    7小节对以上的使用进行了演示。因此此处举例省略。其他以太坊创新对我们的讨论是次要的,将在12小节提到

    1. 总账协议能进入一些随机数据。目的是为投机应用提供熵源(entropy source)
    2. 用来创立总账协议的改编语言是图灵机完成的。
    3. 总账协议能创立另一个总账协议。因此,与外部人控制账户有同样的权限。这是指“联系第一阶级市民的财富”(contract first class citizen property)

    b,c两点的连结意味着在升级以太坊总账时可能会产生无限循环情况(loops)。在估计任意脚本在有限时间内终止或者阻止网络节点拒绝交易导致无限循环时,Halting问题提供了一个限制。当一个程序为了防止节点拒接交易而陷入死循环时,Halting问题对此进行判断之后创新引发的风险有两个:

    1. 阻止无限循环的交易费用法在某些未知情况下是有缺陷的。
    2. 明确设计的恶意协议代码能从以太坊虚拟机中逃逸并引发网络节点损坏。

    12小节讨论了防范风险的方式,同时还能得到以太坊的若干好处。驱动力是在邀约实施孵化期避免风险和复杂性。

    6-10小节假设以太坊总账协议能力的完整集是有效的。

    VI. 总账层

    总账层是用一个允许单一或一组对手方得以建立总账同时流出需求资产的协议来创造的。每一个总账都有个资产发行人,一群总账身份证明和资产发行的身份证明。

    总账的最低准则为:

    1. 每个总账的资产发行人为了维护总账必须是不同实体(entities)。
    2. 总账是由一个去中心化的共识过程(consensus process)来维护的。参与共识过程的节点集被称为共识池。
    3. 总账账户余额(balance),协议和交易是公开的。
    4. 交易由数字签名的使用来初始创立。
    5. 多重签名账户是个基本的需求。
    6. 基础的总账协议能力在每个总账中都是需要的。最小能力集会在12小节详细描述。
    7. 快速的总账交易最好在两秒内完成全部的确认。当共识池节点身份已知,这对于去中心化总账是可以完成的。我们假设随后阐述也是同样情况。 共识池和联合总账会有一次对准机制。

    11小节提供了上述特性的理由。超总账确立了通过实际拜占庭容错(Practical Byzantine Fault Tolerance)共识算法来维护总账,同时,也是总账层协议的一个例子。

    比特币和以太坊项目假设网络节点是匿名的。这里,我们假设共识池节点的身份(identify)是可知的。这是与其他加密货币项目的主要分歧(divergence)之一。除此之外,聚焦是筹谋金融系统与商品保障货币,像比特币这样的信息化商品,股权和其他资产的相互协调。最终,邀约的系统并不一定要创造任何新的货币或者资产。

    图片六显示了总账层(ledger layer)的部分。有同样财产种类的总账有一样的颜色。彩色圆内的黑点代表一个账户。账户对应的资产发行人是已知的。发行人的名字选来方便形象化。大银行和企业,自然又适当的保守的代笔,并非是此处描述的科技的首批客人。

    如果carol在总账4里有财产,我们假设她与总账4发行人间有可信任的关系。

    在Alice的案例中,她在总账1里有美元,想要把美元转给Bob,一个有相同总账相同发行人客人,也就是说,总账内转账是处理起来比较简单的。下一个小节会介绍总账内转账。

    VII. 支付和交易层

    这一层被分配解决Alice和Bob案例中的两种情况:

    • 情况1:Alice有花旗银行发行在总账1里的V美元,她想要兑成总账2的Bob手里的W欧元。Fidor银行是欧元发行人。7a描述了这个情况。
    • 情况2:Alice有花旗银行在总账1里发行的V美元,想要支付给Bob。Bob是富国银行总账2的客人。7b,7c和7d展示了决议。

    这层在开展四个协议(protocols)中的一个起作用。7a和DEP有关,7b和SL3P有关,7c和RTGSP有关,7d和DNSP有关。微交易支付(micro-transaction payments)在附录A中可以参考。

    7a.DEP

    去中心化交易可以作为两个调停交易关系的连锁总账协议来实施。在图7a,7b,7c和7d中提供了可视情况。为了方便,我们把两个协议命名为发布协议(dispensing contract)以及接受协议(accepting contract)。协议有四个阶段,假设Alice创立了一份Bob接受作为交易方的邀约:

    阶段一:Alice在两个总账建立发布协议以及接受协议

    1. 图7a代表阶段一
    2. Alice在总账2建立接受协议,在总账1建立发布协议
    3. 发布以及接受协议的连结构成了Alice交易邀约(offer)。定价信息被设定为两个协议的存储入口。
    4. Alice负担价值V的发布协议

    接受以及发布协议的内容见下图

    阶段二:Bob相信接受协议,然后问发布协议要钱

    1. 图7b形象化了阶段二
    2. Bob确认发布及接受协议构成了一个可接受的邀约并且架构正确。
    3. 接受协议保存资金的状态是Alice需要阶段三c的声明消息来提取它们。
    4. Bob提供目前阶段在总账1的发布协议的支付凭证

    阶段三:发布协议给Bob放款并给Alice声明消息

    1. 图片7c画出了阶段三的情况
    2. 发布协议确认支付凭证同时确保凭证之前未被使用。完成后给总账1的Bob转V,并为协议内存添加支付凭证。
    3. 发布协议给总账1的Alice发送提现消息(claim message)。在Alice方便或者立刻就能在接收协议提款

    阶段四:Alice用声明消息从接收协议里提款

    1. 图7d代表了阶段四
    2. Alice在接收协议里施加声明消息
    3. 接收协议核实声明消息,同时确保声明消息之前未被使用。
    4. 如果声明消息有效,接收协议给Alice在总账2放款,同时在存储(storage)中添加声明消息的数据。

    接收与发布协议的能力

    1. 发布协议必须在第三方持有V,同时能够验证总账2的支付凭证。为防止重复使用,使用信息需要被存储。
    2. 接收协议必须在第三方放置W,同时能够验证总账1的声明消息。为了防止重复使用,用过的声明消息需要被写入合同内存。

    上述流程假设交易是自动的,也就是说,发布协议里的V仅在一个交易里被声明。如果Bob在阶段二中想要把交易额改成小于W的X也是可以的。

    此外,还有两个要考虑的边缘情况:

    1. 1.发布协议未余额:因为对阶段二中把资产转到接受协议时参与方人数没有限制,因此可能发生Bob在要钱的时候没有达到发布协议余额条件。为了防止Bob的损失,需要加入一个额外的功能,给Bob在总账1发送消息“交易被拒”Bob可以用拒信在总账。2. 提款。Alice不会受到拒信,因此她不能解锁总账2里面的资产。
    2. Alice取消命令:Alice必须拥有提取和添加发布协议资金的能力,同时也能撤销命令。这一能力不能接入之前提起的交易流程。提款引发的非余额能用之前说起的拒信来处理。

    尽管DEP不可靠又是P2P的,但是信息服务商追踪不同总账的交易命令依然有市场。服务商可以让共识池节点提供命令,核实总账协议合理。参与方会给服务商酬劳来获得更新的信息。纯信息化服务是与命令相当的货币互联网。

    DEP的强大在于它消除不同对手方间的对调停货币,股权交易的需要,图8a展示了对手方以及Alice与Bob间有股权交易时的关系。图8b,SEP与8a进行了对比,强调了潜在低成本的交易。一个相似平行情况在货币交易时存在。

    中央存管处和保管处的作用被公共加密总账替代。经纪人和股票交易被跟踪总账命令的信息服务所代替。当Alice和Bob对对方风险无法容忍是,清算所就不被需要。协议执行只花了Bob4秒时间。

    最终,DEP像一座联系货币和信息化商品,例如以太坊和比特币的桥梁。

    7b.SL3P

    不像去中心化交易那样是目前系统的发展性进步,SL3P是一个新的支付过程。

    想象图9a的情况,Alice有花旗银行发布的在总账1上的V美元,她想要把这些钱给Bob。Bob是国富银行在总账2的客人。又有一个叫Carol的,与Alice和Bob有关的对手方,它在两个总账都保持余额。Carol:

    1. 相信花旗银行和国富银行两个发行方。
    2. 对两个总账的各自余额保持中立,只要总量保持恒定。
    3. 在国富银行持有超过V美元的资产
    4. 不需要立刻做两个总账之间的交易,也就是说,她的余额是静态现金流(static liquidity)的

    根据交易集,图9b描述的协议,解决了支付:

    1. Alice在总账1给Carol V美元
    2. Carol在总账2给Bob V美元

    SL3P利用两个总账协议来保证多重需要满足交易逻辑的特性:

    1. Alice发给Carol的总账协议确保她在总账2支付Bob,或者她在总账1收回她的钱。
    2. 总账协议可以保持,也就是说,Carol构造一次协议,然后协议自动在不同对手方进行支付。
    3. Carol为了保证静态现金流动性可以在支付时候收费。

    协议需要四个阶段:

    #### 阶段一:Carol通过创立在两个总账的协议开了个SL3P通道(channel)。

    1. 图10a代表阶段1
    2. Carol在总账1创立SL3P协议1,在总账2创立SL3P协议2。
    3. 对称的SL3P协议1以及SL3P协议2的连结叫做SL3P通道。协议存储了作为数据入口的每次交易收费情况。
    4. Carol现在值X的协议1以及值Y的协议2
    5. SL3P协议的能力如下

    阶段二:Alice相信SL3P协议1,在SL3P协议2问Bob要钱

    1. 图10b显示了阶段二
    2. Alice想支付给Bob V,同时核实SL3P协议2拥有一个超过V的余额(balance)。若是,她进入下一步
    3. Alice把V美元转到SL3P协议1
    4. SL3P协议1以特殊状态持有资金。这些资金只有在阶段四后才能被提出来,或者SL3P协议2在阶段三d不给Bob钱
    5. Alice为上述情况提供证明给了SL3P协议2,并且创立一个给Bob总账2的账户的转账。

    阶段三:SL3P协议2核实声明,给Bob打钱

    1. 图10c描述了阶段三
    2. SL3P协议2核实支付凭证然后检查了它之前是否有被用过。核实无误后,它给Bob转账V,给Carol在总账2发状态改变消息。支付证明数据添加在协议存储中。
    3. Carol能用状态改变消息来把SL3P协议1里的资金存在阶段二c,她随时可提。
    4. 如果余额不满足,协议在总账2发送“拒绝支付”消息给Alice。Alice能用就行从SL3P协议1提钱。
    5. Bob在协议里只需要核实成功转账

    阶段四:Carol用状态消息提钱

    1. Carol从之前的SL3P协议1里拿出状态改变消息
    2. SL3P协议1核实状态改变消息,把消息存在之前重复使用的记忆里,然后使得V之后可以被Carol提出。
    3. 只有Carol之后能在SL3P提出来的钱参与了。Carol能把阶段三委托给第三方。第三方监管SL3P协议然后确保他们能够在静态现金流动性中有足够的参与。

    SL3P协议的能力

    1. SL3P协议需要在第三方保持余额,同时能够核实支付凭证,状态变更消息。已经使用的凭证和学校需要被保存在记忆存储中来防止重复使用。
    2. 在发生不余额状态时的SL3P支付,目标协议必须发布一个“支付被拒”消息给创立者。支付被拒消息能让另一个协议能提出款项。
    3. SL3P协议必须允许Carol在没有违背协议条件是存取款。Carol手里两个协议都达到余额,钱全部被提出来了,通道也就结束了。

    协议逆袭也可行。因为SL3P协议是对称的,Dave能够创立一个支付,从总账2到总账1.

    支付过程被修改成了P2P模式,为竞争市场提供基础。协议是两次转账协议计算的连结,因此能在4秒内完成。

    国内相应的银行能被可视化成Carol,作为两个接入发行人之一。比如,假设总账1的发行人是发行人1,。如果发行人 、1在SL3P渠道总账2开设存款,导致的是一个与之对应的国内银行的关系。读者应该能够记住国内相应银行正不断加速对时代错误的解决。

    SL3P提升了递延净结算(Deferred Net Settlements)因为发行者没有假设支付过程中的信任风险。为了减缓递延净结算中的信任风险,发行者需要给清算所抵押。SL3P提出没有这个必要性。

    另一个关键优势是创立新的支付过程流动性池。流动性成本是给RTGS支付定价的决定性因素。一个目前系统中的核心假设是支付过程中的流动性需求是由发布者提供的。SL3P能够打破这个假设,建立一个更大的流动性池,也因此得到更实惠的支付。

    7C。即时支付结算协议(RTGSP)

    与SL3P相似,RTGSP解决了这一问题:Alice拥有花旗银行在总账1里的V美元,想要把这些钱转给Bob。Bob是国富银行在总账2的客人。

    RTGSP和美国用来进行高价值(high value)转账的FedWire系统的邀约共识。它允许涉及到的发布人在内部银行从FR总账支付设置负债账户。图11展示了FedWire交易流程。

    Alice创立了一个FedWire贷款,其中花旗银行作为OFI,国富银行作为RFI。花旗银行立刻把Alice的账户计入借方,国富银行几分钟后确认Bob的账户。

    内部来看,花旗银行向FR提交了一份授信需求,需求之后给到了国富银行。FR进行结算交易,把钱在FR总账上从花旗银行转到国富银行。当交易实际开展的时候,结算总数额被转账,这一形式的支付过程被称为实时全额结算(RTGS)。分别假设花旗银行和国富银行不存在授信风险。

    沿着这一点继续拓展,我们把花旗银行看作发行者1,国富银行看作发行者2.目标是展示一个把花旗,国富以及FR作为加密总账的协议。

    SL3P提供了一个在图12里描述的路径。发行者开设了单向的,在FR总账和追踪财产总账之间的SL3P通道。一个发布者2维护的SL3P通道在图12里显示。在总账2中,发布者2创立了在通道一端(one end of the channel)的资产和负债。用深粉红色标记。

    单向SL3P通道指的是支付方向是单向的改进结构。在小节7b中,这是一个简单的修缮。

    Alice创立了转账V给发布者1的交易。交易包含说明最终总账的数据和Bob的账户。这有效地打击了Alice持有,发布者1 发布的财产。

    假设花旗银行有必须的流动性,它把V转账到FR总账的发布者2 维护的SL3P协议。接着,它把支付凭证给到总账2的另一方,并且把转账给到Bob的账户。

    假设有足够的协议余额,总账2 SL3P协议核实支付凭证完成了转账。发布者2阶段性地把资金下载到协议来保持RTGSP转账流通。当协议余额没有达到,发布者1能重新尝试或者从通道(channel)另一端要回财产。

    尽管目前证明RTGSP是可行的,可没有涉及RTGS系统的核心挑战:流动性管理。附录B会涉及到这个问题。

    RTGSP能够确保FedWire和其他全额清算系统的自动化。FR的作用被限制用来作为单纯的发布者。只要FR总账共识池可以达到,系统就能够运行。目前,美国FedWire系统的作用被限于09:00到18:00 ET。

    FR总账的去中心化和RTGS系统可以作为一个优质的运行风险控制和商务持久性政策。节点可以地理意义上去中心化,使得不同动能系统相互独立,建立数据备份。总的来说,所有系统性重要的支付系统很明显地从运营风险控制带来的去中心化化获利。

    7D。递延净额结算协议(DNSP)

    DNSP和SL3P以及RTGSP解决同样的问题:Alice有花旗银行在总账1里的V美元,她想把钱转给Bob。Bob是国富银行在总账2的客人。

    取代支付清算,像RTGSP一样,结算作为FR总账的转账;DNSP最终创立了一个花旗对国富的债务。多重债务可以聚合。只要双方同意FR总账,净量会在发布者之间转账。支付清算是发布者之间关于债务关系所创立的,同时支付关系式在FR总账上进行转账。DNSP把支付推迟到了支付清算后。协议需要发布者之间相互信任。

    DEP,SL3P和RTGSP的连结能应对一大部分的银行交易。DNSP因为完整性被涵盖。它等同于美国的ACH系统。

    由Ryan Fugger和Ripple项目领衔的横向交易(traversal transactions)构建了DNSP的中心。一个横向总账,使得横向交易拥有除了至今想到的以有特性:

    1. 账户能够建立与其他账户的可信联系。一个可信联系是账户持有者在共识池中的批准,允许池依照价值和对手方(party)在信任联系里的规定改变账户余额。
    2. 共识池可以把一个账户对另一个的支付改成其他账户的余额,受限于信任联系定下的约束。

    图13介绍了一个美元横向总账,有四个参与者:Eve, Frank, Gary和Harry。图13a的左侧展示了信任联系情况。一根线从frank到eve,价值M美元。表示frank同意eve欠它不超过M美元。参与者能动态改变信任联系。

    图13b右边展示了eve和Harry之间W美元的横向交易支付。在支付之前,我们假设没有一根参与者彼此有债务关系。交易之后,eve欠frank W美元,frank欠Gary W美元,Gary欠Harry W美元。哈人有接受这W美元的支付。

    每个账户的净余额等于参与者持有的债权减去持有的债务。交易后Frank和Gary的净余额保持不变。Gary和frank没有积极参与交易。Harry的作用是核实支付情况。

    因为总账也许会有更多参与者;共识池技术最优支付路径,由13b的红色箭头表述,同时自动调节余额。

    对于DNSP,我们假设多位发布者作为国内横向总账的一部分。横向总账变为支付清算机制,信任联系有两位发布者协商而定。DNSP有两个阶段,在图14a和14b表述。

    阶段一:Alice创立支付,发布者1给发布者2财产

    1. 发布者在总账上创立一个第三方合同,追踪财产,给合同下载财产。第三方合同的能力之后会解释。
    2. Alice V在总账1上把财富转给发布者1。交易包含最终总账和Bob的元数据地址。
    3. 发布者1和发布者2在国内清算总账做一笔价值W的横向交易。W小于V,在0-5美元之间。
    4. 发布者1把上述的支付证明给到总账2的第三方协议,要求协议给出V
    5. 第三方协议核实支付凭证,下一步假设证明无误
    6. 如果有超过V的资金,它在T时刻转V。在0到T时刻之间,当发布者1完成阶段二,V仅能被转给Bob。T大概是一分钟。
    7. 如果协议没有完成转钱的资金,它把W转给Bob,给发布者2发送“预约被拒”的消息。

    阶段二:发布者1把财产(V-W)转到清算总账,要求Bob进行支付

    1. 假设预约成功,发布者1在清算账户转钱(V-W)给发布者2
    2. 发布者1把上述支付凭证给到总账2的第三方协议,问Bob要V
    3. 第三方协议核实支付凭证,如果无误,把留存资金转给总账2的Bob。
    4. 当发布者1不能在时间T内完成阶段二,发布者1可以要求给Bob W的转账。第三方在这种情况下可以发动一个罚金X (X<W)

    在目前的状态下,DNSP有一个缺陷。在阶段一,第三方协议也许被耗尽然后资产小于W。这会导致发布者1承受W的损失。因为如下原因,这个缺陷可以容忍:

    1. 面临风险的资产数额低。W大概是5美元,相较于实体支付系统是个小数额。
    2. 如果第三方协议耗尽,所有在总账2的DNSP支付会停止,因为总账2是公共的,问题会升级。发布者2的声誉会在DNSP关闭的期间受损。

    发布者之间撇除DNSP的债务关系是在双方同意后建立在FR总账上的。清算在FR总账上只是两个发布者之间的简单转账,因此不被注解。

    DNSP区分了清算和结算过程,导致给Bob的快速转账(少于10秒)。许多现在的系统,像是美国的ACH和英国的Bacs,清算和结算转账每天只有一次。因此DNSP能够做到一个提升。此外,清算总账里的信任联系设计移除了目前的两层布置的中心控制成员系统。任何发布者只要保证在与另外发布者的信任联系里能够参与清算。

    对于对称的系统重要支付系统,去中心化清算总账减少了营业风险,是商业持续连续性的方式。

    ### VIII. 联合

    之前的小节对协议的每个特征着重解释了一下,在实现上略令人沮丧。这些明显的负责性是源于实际系统中的相互作用,同样能简化到实现时一个简单优雅的层面。

    一个关键的观察是利用了DEP和RTGSP的总账协议是SL3P的衍生。图15表达了这个结论。

    对于上述论述,也许挑战在于把发布与接收协议是SL3P协议的衍生可视化。请参考7b,把Alice换成Carol;Alice和Bob换成Bob。此外,取而代之总账只处理单一货币,它们那个处理不同货币。这些取代之后的交易流程是货币交易。

    我们可以停止参考不同名字的协议,尽管作者信息信息这有助于区分。

    ### IV. 拓展(pathfinding)层面

    在拓展层面,之前描述的协议被自动看成5类:

    1. 两个账号直接的财产转移。假设执行时间小于2秒。
    2. 两个通过DEP追踪不同或相同资产种类的总账。假设执行时间小于4秒。
    3. 两个通过SL3P追踪相同种类货币的总账。假设执行时间小于4秒。
    4. 两个通过RTGSP追踪相同种类货币的总账。假设执行时间小于6秒。
    5. 两个通过DNSP追踪相同种类货币的总账。假设执行时间小于10秒。

    任何源于一个加密总账结束与另一个总账的全球支付,汇款,资产购置或交易能分成上述所说的5类自动运营。拓展层面的任务是结算最优自动运营集来执行需要的财产转账或交易。

    小的世界网络相识社交网络,通过短距离双节点连接。我们假设,没有证明,货币的金融互联网也是一个小世界网络。实际上,这意味着任何全球财产转账/交易能在最长不超过5-7自动运营下执行。一分钟的 全球最长转账世界看起来在这样的连接下可以接受。

    拓展算法的原始数据有以下几种:

    1. 不同总账上有的即时DEP数据库
    2. 一组在总账之间运营的SL3P通道
    3. 一组全球承认的RTGSP网络
    4. 若干组参与RTGSP网络的发布者
    5. 一组全球公认的DNSP网络
    6. 让观众参与DNSP网络的发布者
    7. 执行自动步骤的,成本功能数据的金钱成本

    互联网上类似的挑战层面有途径协议,例如RIP, OSPF和BGP。通过互联网的交流路径需要路由器和节点不断广播可达信息。作为一个跨多路由/节点的拟分布算法是可视的。

    在货币的互联网,集中的服务中路径需求可以被发送,收到的最优路径合理。数据的收集和计算外包给这些服务商来减轻客户的工作量。实际的计算最优路劲算法将留到日后的文章来讨论。

    一旦客户得到了最优路径,路径执行全球价值转移和交易的自动运营。

    图15展示了拓展情况。Alice在美国总账上有瑞士法郎资产,她想要买苹果的股权。她发起了一个对拓展服务器的路径需求。拓展服务器有一个RTGSP网络的数据库,DNSP网络和不同总账的协议。它评估了3个可选路径,包括Alice可以拿的数量。它指出了Alice的最优路径和解释了支付和交易费用。

    Alice的客户有一个协议软件来执行需要自动运营的行动。她如是操作也得到了想要的股权。

    X. 协议层

    协议层使得交叉价值和任意编代码运行来改变值余额。可以通过实现codius和gavin andresen的可编程的仲裁(programmable orcles)项目来实现。

    协议层的优势项是让低级层作为单一(singular)全球总账。这一抽象总账可以保持余额,一分钟内转移财产。

    由一组特殊的实体所控制的,替智能协议的资金成为了N中M个多重签名的账户。协议代码是同时发送给各个实体的。每次协议机构想要给合同发送一个消息,他们把消息给到仲裁(oracles)里。仲裁跑代码来计算参与者的余额。如果编码导致才协议提款给某个指定地址的执行操作,则仲裁循环交易转移资金并且签名。资金转移由货币的互联网较低层来处理。图17展示了这一协议层。

    12小节量化了总账协议与协议层之间的差异。总的来说,总账协议用来构建支付和交易协议。其他使用案例智能协议在协议层实施。

    举个例子,伦敦布鲁特有一份Alice和Bob之间的原油期货协议。协议由电脑编码表示,仲裁执行;执行实体取回外部数据为Alice和Bob在结算的时候计算新的余额。在编码执行后,再次通过较低的货币互联网层达到Alice和Bob之间的余额。

    另外一个例子是专业买家卖家的调停,在图四中可见。Alice是买家,Bob是卖家。他们想要依照成功交付的时间来定义支付数额。Bob在长期交付的情况下会要付罚金。协议建立后Alice出款。协议的服务核实货物的交付,依此付钱给了Bob。

    第三个例子是数字资产竞拍。建立协议来实行竞拍的规则。如果数字资产主交付给了项目仲裁,规则执行。

    VI. 应用层

    和TCP-IP协议组相似,这一层包含应用和用户间交流。特别地,以下内容在商业上尤其重要。

    借方和贷款为基础的支付网络

    尽管货币互联网被预见,同时在全球范围内提升价值转移速度的数量级,一些使用案例需要支付网络,例如Visa和Mastercard。有下述案例:

    1. 转移认证需要猝发,例如商店购买情况。
    2. 多重自动转移和交易的操作需求使得自有秘钥必须被多次使用。一个支付网络会要有额外的安全性。
    3. 支付网络促进买卖双方的仲裁。

    通过支付网络可以有效减少结算风险。它通过技术减短了支付以及交易时间。Visa在2013年九月三十日结算数额被爆为五千三百八十万美元。

    最终,协议层能让一些例如双保证金托管(double deposit escrow)的新仲裁方法可行。

    期货,期权,衍生品,预测(prediction)和其他市场

    作这篇文章的核心理念之一是分类原则:每个货币互联网的特性都是有不同实体来运作的。例如,共识池是由总账维护从事,银行做资产发行与合规的工作,拓展服务由拓展来做,其他企业做协议应用。

    协议和应用层确保了期货,期权,衍生品,仲裁市场的发展。不同的服务能细分市场。

    #### Hazard关于智能协议的游戏

    作为示例,这个游戏可以看作有以下规则的协议:

    1. Roulette轮的旋转是模范熵源
    2. 以广义熵的输入作为参与者余额的改变。
    3. 价值的专移与交易通过较低货币互联网层来进行

    我们宣称,没有证明,hazard所以游戏包括扑克,二十一点都是以智能协议来实施的。

    去中心化应用

    抽象总账是简历去中心化应用的有力基石。目前依照的方式有在接触服务时构建新的代笔,例如去中心化存储,多跳网络(mesh network)和信誉体系。货币互联网提供了构建代币的方式。例如。一个分享硬盘空间的DApp在附录C里提及.

    XII. 再看总账层

    这一小节会通过思考一些问题来获取对总账层最少需求的更优理解(小节6):

    为什么总账不能被开发者控制?

    支付和交易协议构建时让开发者以外的实体来执行总账上的交易。例如RTGSP:发布者1给Bob在总账上发送支付,发布者2不参与。现在假设发布者2的服务器是共识池里维护总账2的唯一节点。

    以上情况发布者2可以建立一个新的总账历史记录,与过去的记录不共识,声称发布者1从未完成给Bob的支付。如果Alice和发布者1无法获取旧有历史记录时间,就无法很好地讨论新的历史。争论时法务成本会比预期规定的大。

    假设的解决方式是有多重对手方通过去中心化的共识过程来维护总账。通过去中心化化,发布者和顾客能确保总账的公平。因此:

    去中心化化服务能提高总账公平信心。共识池里参与的节点越多元,对公平的保证越强。

    权衡内在的去中心化是有效的。节点需要去相互证明它们的过程并且交流来达到共识。这博士宽带和计算更优于相同的集中总账。

    为了去中心化而去中心化博士一个提倡的策略。本文的观点是:

    某个使用案例的去中心化化程度需求是个求最优的问题

    影响有效性的因素,定义为交易处理过的投资节点中每个NPV美元是:

    1. 共识过程的选择
    2. 节点身份假设。有效性在节点身份已知的时候戏剧性地增加。比特币节点是匿名的,网络会蒙受高额成本,0-5亿美元每年来保持共识。
    3. 节点数额。总的来说,共识池越大,有效性越低。

    影响总账公平相信的因素:

    1. 共识池的构成。当例如谷歌这样有信誉的公司在池子里有节点,它会推动池子的信心。谷歌所有节点的恶意行为会有损它的市场信誉。存亡危急时谷歌的商誉可能价值百万美元。
    2. 共识过程的选择。比如,实际拜占庭容错能容下池子里最多33%的恶意节点。
    3. 共识池里控制节点的不同实体数额。数额越高,越可信。

    总账信誉的信誉额依据风险时的价值。提倡的策略是:

    目标是保持资产处于风险或总账有效可信之间的余额。

    例如,越高同质池也许能追踪两个杂货连锁店的忠实点数。花旗银行总账会因高信任/去中心化化获益。

    最优总账层协议

    因为每个使用案例有不同的最优池组成和节点数,总账层协议需要十分灵活。对协议的用法,开发性和发展没有限。共识过程应该在跨部情况下有最好的有效性。

    超总账项目是这个方向的先驱。充满希望地,其他系统目标的项目在跟进。

    为什么总账要是公开的?

    所有这里所说的支付和交易协议都是基于公开总账的。另一方不能在私人总账上查看邀约或核实支付。

    如果应用假设有价值,均衡化隐私增强了需要发展的科技。类似地,支付需要监控金融交易的方式。当保障金融隐私的成本不超过客户从例如去中心化交易等应用中的获利时,货币互联网的投资可以被看见。

    介于隐私问题被解决了,作者对潜在全球交易数据获取公开带来的经济理论和危机管理的提升表示激动。

    关于多重签名账户

    多重签名账户除了增强了客户安全,协议层同样需要值得信任的执行。智能协议需要被核实,同时由多重有区别的项目仲裁来执行仲裁池需要为日常运营获得连结多重签名账户。

    #### 关于共识池的时间排列机制

    时间排列机制为池节点时间校准提供了方法。好的设计源于建立有效的最小组成。这篇论文为DNSP和MTXP(附录A中)利用时间基础交易。去除时间排列机制还保存功能的方式还需要去发现.

    XIII. 降低萌芽阶段的风险和复杂性

    XIV. 意见和开放性问题

    加密总账的基本优势

    本文假设了加密协议的构建利用了加密总账,从而使得建立了参与的发布者和客人之间低信任的金融关系。低信任关系能减少交易成本,对于客人来说是一个净收入。

    扩展性分析和基于拉取的支付

    电子签名的使用使得所有加密总账系统成为基于推送的。目前ACH的实施使得基于拉取的ACH借方能够实行,它有多重例如保险支付,贷款分期偿还和公共设施支付等应用。

    这些应用能建立在协议/应用层是依靠一个机制的。当Alice作为Bob的一个客人是,有一个一个公用事业单位。Alice和Bob建立一个由互相信任的仲裁持有的智能协议。Alice给合同注入款项作为月度使用支付。协议包含让Bob每月提款的条约。

    身份认证和匿名层的实施

    顺从规则从而还产生了一个问题:公共秘钥后的身份必须能让某个组织(例如发行方)联系到从而抵制一些例如污点分析的问题。有个核实发行方和总账的方法同样是首要条件。

    XV. Reference

    https://bitcoin.org/bitcoin.pdf
    https://en.bitcoin.it/wiki/Script
    页20-28,在TCP-IP协议栈,4 日 版,贝洛兹A. Forouzan
    http://hyperledger.com/
    https://www.regaltek.com/docs/understanding-ach-network.pdf
    https://github.com/TierNolan/bips/blob/bip4x/bip-atom.mediawiki
    https://github.com/petertodd/bips/blob/checklocktimeverify/bip-checklocktimeverify.mediawiki
    http://gendal.wordpress.com/2014/01/05/a-simple-explanation-of-how-shares-move-around-the-securities-settlement-system/ 
    页323-374,在TCP-IP协议栈,4 日 版,贝洛兹A. Forouzan
    https://github.com/codius/codius/wiki/Smart-Oracles:-A-Simple,-Powerful-Approach-to-Smart-Contracts
    http://gavintech.blogspot.ch/2014/06/bit-thereum.html
    http://www.sec.gov/Archives/edgar/data/1403161/000140316113000011/R19.htm
    http://bithalo.org/wp-content/uploads/2014/06/whitepaper_twosided.pdf
    https://www.ethereum.org/pdfs/EthereumWhitePaper.pdf

    展开全文
  • 一种Android客户端架构设计分享

    千次阅读 热门讨论 2017-02-23 19:00:37
    技术发展日新月异,业界各种Android客户端架构设计,五花八门,但我们不能简单地说哪架构更好,因为脱离业务谈架构是没有任何意义的,适合业务的才是好架构。而架构也不是一成不变的,随着业务的发展,也许当初...

    转载请注明出处:http://blog.csdn.net/ahence/article/details/56678126

    技术发展日新月异,业界各种Android客户端架构设计,五花八门,但我们不能简单地说哪种架构更好,因为脱离业务谈架构是没有任何意义的,适合业务的才是好架构。而架构也不是一成不变的,随着业务的发展,也许当初设计的架构已不足以支撑目前的业务,那么就需要改变之前的架构。接下来将分享下我们Android客户端的架构设计,在App的某个业务发展阶段或许有一些参考意义。

    分层化与模块化

    分层化与模块化应该是任何软件开发的共识。

    分层化

    在Android应用开发中通常可以分为如下几层:

    这里写图片描述

    • SDK层:主要是Android SDK及第三方的SDK(可能基于Android SDK或为独立的SDK),这些SDK为上层框架提供核心功能的支持。
    • 基础框架层:这里所谓的基础框架,指多数App都必需的基础功能,是具体业务逻辑实现的基础。主要有网络请求功能、图片加载与缓存功能、SQLite数据库管理功能、Log管理功能等,当然根据对业务逻辑支持的不同,基础框架层的功能支持也不一定相同,上述几个应该是大部分App都要支持的,当然Crash监控与常用工具类也可归为该层次。
      具体到每个基础框架的实现则没有任何限制,如网络功能可以使用Volley、OkHttp或者自己封装实现网络请求逻辑;对于图片管理功能则可以使用Glide、Fresco、Picasso,亦或自己实现……总之每个基础框架都要遵循一定的实现原则,保持功能模块的独立性,与具体业务解耦并对外提供良好的交互接口。
    • 业务逻辑层:如果把App架构比作高层建筑,那么上述两层就是地基。地基打好之后,就可以在上面任意发挥了,至于如何发挥,那就必须结合实际的业务需求,不同的应用往往有不同的业务功能模块。
      另一方面,业务功能模块也并非完全是并列的级别,有一些业务逻辑也是可以抽象出来的,作为通用的功能模块,比如登录、分享、扫描、统计等,其他的业务模块可能会调用到这些功能。

    这里需要注意的是SDK层与基础框架层并不是一成不变的,但它们的变化周期往往是比较长的,一般来说当基础功能不能满足最上层的业务逻辑时,就需要对其做扩展。由于基础框架层的功能模块已经是功能级别的粒度划分,因此扩展往往是模块级别的扩展,通常是新增基础功能框架而不是修改原有基础功能框架,这也符合“开放-闭合”原则。

    模块化

    至于模块化,对于分层化来说则是更细粒度的划分,即将每一层细分为不同的模块,各功能模块尽可能遵循“高内聚、低耦合”的原则,功能模块之间仅提供必要的交互接口。

    对于基础框架层,由上图可见,往往是根据功能来划分。这里的基础框架层细分为网络支持功能、图片库、日志系统、数据库支持等模块,如果不足以支撑业务发展,可能会新增其他基础功能模块。

    而业务逻辑层则主要由业务需求来决定,如分为扫描功能、电商、快递查询等模块。业务逻辑层的模块化还有一种驱动因素,那就是通用功能的封装,这一点大家应该都有体会,随着App业务逻辑的增加,不同业务功能之间可能会用到相同的功能,如用户登录、分享功能等,我们不希望在每个需要的地方都复写一遍相关代码,于是就需要把通用功能抽取成独立于具体业务需求的模块,如登录模块、分享模块,在模块内部实现通用的业务逻辑,同时对外暴露调用接口,不同的业务只需调用通用模块即可。

    业务数据流程设计

    由于业务逻辑、数据处理逻辑或网络框架的不同,相信各家应用都有自己的一套数据请求流程。最直接的就是从Activity或Fragment中调用网络请求的方法,然后通过回调将结果返回到Activity或Fragment中,虽然流程最清晰,但这种方式存在几个严重的问题:

    • 网络数据直接返回到Activity或Fragment中,后续需要对数据进行解析、过滤、转换、缓存等操作,这些工作将会大大加重Activity或Fragment的负担。
    • Activity或Fragment的代码量猛增,逻辑繁杂(不仅包含了View的逻辑还包含了数据处理的逻辑)
    • 从整个应用的角度来看,每个页面甚至每个接口都需要重复上述相同的冗余工作,完全可以抽象出来。

    上述设计思路是需要摒弃的,结合自身业务及架构演化,我们没有跟风MVP、MVVM,而是设计了下面一套业务数据请求流程:

    这里写图片描述

    首先,视图层通常表现为Activity或Fragment,并由视图层发起数据请求,与上述不同,视图层并不直接跟网络框架打交道,而是先将数据请求发送到数据代理层DataAgent。需要注意到是,视图层与数据代理层之间没有采用直接通信的方式,而是插入了一个消息调度器MessageScheduler中转。这样做的好处是将视图层与数据代理层解耦,视图层无需关注数据代理层的具体实现,有了MessageScheduler,视图层所要做的就是发出一个数据请求的消息而已,然后就可以静静等待一个回复消息,该回复消息会附带最终需要的数据对象,这样在视图层就免除了数据处理的逻辑,拿到结果直接展示到UI上即可。使用这种方式,一般来讲Activity或Fragment三五百行代码即可搞定,UI逻辑或接口逻辑(如一个页面有多个接口)比较复杂的代码量基本也能控制在1000行左右,逻辑非常清爽。

    消息调度器将视图层的请求消息转发到数据代理层后,DataAgent解析出数据请求类型DataType(该类型对应着具体数据对象模型)、必要参数(接口参数、是否需要缓存结果、分页页码等),然后再执行具体的操作:

    • 如果要取缓存的数据,则DataAgent直接向缓存模块发送请求。缓存的数据可以是初始JSON数据,也可以是解析处理后得到的数据对象Model,可根据具体需求配置。如果从缓存中取到的是JSON,则DataAgent先要解析处理得到对应Model;如果从缓存中取到的是Model,则不做处理,然后将Model封装发回到消息调度器,再由MessageScheduler分发给具体的请求者,如Activity或Fragment。
    • 由于Android的数据来源有多种,如果数据来自持久化存储,如SQLite或File等,仍然统一由DataAgent来跟它们通信,获取数据并加工后通过MessageScheduler发回视图层。
    • 最常见的是从服务器获取数据,此种场景下,DataAgent将与网络框架交互,将从MessageScheduler中获取的参数提供给网络框架构造请求url。至于网络框架使用Volley或OkHttp或者其他都没关系,网络框架负责向Server请求数据,数据通常以JSON格式返回。DataAgent收到返回的JSON数据后,根据DataType将JSON数据校验后抛给解析器,解析器会将JSON解析为视图层需要的Model。当然数据解析过程可能伴随数据的过滤、转换等逻辑。另外需要注意的是,还需要根据视图层需求对数据进行是否缓存的操作,可选择缓存JSON还是Model。经过一系列操作,得到最终Model后,DataAgent将其通过MessageScheduler发回视图层。

    当然,由于数据请求流程是耗时的,因此上述步骤都是走的线程池,这点上图中并未注明。

    数据代理层

    DataAgent在上文中已简单提及,它的主要作用是对数据的一系列操作,包括实际的数据请求、数据解析处理、数据缓存等逻辑。下图为从服务端接口获取JSON数据并处理的流程:

    这里写图片描述

    从上图可知,DataAgent的大致工作流程为:

    1. DataAgent将真正的数据请求发送给各数据源,数据源可能为缓存、SQLite或文件,但通常是从服务端获取数据,因此DataAgent会将数据请求发到网络框架层,然后等待数据返回。
    2. 由于数据源不同,返回数据也可能不同,这里简化为两种:原始JSON或Model。
    3. DataAgent拿到数据后,则开始数据处理流程。以从网络请求的JSON数据为例,先对返回的JSON进行数据校验,检查数据的有效性与正确性,如果数据校验通过,接下来根据需求来决定要不要写入缓存,然后再进行数据加工(如精度处理、数据拼接、数据裁剪等),最后进行数据解析得到视图层需要的Model。如果数据校验没有通过,则尝试从缓存中读取,从缓存中读取后也需要校验(检查数据的时效性、有效性、正确性),校验通过后同样进行数据处理、解析等流程。如果缓存中读取得到的就是Model,那么则可以省略数据处理和解析的流程。得到最终的Model后,DataAgent将其包装发送给MessageScheduler。另外DataAgent还要具有一定的容错功能,因为任何数据源都无法保证能够返回合法的数据,如果不对数据错误进行容错处理,那么就可能无法解析为对应的Model,从而导致视图层无数据甚至异常。如果接口及缓存都无法返回正确的数据,DataAgent需要做特殊处理,以保证视图层能给用户以反馈。

    业务视图逻辑

    虽然不同的业务页面有不同的视图逻辑,这里以一个应用中最常见的页面为例来说明,假设该页面有一个列表。大家都知道ListView(此处为泛指,可能大家都在用RecyclerView了)的工作方式,它需要ViewHolder来填充视图,需要Adapter来填充数据,如果每个需要ListView的界面都维护各自的一套ViewHolder及Adapter,那么页面逻辑又将变得臃肿。

    我们在实践中是这样做的:

    • 封装一个Adapter公共处理类,提供多种构造函数,其中有一个type参数,用来标明需要使用哪个ViewHolder。
    • 封装一个ViewHolder抽象类,定义数据设置的逻辑,并交由具体的ViewHolder实现。
    • 构建一个叫做ViewHolderFactory的类,顾名思义该类主要作用是用来构建ViewHolder,它主要提供两个方法createViewHolder()与createConvertView(),其中createViewHolder()是个中间方法,用于生成ViewHolder。
    • 在Adapter的getView方法中,根据上述type参数,获取具体的ViewHolder实现,调用设置数据的逻辑。

    经过上述封装之后,视图层只需要向Adapter公共处理类传入一个type参数即可得到对应的Adapter;等数据返回到视图层后,再将数据传给Adapter公共处理类,其他什么都不用管,就可以展示列表数据了。原本需要很多代码实现的逻辑从视图层抽离之后,视图层只需要几行代码就能够完成一个列表展示了。

    Hybrid框架

    自Android诞生以来,就有Native App与Web App之争,这两种开发方式虽然各有优缺点,但Native App一直占据上风。近一两年来,移动应用中的Web页面越来越多,而纯Native的应用则相对越来越少。但是纯Web App由于其渲染效率、性能问题、对硬件的调用限制导致其也并未广泛地应用。于是一种折中的方案成为主流,即Hybrid App。

    所谓Hybrid App,即混合开发方式,部分功能使用Native开发,部分功能使用H5开发。为了充分利用Web开发的优点并避开其缺点,并非所有业务功能都适合使用Web方式来开发。在我们的应用中,主要将H5用于以下方面:

    • 节日活动或游戏页、秒杀或团购页等具有时效性的页面。
    • 使用说明、公告等偏展示、少交互的页面。
    • 经常更新、交互较少且不涉及硬件调用的页面或模块,如电商商品首页展示、积分兑换模块。

    截止到目前,我们App中的Web页所占比重是上升的,大概占到所有功能的25%左右。使用Web开发的优势非常明显,可以支持多变的UI视图效果、节省开发人力(Android、iOS共用)、Bug的在线修复而不用App发版等。

    为了满足App的Web页面需求,于是我们在基础框架层扩展了一个Hybrid功能模块。该框架主要是自行封装了Android原生的WebView控件,且分为不同层级的封装,可根据需要灵活使用,核心功能及特性如下:

    • 支持完整的Web页面,即整个页面的内容全部是H5实现,外部容器为Activity或Fragment。
    • 支持局部的Web页面,即部分页面的内容是H5实现,可单独使用自定义的WebView或者嵌入Fragment使用。
    • 定义了一套较为完整的交互协议,支持Native与JS的互相调用,典型的场景如H5页面点击跳转Native功能页面(支持传参)、JS唤起Native对话框或Toast等,同时Java也能调用JS函数。基于此套交互协议,基本能够满足日常App中Web开发需求。
    • 避免了JS注入漏洞。
    • 支持同一个Web页面中Http与Https混合的场景。
    • 向业务逻辑层暴露接口,可根据需求定制WebViewClient与WebChromeClient。
    • 对外提供接口,可根据需求控制缩放、Cookie管理、缓存管理、硬件加速等。
    • 经过试验与摸索,兼容多种Android设备及版本。

    虽然后来出现了React Native,但由于学习成本及其Android版本的局限性,结合我们自己团队的人力资源原因,我们尚未在应用中正式使用。目前仍然以Hybrid开发为主,且其在整个应用中的比重越来越大,因此Hybrid框架是我们架构中重要的一个组成部分。

    消息调度中心

    前面业务数据流程的设计中,在视图层与数据代理层之间插入了一个消息调度器——MessageScheduler,MessageScheduler主要功能就是管理消息及消息调度。

    MessageScheduler核心原理是维护了一个哈希表,当收到视图层的数据请求时就使用唯一的key将发起者保存到哈希表中,以便稍后收到DataAgent的返回数据后,能够找到发起者。存储好消息发起者的信息后,即向DataAgent发送数据请求,多个数据请求是可以并行的,主要在于线程池的线程数控制机制。DataAgent返回数据之后,MessageScheduler根据唯一key找到初始的请求者,同样利用消息机制将请求结果返回给视图层,同时在哈希表中清除该元素。其示意图如下:

    这里写图片描述

    消息分发器

    既然有了消息调度机制,就需要消息分发器MessageDispatcher,来负责发送消息。

    MessageDispatcher本质上是利用了Android的消息机制来对业务需求进行封装和扩展。看过Android Framework层源码就会发现其实Android框架本身就有很多地方使用了消息机制来进行通信,Android消息机制可以在模块页面间、线程间通信,甚至可以在进程间使用Messenger通信(Messenger方式是利用了消息机制,当然还有其他进程间通信方式)。

    MessageDispatcher功能比较简单,支持两种方式:

    • 点对点的通信,如两个页面之间,通信目标唯一,如上文提到的从视图层发送数据请求消息到消息调度器。
    • 点对面的通信,类似于广播,也有点像EventBus,一条消息发出,凡是注册(或叫订阅)过的页面都能收到通知;也可以进一步通过Tag控制达到一对一发送。

    其示意图如下:

    这里写图片描述

    模块路由中心

    一个完整的应用中,免不了模块之间、功能页面之间的跳转。当然在需要的地方通过Intent可以实现跳转,但这不是一个好的方案,很明显不同模块或页面之间的耦合度增加了。而我们的原则是模块和页面之间尽可能解耦,于是设计了一个模块路由(Module Routing)中心,App中所有的页面跳转均由其控制。

    模块路由的核心原理是给功能页面进行唯一编码,编码的逻辑可以跟随产品版本定义到应用中,并保证兼容之前版本。这样就可以在应用的任何地方只需要向模块路由中心发送对应模块页面的编码即可,由模块路由负责打开目标页面。

    以下几点需要注意:

    • 整个应用中的功能页编码都必须保证唯一及版本兼容,已移除的功能页面其编号也不能再重用
    • 如打开某些功能页面除了具体编码外,还可能需要额外参数。如打开商品详情页,除了知道商品详情页的编码外,还需要商品ID,模块路由需要对附加参数提供支持。
    • 模块路由支持打开Web页面,即Hybrid页面也支持上述特定编码,所以在Web页面上点击跳转Native页面使用的协议也是由模块路由支持的。

    使用模块路由的好处有:

    • 所有页面跳转统一交给路由模块管理,两个页面间不直接交互
    • 模块之间、页面之间解耦
    • 适配变化,统一管理,修改方便

    其他

    日志系统

    在开发过程中,甚至运行过程中,日志都是很重要的一部分。当然Android提供了Log相关的API,但不建议这一行那一行地零星使用,否则如果想统一控制Tag或关闭Log时非常麻烦。建议对Log API进行简单封装或者使用现有第三方Log库,将Log功能独立出来,提供统一的调用接口、级别控制、开关控制,这样既方便调试也方便管理,同时也能为整个应用代码的清晰做出一点贡献。

    线上崩溃监控

    对线上应用的Crash监控是提高应用稳定性、优化应用性能的一个重要方法。我们构建了一个小型的全局监控系统,主要由以下功能特性:

    • 对用户不可见,用户无感知
    • 全局注册即可开启监控
    • 捕捉线上崩溃,保存到本地文件
    • 线上崩溃信息按一定策略上传服务器,上传后同时删除本地文件
    • 崩溃信息主要包括Android设备信息(如手机型号、系统版本等)、App版本号、异常信息等

    服务器收到上传的线上崩溃信息后,也按一定策略通过邮件方式通知到开发者,以便开发者及时修复异常。线上崩溃监测系统虽然小而简单,但作用非常重要,利用线上崩溃反馈可以有效地提高应用的稳定性,建议在应用设计中务必给它留出一个位置。

    统计系统

    相信大部分应用都有统计分析后台,可以统计应用的日活、PV、UV或其他用户行为,也可能有一部分应用是使用的第三方统计功能,如友盟等。结合公司BI部门的统计需求,我们客户端自行设计了一套统计方案,用于Android与iOS两个客户端。之所以不用第三方统计,主要是因为我们无法根据需求自由定制且数据不在自家服务器,另一方面也有些许数据泄露的风险。

    基于客户端的统计系统主要包括三个方面的功能:

    • 数据采集
    • 数据存储
    • 数据上传

    对于数据采集,主要针对统计部门的需求,如采集设备信息、定位信息、App启动时间次数、PV、UV、甚至用户行为,如点击、切换Tab、页面流向跟踪等。

    为了避免每次采集完数据后就即时上传,因此需要数据存储,将采集的统计数据暂存到本地,一般使用SQLite。然后采用一定策略进行上传,如数据累积到50条或者应用切换到后台时进行上传。

    对于数据上传,除了上传时机的选择策略外,还要遵循一定的结构字段,该结构可以根据数据统计部门的需求来定义。数据上传的流程同样可以使用之前的数据请求框架,只不过返回值可能为一个成功提示而已。

    基于上述功能,我们自定义的统计功能模块提供了方便的调用接口,并支持灵活扩展,目前可以完美支持日常的统计需求,调用也非常简单,只需要在需要统计的地方插入一行代码即可。

    域名劫持应对策略

    最近遇到域名劫持的问题,真是头疼,另一方面也说明我们的流量引起运营商注意了。目前主流的有几下几种方案:

    • 向运营商投诉。此方法非常被动且效果不佳,完全掌控在运营商手中。
    • 使用httpDNS。此方法使用http的方式直接获取最优IP,绕过localDNS的解析,可谓彻底解决了域名劫持。
    • 先使用域名尝试,域名失败后再使用IP尝试。此方案属于容灾方案,并不能避免域名劫持。

    理论上讲第二种是最佳方案,但由于httpDNS为第三方服务,也无法保证效果,外加上付费及接入成本等因素,我们暂时采用了第三种容灾方案,主要实施逻辑如下:

    1. 应用预先内置IP。
    2. 每次启动应用时获取最新IP,并保存到应用本地。
    3. 请求数据时,先使用域名走正常的逻辑,一旦遇到疑似劫持的问题后,使用本地的IP进行直连尝试。

    上述步骤其实是有漏洞的,比如启动时获取最新IP的接口如果被劫持了,那么就无法获取最新IP,假如刚好同时服务器IP也改变了,因此预先内置的IP已经失效,此时就彻底没办法了。不过上述两个条件同时满足的概率比较小,因此可以使用该方案解决很大一部分域名劫持问题。另外从服务端获取的IP,如果有多个的话,还需要增加一些策略,即考虑到负载均衡、访问速度、稳定性、网络运营商等因素,如何确定客户端拿到的哪一个是最优IP,当然这点可以优化,但首先能保证用户看到页面数据或许更加重要。

    上述应对域名劫持的策略本身并不能独立成一个模块,我们把它集成为网络框架的扩展。

    总结

    上文提到的是我们Android应用架构中的核心部分,可能你发现并没有什么花哨的、潮流的玩意儿,没有MVP,没有RxAndroid,没有插件化,也没有热修复……但就是这样它仍然支撑起了上亿的用户量。世上没有完美的架构,只有符合自身业务的架构,上述架构还有很多缺点,我们也在有选择、有步骤地重构,而随着业务需求的扩展,架构也会不断演化,最后希望本文能给大家带来一点参考意义。

    展开全文
  • hashmap两种遍历总结!

    千次阅读 2016-07-27 20:06:21
    1.hashmap两种遍历效率1:2----entry----单个遍历两次 public class HashMapTest { public static void main(String[] args) { HashMap keySetMap = new HashMap(); HashMap entrySetMap = n

    1.hashmap两种遍历效率1:2----entry----单个遍历两次


    public class HashMapTest {   
    
        public static void main(String[] args) {   
    
            HashMap<String, String> keySetMap = new HashMap<String, String>();  
    
            HashMap<String, String> entrySetMap = new HashMap<String, String>();  
    
            for (int i = 0; i < 1000; i++) {   
    
                keySetMap.put("" + i, "keySet");   
    
            }   
    
            for (int i = 0; i < 1000; i++) {   
    
                entrySetMap.put("" + i, "entrySet");   
    
            }   
    
            long startTimeOne = System.currentTimeMillis();   
    
            Iterator<String> keySetIterator = keySetMap.keySet().iterator();  
    
            while (keySetIterator.hasNext()) {   
    
                String key = keySetIterator.next();   
    
                String value = keySetMap.get(key);   
    
                System.out.println(value);   
    
            }   
    
            System.out.println("keyset spent times:"   
    
                    + (System.currentTimeMillis() - startTimeOne));  
    
            long startTimeTwo = System.currentTimeMillis();   
    
            Iterator<Entry<String, String>> entryKeyIterator = entrySetMap  
    
                    .entrySet().iterator();   
    
            while (entryKeyIterator.hasNext()) {   
    
                Entry<String, String> e = entryKeyIterator.next();   
    
                System.out.println(e.getValue());   
    
            }   
    
            System.out.println("entrySet spent times:"   
    
                   + (System.currentTimeMillis() - startTimeTwo));   
    
        }   
    
    }   


    底层代码:

    源代码解析

    java底层数组(顺序的)和引用( 链表 )2种存储方式

    public HashMap() {
            this.loadFactor = DEFAULT_LOAD_FACTOR;//默认的负载因子 
            threshold = (int)(DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR);  //默认的初始化容量×默认的负载因子16×0.75 
            table = new Entry[DEFAULT_INITIAL_CAPACITY]; //长度为16的Entry数组 
            init(); //啥都没干 
    }
    /*
    1.HashMap 最底层依然是<strong>数组</strong>来实现的,我们想HashMap中所放置的对象实际上是存储在该数组当中的
    2.当向HashMap中put一对键值时,它会根据key的hashcode值计算出一个位置,该位置就是此对象准备往数组中存放的位置
    3.如果该位置没有对象存在,就将对象直接放进数组当中;如果该位置已经有对象存在了,则顺着此存在的对象的链开始寻找(Entry  类有一个Entry类型的next成员变量,指向了该对象的下一个对象),如果此链上有对象的话,再去使用equal方法进行比较,如果对此链上的某个对象的equals方法比较为false,则将该对象放到数组当中,该位置以前存在的那个对象链接到此对象的后面
    */
    public V put(K key, V value) {
            if (key == null)
                return putForNullKey(value);
            //通过key的hashcode来计算hash值 
            int hash = hash(key.hashCode());
            //用hash值来计算在数组中的位置 
            int i = indexFor(hash, table.length);
            //如果该位置有值的话就用equals比较,看是否存在相同的值 
            for (Entry<K,V> e = table[i]; e != null; e = e.next) {
                Object k;
                //如果找到相同的就替换掉 
                if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                    V oldValue = e.value;
                    e.value = value;
                    e.recordAccess(this);
                    return oldValue;
                }
            }
            
            modCount++;
            //否则没有相同的就加进去 
            addEntry(hash, key, value, i);
            return null;
    }
    

    2.get & post

    是什么:Http定义了与服务器交互的不同方法,最基本的方法有4种,分别是GET,POST,PUT,DELETE。URL全称是资源描述符,我们可以这样认为:一个URL地址,它用于描述一个网络上的资源,而HTTP中的GET,POST,PUT,DELETE就对应着对这个资源的4个操作。到这里,大家应该有个大概的了解了,GET一般用于获取/查询资源信息,而POST一般用于更新资源信息。

    get 
    首先是"
    GET方式提交的数据最多只能是1024字节",因为GET是通过URL提交数据,那么GET可提交的数据量就跟URL的长度有直接关系 了。而实际上,URL不存在参数上限的问题,HTTP协议规范没有对URL长度进行限制。这个限制是特定的浏览器及服务器对它的限制。IE对URL长度的限制是2083字节(2K+35)。对于其他浏览器,如Netscape、FireFox等,理论上没有长度限制,其限制取决于操作系统的支持。   注意这是限制是整个URL长度,而不仅仅是你的参数值数据长度。

    【get方式提交数据的大小,http协议并没有硬性限制;而是与浏览器及服务器、操作系统有关。第二篇文章里,就有谈到用apache测试,使用get方式,url最长可达8167b。其中跟帖留言中还有谈到代理的因素在里面,可能url太长还没到服务,就已经被代理拒绝掉了。第一篇的留言讨论很能学到东西哦~ 】

    post
    理论上讲,POST是没有大小限制的,HTTP协议规范也没有进行大小限制,说“POST数据量存在 80K/100K的大小限制”是不准确的,POST数据是没有限制的,起限制作用的是服务器的处理程序的处理能力。
      对于ASP程序,Request对象处理每个表单域时存在100K的数据长度限制。但如果使用Request.BinaryRead则没有这个 限制。

      由这个延伸出去,对于IIS 6.0,微软出于安全考虑,加大了限制。我们还需要注意:

     1).IIS 6.0默认ASP POST数据量最大为200KB,每个表单域限制是100KB。
    2).IIS 6.0默认上传文件的最大大小是4MB。
    3).IIS 6.0默认最大请求头是16KB。
    IIS 6.0之前没有这些限制。[见参考资料5]

      所以上面的80K,100K可能只是默认值而已(注:关于IIS4和IIS5的参数,我还没有确认),但肯定是可以自己设置的。由于每个版本的 IIS对这些参数的默认值都不一样,具体请参考相关的IIS配置文档。

    【post方式,传送数据最大理论上没有限制,取决于服务器设置和内存大小。】

      1.根据HTTP规范,GET用于信息获取,而且应该是安全的和幂等的

      (1).所谓安全的意味着该操作用于获取信息而非修改信息。换句话说,GET 请求一般不应产生副作用。就是说,它仅仅是获取资源信息,就像数据库查询一样,不会修改,增加数据,不会影响资源的状态。

      * 注意:这里安全的含义仅仅是指是非修改信息。

      (2).幂等的意味着对同一URL的多个请求应该返回同样的结果。这里我再解释一下幂等这个概念:

      幂等(idempotent、idempotence)是一个数学或计算机学概念,常见于抽象代数中。
      幂等有一下几种定义:
      对于单目运算,如果一个运算对于在范围内的所有的一个数多次进行该运算所得的结果和进行一次该运算所得的结果是一样的,那么我们就称该运算是幂等的。比如绝对值运算就是一个例子,在实数集中,有abs(a)
    =abs(abs(a))
      对于双目运算,则要求当参与运算的两个值是等值的情况下,如果满足运算结果与参与运算的两个值相等,则称该运算幂等,如求两个数的最大值的函数,有在在实数集中幂等,即max(x,x) 
    = x

    看完上述解释后,应该可以理解GET幂等的含义了。

      但在实际应用中,以上2条规定并没有这么严格。引用别人文章的例子:比如,新闻站点的头版不断更新。虽然第二次请求会返回不同的一批新闻,该操作仍然被认为是安全的和幂等的,因为它总是返回当前的新闻。从根本上说,如果目标是当用户打开一个链接时,他可以确信从自身的角度来看没有改变资源即可。

      2.根据HTTP规范,POST表示可能修改变服务器上的资源的请求。继续引用上面的例子:还是新闻以网站为例,读者对新闻发表自己的评论应该通过POST实现,因为在评论提交后站点的资源已经不同了,或者说资源被修改了。

      上面大概说了一下HTTP规范中GET和POST的一些原理性的问题。但在实际的做的时候,很多人却没有按照HTTP规范去做,导致这个问题的原因有很多,比如说:

      1.很多人贪方便,更新资源时用了GET,因为用POST必须要到FORM(表单),这样会麻烦一点。

      2.对资源的增,删,改,查操作,其实都可以通过GET/POST完成,不需要用到PUT和DELETE。

      3.另外一个是,早期的Web MVC框架设计者们并没有有意识地将URL当作抽象的资源来看待和设计,所以导致一个比较严重的问题是传统的Web MVC框架基本上都只支持GET和POST两种HTTP方法,而不支持PUT和DELETE方法。

       * 简单解释一下MVC:MVC本来是存在于Desktop程序中的,M是指数据模型,V是指用户界面,C则是控制器。使用MVC的目的是将M和V的实现代码分离,从而使同一个程序可以使用不同的表现形式。

      以上3点典型地描述了老一套的风格(没有严格遵守HTTP规范),随着架构的发展,现在出现REST(Representational State Transfer),一套支持HTTP规范的新风格,这里不多说了,可以参考《RESTful Web Services》。

      说完原理性的问题,我们再从表面现像上面看看GET和POST的区别

      1.GET请求的数据会附在URL之后(就是把数据放置在HTTP协议头中),以?分割URL和传输数据,参数之间以&相连,如:login.action?name=hyddd&password=idontknow&verify=%E4%BD%A0%E5%A5%BD。如果数据是英文字母/数字,原样发送,如果是空格,转换为+,如果是中文/其他字符,则直接把字符串用BASE64加密,得出如:%E4%BD%A0%E5%A5%BD,其中%XX中的XX为该符号以16进制表示的ASCII。

      POST把提交的数据则放置在是HTTP包的包体中。

      2."GET方式提交的数据最多只能是1024字节,理论上POST没有限制,可传较大量的数据,IIS4中最大为80KB,IIS5中为100KB"??!

      以上这句是我从其他文章转过来的,其实这样说是错误的,不准确的:

      (1).首先是"GET方式提交的数据最多只能是1024字节",因为GET是通过URL提交数据,那么GET可提交的数据量就跟URL的长度有直接关系了。而实际上,URL不存在参数上限的问题HTTP协议规范没有对URL长度进行限制。这个限制是特定的浏览器及服务器对它的限制。IE对URL长度的限制是2083字节(2K+35)。对于其他浏览器,如Netscape、FireFox等,理论上没有长度限制,其限制取决于操作系统的支持。


     

      4.POST的安全性要比GET的安全性高。注意:这里所说的安全性和上面GET提到的“安全”不是同个概念。上面“安全”的含义仅仅是不作数据修改,而这里安全的含义是真正的Security的含义,比如:通过GET提交数据,用户名和密码将明文出现在URL上,因为(1)登录页面有可能被浏览器缓存,(2)其他人查看浏览器的历史纪录,那么别人就可以拿到你的账号和密码了,除此之外,使用GET提交数据还可能会造成Cross-site request forgery攻击。

      总结一下,Get是向服务器发索取数据的一种请求,而Post是向服务器提交数据的一种请求,在FORM(表单)中,Method默认为"GET",实质上,GET和POST只是发送机制不同,并不是一个取一个发!

    3.大数据高并发

       对于我们开发的网站,如果网站的访问量非常大的话,那么我们就需要考虑相关的并发访问问题了。而并发问题是绝大部分的程序员头疼的问题,

       但话又说回来了,既然逃避不掉,那我们就坦然面对吧~今天就让我们一起来研究一下常见的并发和同步吧。

       为了更好的理解并发和同步,我们需要先明白两个重要的概念:同步和异步

       1、同步和异步的区别和联系

             所谓同步,可以理解为在执行完一个函数或方法之后,一直等待系统返回值或消息,这时程序是出于阻塞的,只有接收到

            返回的值或消息后才往下执行其它的命令。

            异步,执行完函数或方法后,不必阻塞性地等待返回值或消息,只需要向系统委托一个异步过程,那么当系统接收到返回

            值或消息时,系统会自动触发委托的异步过程,从而完成一个完整的流程。

             同步在一定程度上可以看做是单线程,这个线程请求一个方法后就待这个方法给他回复,否则他不往下执行(死心眼)。

            异步在一定程度上可以看做是多线程的(废话,一个线程怎么叫异步),请求一个方法后,就不管了,继续执行其他的方法。

            同步就是一件事,一件事情一件事的做。
            异步就是,做一件事情,不引响做其他事情。
            例如:吃饭和说话,只能一件事一件事的来,因为只有一张嘴。
                    但吃饭和听音乐是异步的,因为,听音乐并不引响我们吃饭。

            对于Java程序员而言,我们会经常听到同步关键字synchronized,假如这个同步的监视对象是类的话,那么如果当一个对象

            访问类里面的同步方法的话,那么其它的对象如果想要继续访问类里面的这个同步方法的话,就会进入阻塞,只有等前一个对象

            执行完该同步方法后当前对象才能够继续执行该方法。这就是同步。相反,如果方法前没有同步关键字修饰的话,那么不同的对象

            可以在同一时间访问同一个方法,这就是异步。

            在补充一下(脏数据和不可重复读的相关概念):

           脏数据

      脏读就是指当一个事务正在访问数据,并且对数据进行了修改,而这种修改还没有提交到数据库中,这时,另外一个事务也新访问这个数据,然后使用了这个数据。因为这个数据是还没有提交的数据,那么另外一个事务读到的这个数据是脏数据(Dirty Data),依据脏数据所做的操作可能是不正确的。

         不可重复读

      不可重复读是指在一个事务内,多次读同一数据。在这个事务还没有结束时,另外一个事务也访问该同一数据。那么,在第一个事务中的两次读数据之间,由于第二个事务的修改,那么第一个事务两次读到的数据可能是不一样的。这样就发生了在一个事务内两次读到的数据是不一样的,因此称为是不可重复读       

       2、如何处理并发和同步

            今天讲的如何处理并发和同同步问题主要是通过锁机制。

           我们需要明白,锁机制有两个层面

           一种是代码层次上的,如java中的同步锁,典型的就是同步关键字synchronized,这里我不在做过多的讲解,

           感兴趣的可以参考:http://www.cnblogs.com/xiohao/p/4151408.html

           另外一种是数据库层次上的,比较典型的就是悲观锁和乐观锁。这里我们重点讲解的就是悲观锁(传统的物理锁)和乐观锁。

           悲观锁(Pessimistic Locking):       

           悲观锁,正如其名,它指的是对数据被外界(包括本系统当前的其他事务,以及来自 外部系统的事务处理)修改持保守态度,因此,

           在整个数据处理过程中,将数据处于锁定状态。

           悲观锁的实现,往往依靠数据库提供的锁机制(也只有数据库层提供的锁机制才能 真正保证数据访问的排他性,否则,即使在本系统

           中实现了加锁机制,也无法保证外部系 统不会修改数据)。 

           一个典型的倚赖数据库的悲观锁调用: (要在事务之间----begin,commit)

           select * from account where name=”Erica” for update

           这条 sql 语句锁定了 account 表中所有符合检索条件( name=”Erica” )的记录。

           本次事务提交之前(事务提交时会释放事务过程中的锁),外界无法修改这些记录。 
           Hibernate 的悲观锁,也是基于数据库的锁机制实现。 
           下面的代码实现了对查询记录的加锁:

           String hqlStr ="from TUser as user where user.name='Erica'";

            Query query = session.createQuery(hqlStr);

            query.setLockMode("user",LockMode.UPGRADE); // 加锁

           List userList = query.list();// 执行查询,获取数据

           query.setLockMode 对查询语句中,特定别名所对应的记录进行加锁(我们为 TUser 类指定了一个别名 “user” ),这里也就是对

          返回的所有 user 记录进行加锁。 

          观察运行期 Hibernate 生成的 SQL 语句: 
          select tuser0_.id as id, tuser0_.name as name, tuser0_.group_id
          as group_id, tuser0_.user_type as user_type, tuser0_.sex as sex
          from t_user tuser0_ where (tuser0_.name='Erica' ) for update
         这里 Hibernate 通过使用数据库的 for update 子句实现了悲观锁机制。 
          Hibernate 的加锁模式有: 
          Ø LockMode.NONE : 无锁机制。 
          Ø LockMode.WRITE : Hibernate 在 Insert 和 Update 记录的时候会自动获取
          Ø LockMode.READ : Hibernate 在读取记录的时候会自动获取。 
          以上这三种锁机制一般由 Hibernate 内部使用,如 Hibernate 为了保证 Update
          过程中对象不会被外界修改,会在 save 方法实现中自动为目标对象加上 WRITE 锁。 
          Ø LockMode.UPGRADE :利用数据库的 for update 子句加锁。 
          Ø LockMode. UPGRADE_NOWAIT : Oracle 的特定实现,利用 Oracle 的 for
          update nowait 子句实现加锁。 
          上面这两种锁机制是我们在应用层较为常用的,加锁一般通过以下方法实现: 
          Criteria.setLockMode
          Query.setLockMode
          Session.lock
          注意,只有在查询开始之前(也就是 Hiberate 生成 SQL 之前)设定加锁,才会 
          真正通过数据库的锁机制进行加锁处理,否则,数据已经通过不包含 for update
          子句的 Select SQL 加载进来,所谓数据库加锁也就无从谈起。

          为了更好的理解select... for update的锁表的过程,本人将要以mysql为例,进行相应的讲解

          1、要测试锁定的状况,可以利用MySQL的Command Mode ,开二个视窗来做测试。

              表的基本结构如下:

              

     

               表中内容如下:

               

     

              开启两个测试窗口,在其中一个窗口执行select * from ta for update0

              然后在另外一个窗口执行update操作如下图:

              

              等到一个窗口commit后的图片如下:

              

               到这里,悲观锁机制你应该了解一些了吧~

               需要注意的是for update要放到mysql的事务中,即begin和commit中,否者不起作用。

               至于是锁住整个表还是锁住选中的行,请参考:

               http://www.cnblogs.com/xiohao/p/4385768.html

                至于hibernate中的悲观锁使用起来比较简单,这里就不写demo了~感兴趣的自己查一下就ok了~

              乐观锁(Optimistic Locking):        
             相对悲观锁而言,乐观锁机制采取了更加宽松的加锁机制。悲观锁大多数情况下依 靠数据库的锁机制实现,以保证操作最大程度的独占性。但随之而来的就是数据库性能的大量开销,特别是对长事务而言,这样的开销往往无法承受。 如一个金融系统,当某个操作员读取用户的数据,并在读出的用户数据的基础上进 行修改时(如更改用户帐户余额),如果采用悲观锁机制,也就意味着整个操作过 程中(从操作员读出数据、开始修改直至提交修改结果的全过程,甚至还包括操作 员中途去煮咖啡的时间),数据库记录始终处于加锁状态,可以想见,如果面对几 百上千个并发,这样的情况将导致怎样的后果。 观锁机制在一定程度上解决了这个问题。

             乐观锁,大多是基于数据版本   Version )记录机制实现。何谓数据版本?即为数据增加一个版本标识,在基于据库表的版本解决方案中,一般是通过为数据库表增加一个 “version” 字段来 实现。 读取出数据时,将此版本号一同读出,之后更新时,对此版本号加一。此时,将提 交数据的版本数据与数据

    库表对应记录的当前版本信息进行比对,如果提交的数据 版本号大于数据库表当前版本号,则予以更新,否则认为是过期数据。 对于上面修改用户帐户信息

    的例子而言,假设数据库中帐户信息表中有一个 version 字段,当前值为 1 ;而当前帐户余额字段( balance )为 $100 。 操作员 A 此时将其读出( version=1 ),并从其帐户余额中扣除 $50( $100-$50 )。 2 在操作员 A 操作的过程中,操作员 B 也读入此用户信息( version=1 ),并 从其帐户余额中扣除 $20 ( $100-$20 )。 3 操作员 A 完成了修改工作,将数据版本号加一( version=2 ),连同帐户扣 除后余额( balance=$50 ),提交至数据库更新,此时由于提交数据版本大 于数据库记录当前版本,数据被更新,数据库记录 version 更新为 2 。 4 操作员 B 完成了操作,也将版本号加一( version=2 )试图向数据库提交数 据( balance=$80 ),但此时比对数据库记录版本时发现,操作员 B 提交的 数据版本号为 2 ,数据库记录当前版

    本也为 2 ,不满足 “ 提交版本必须大于记 录当前版本才能执行更新 “ 的乐观锁策略,因此,操作员 B 的提交被驳回。 这样,就避免了操作员 B 用基于version=1 的旧数据修改的结果覆盖操作 员 A 的操作结果的可能。 从上面的例子可以看出,乐观锁机制避免了长事务中的数据库加锁开销(操作员 A和操作员 B 操作过程中,都没有对数据库数据加锁),大大提升了大并发量下的系 统整体性能表现。 需要注意的是,乐观锁机制往往基于系统中的数据存储逻辑,因此也具备一定的局 限性,如在上例中,由于乐观锁机制是在我们的系统中实现,来自外部系统的用户 余额更新操作不受我们系统的控制,因此可能会造成脏数据被更新到数据库中。在 系统设计阶段,我们应该充分考虑到这些情况出现的可能性,并进行相应调整(如 将乐观锁策略在数据库存储过程中实现,对外只开放基于此存储过程的数据更新途 径,而不是将数据库表直接对外公开)。 Hibernate 在其数据访问引擎中内置了乐观锁实现。如果不用考虑外部系统对数 据库的更新操作,利用 Hibernate 提供的透明化乐观锁实现,将大大提升我们的 生产力。

    Hibernate 中可以通过 class 描述符的 optimistic-lock 属性结合 version描述符指定。

    现在,我们为之前示例中的 User 加上乐观锁机制。

    1 . 首先为 User 的POJO class

           

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    package com.xiaohao.test;
     
    public class User {
       private Integer id;
       private String userName;
       private String password;
       private int version;
        
    public int getVersion() {
        return version;
    }
     
    public void setVersion(int version) {
        this.version = version;
    }
     
    public Integer getId() {
        return id;
    }
     
    public void setId(Integer id) {
        this.id = id;
    }
     
    public String getUserName() {
        return userName;
    }
     
    public void setUserName(String userName) {
        this.userName = userName;
    }
     
    public String getPassword() {
        return password;
    }
     
    public void setPassword(String password) {
        this.password = password;
    }
     
     
     
    public User() {}
     
    public User(String userName, String password) {
        super();
        this.userName = userName;
        this.password = password;
    }
     
     
        
        
    }

            然后是User.hbm.xml

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    <?xml version="1.0"?>
    <!DOCTYPE hibernate-mapping PUBLIC
            "-//Hibernate/Hibernate Mapping DTD 3.0//EN"
            "http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd">
     
    <hibernate-mapping package="com.xiaohao.test">
     
        <class name="User"  table="user" optimistic-lock="version" >
                  <id name="id">
                <generator class="native" />
            </id>
            <!--version标签必须跟在id标签后面-->
            <version column="version" name="version"  />
            <property name="userName"/>
            <property name="password"/>
                     
        </class>
         
     
    </hibernate-mapping>

    注意 version 节点必须出现在 ID 节点之后。 
    这里我们声明了一个 version 属性,用于存放用户的版本信息,保存在 User 表的version中 

    optimistic-lock 属性有如下可选取值: 
    Ø none
    无乐观锁 
    Ø version
    通过版本机制实现乐观锁 
    Ø dirty
    通过检查发生变动过的属性实现乐观锁 
    Ø all
    通过检查所有属性实现乐观锁 
    其中通过 version 实现的乐观锁机制是 Hibernate 官方推荐的乐观锁实现,同时也 
    是 Hibernate 中,目前唯一在数据对象脱离 Session 发生修改的情况下依然有效的锁机 
    制。因此,一般情况下,我们都选择 version 方式作为 Hibernate 乐观锁实现机制。

    2 . 配置文件hibernate.cfg.xml和UserTest测试类

       hibernate.cfg.xml

      

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    <!DOCTYPE hibernate-configuration PUBLIC
            "-//Hibernate/Hibernate Configuration DTD 3.0//EN"
            "http://hibernate.sourceforge.net/hibernate-configuration-3.0.dtd">
     
    <hibernate-configuration>
    <session-factory>
     
        <!-- 指定数据库方言 如果使用jbpm的话,数据库方言只能是InnoDB-->
        <property name="dialect">org.hibernate.dialect.MySQL5InnoDBDialect</property>
        <!-- 根据需要自动创建数据表 -->
        <property name="hbm2ddl.auto">update</property>
        <!-- 显示Hibernate持久化操作所生成的SQL -->
        <property name="show_sql">true</property>
        <!-- 将SQL脚本进行格式化后再输出 -->
        <property name="format_sql">false</property>
        <property name="current_session_context_class">thread</property>
     
     
        <!-- 导入映射配置 -->
        <property name="connection.url">jdbc:mysql:///user</property>
        <property name="connection.username">root</property>
        <property name="connection.password">123456</property>
        <property name="connection.driver_class">com.mysql.jdbc.Driver</property>
        <mapping resource="com/xiaohao/test/User.hbm.xml" />
     
     
     
    </session-factory>
    </hibernate-configuration>

      UserTest.java

        

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    package com.xiaohao.test;
     
    import org.hibernate.Session;
    import org.hibernate.SessionFactory;
    import org.hibernate.Transaction;
    import org.hibernate.cfg.Configuration;
     
    public class UserTest {
        public static void main(String[] args) {
            Configuration conf=new Configuration().configure();
            SessionFactory sf=conf.buildSessionFactory();
            Session session=sf.getCurrentSession();
            Transaction tx=session.beginTransaction();
    //      User user=new User("小浩","英雄");
    //      session.save(user);
    //       session.createSQLQuery("insert into user(userName,password) value('张英雄16','123')")
    //                  .executeUpdate();
            User user=(User) session.get(User.class1);
            user.setUserName("221");
    //      session.save(user);
         
            System.out.println("恭喜您,用户的数据插入成功了哦~~");
            tx.commit();
        }
     
    }

      每次对 TUser 进行更新的时候,我们可以发现,数据库中的 version 都在递增。

    下面我们将要通过乐观锁来实现一下并发和同步的测试用例:

    这里需要使用两个测试类,分别运行在不同的虚拟机上面,以此来模拟多个用户同时操作一张表,同时其中一个测试类需要模拟长事务

    UserTest.java

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    package com.xiaohao.test;
     
    import org.hibernate.Session;
    import org.hibernate.SessionFactory;
    import org.hibernate.Transaction;
    import org.hibernate.cfg.Configuration;
     
    public class UserTest {
        public static void main(String[] args) {
            Configuration conf=new Configuration().configure();
            SessionFactory sf=conf.buildSessionFactory();
            Session session=sf.openSession();
    //      Session session2=sf.openSession();
            User user=(User) session.createQuery(" from User user where user=5").uniqueResult();
    //      User user2=(User) session.createQuery(" from User user where user=5").uniqueResult();
            System.out.println(user.getVersion());
    //      System.out.println(user2.getVersion());
            Transaction tx=session.beginTransaction();
            user.setUserName("101");
            tx.commit();
             
            System.out.println(user.getVersion());
    //      System.out.println(user2.getVersion());
    //      System.out.println(user.getVersion()==user2.getVersion());
    //      Transaction tx2=session2.beginTransaction();
    //      user2.setUserName("4468");
    //      tx2.commit();
         
        }
     
    }

      UserTest2.java

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    package com.xiaohao.test;
     
    import org.hibernate.Session;
    import org.hibernate.SessionFactory;
    import org.hibernate.Transaction;
    import org.hibernate.cfg.Configuration;
     
    public class UserTest2 {
        public static void main(String[] args) throws InterruptedException {
            Configuration conf=new Configuration().configure();
            SessionFactory sf=conf.buildSessionFactory();
            Session session=sf.openSession();
    //      Session session2=sf.openSession();
            User user=(User) session.createQuery(" from User user where user=5").uniqueResult();
            Thread.sleep(10000);
    //      User user2=(User) session.createQuery(" from User user where user=5").uniqueResult();
            System.out.println(user.getVersion());
    //      System.out.println(user2.getVersion());
            Transaction tx=session.beginTransaction();
            user.setUserName("100");
            tx.commit();
             
            System.out.println(user.getVersion());
    //      System.out.println(user2.getVersion());
    //      System.out.println(user.getVersion()==user2.getVersion());
    //      Transaction tx2=session2.beginTransaction();
    //      user2.setUserName("4468");
    //      tx2.commit();
         
        }
     
    }

    操作流程及简单讲解: 首先启动UserTest2.java测试类,在执行到Thread.sleep(10000);这条语句的时候,当前线程会进入睡眠状态。在10秒钟之内

              启动UserTest这个类,在到达10秒的时候,我们将会在UserTest.java中抛出下面的异常:

     

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    Exception in thread "main" org.hibernate.StaleObjectStateException: Row was updated or deleted by another transaction (or unsaved-value mapping was incorrect): [com.xiaohao.test.User#5]
        at org.hibernate.persister.entity.AbstractEntityPersister.check(AbstractEntityPersister.java:1932)
        at org.hibernate.persister.entity.AbstractEntityPersister.update(AbstractEntityPersister.java:2576)
        at org.hibernate.persister.entity.AbstractEntityPersister.updateOrInsert(AbstractEntityPersister.java:2476)
        at org.hibernate.persister.entity.AbstractEntityPersister.update(AbstractEntityPersister.java:2803)
        at org.hibernate.action.EntityUpdateAction.execute(EntityUpdateAction.java:113)
        at org.hibernate.engine.ActionQueue.execute(ActionQueue.java:273)
        at org.hibernate.engine.ActionQueue.executeActions(ActionQueue.java:265)
        at org.hibernate.engine.ActionQueue.executeActions(ActionQueue.java:185)
        at org.hibernate.event.def.AbstractFlushingEventListener.performExecutions(AbstractFlushingEventListener.java:321)
        at org.hibernate.event.def.DefaultFlushEventListener.onFlush(DefaultFlushEventListener.java:51)
        at org.hibernate.impl.SessionImpl.flush(SessionImpl.java:1216)
        at org.hibernate.impl.SessionImpl.managedFlush(SessionImpl.java:383)
        at org.hibernate.transaction.JDBCTransaction.commit(JDBCTransaction.java:133)
        at com.xiaohao.test.UserTest2.main(UserTest2.java:21)

     

     UserTest2代码将在 tx.commit() 处抛出 StaleObjectStateException 异 常,并指出版本检查失败,当前事务正在试图提交一个过期数据。通过捕捉这个异常,我 们就可以在乐观锁校验失败时进行相应处理

      3、常见并发同步案例分析

        案例一:订票系统案例,某航班只有一张机票,假定有1w个人打开你的网站来订票,问你如何解决并发问题(可扩展到任何高并发网站要考虑

                   的并发读写问题)

        问题,1w个人来访问,票没出去前要保证大家都能看到有票,不可能一个人在看到票的时候别人就不能看了。到底谁能抢到,那得看这个人的“运气”(网络快慢等)其次考虑的问题,并发,1w个人同时点击购买,到底谁能成交?总共只有一张票。

    首先我们容易想到和并发相关的几个方案 :

    锁同步同步更多指的是应用程序的层面,多个线程进来,只能一个一个的访问,java中指的是syncrinized关键字。锁也有2个层面,一个是java中谈到的对象锁,用于线程同步;另外一个层面是数据库的锁;如果是分布式的系统,显然只能利用数据库端的锁来实现。假定我们采用了同步机制或者数据库物理锁机制,如何保证1w个人还能同时看到有票,显然会牺牲性能,在高并发网站中是不可取的。使用hibernate后我们提出了另外一个概念:乐观锁悲观锁(即传统的物理锁);采用乐观锁即可解决此问题。乐观锁意思是不锁定表的情况下,利用业务的控制来解决并发问题,这样即保证数据的并发可读性又保证保存数据的排他性,保证性能的同时解决了并发带来的脏数据问题。

    hibernate中如何实现乐观锁:

    前提:在现有表当中增加一个冗余字段,version版本号, long类型

    原理:

    1)只有当前版本号》=数据库表版本号,才能提交

    2)提交成功后,版本号version ++

    实现很简单:在ormapping增加一属性optimistic-lock="version"即可,以下是样例片段

    <hibernate-mapping>

    <class name="com.insigma.stock.ABC" optimistic-lock="version" table="T_Stock" schema="STOCK">

    案例二、股票交易系统、银行系统,大数据量你是如何考虑的

    首先,股票交易系统的行情表,每几秒钟就有一个行情记录产生,一天下来就有(假定行情3秒一个) 股票数量×20×60*6 条记录,一月下来这个表记录数

    量多大? oracle中一张表的记录数超过100w后 查询性能就很差了,如何保证系统性能?

    再比如,中国移动有上亿的用户量,表如何设计?把所有用于存在于一个表么?

    所以,大数量的系统,必须考虑表拆分-(表名字不一样,但是结构完全一样),通用的几种方式:(视情况而定)

    1)按业务分,比如 手机号的表,我们可以考虑 130开头的作为一个表,131开头的另外一张表 以此类推

    2)利用oracle的表拆分机制做分表

    3)如果是交易系统,我们可以考虑按时间轴拆分,当日数据一个表,历史数据弄到其它表。这里历史数据的报表和查询不会影响当日交易。

    当然,表拆分后我们的应用得做相应的适配。单纯的or-mapping也许就得改动了。比如部分业务得通过存储过程等

    此外,我们还得考虑缓存

    这里的缓存,指的不仅仅是hibernate,hibernate本身提供了一级二级缓存。这里的缓存独立于应用,依然是内存的读取,假如我们能减少数据库频繁的访问,那对系统肯定大大有利的。比如一个电子商务系统的商品搜索,如果某个关键字的商品经常被搜,那就可以考虑这部分商品列表存放到缓存(内存中去),这样不用每次访问数据库,性能大大增加。简单的缓存大家可以理解为自己做一个hashmap,把常访问的数据做一个key,value是第一次从数据库搜索出来的值,下次访问就可以从map里读取,而不读数据库;专业些的目前有独立的缓存框架比如memcached 等,可独立部署成一个缓存服务器。

    4、常见的提高高并发下访问的效率的手段

          首先要了解高并发的的瓶颈在哪里?

         1、可能是服务器网络带宽不够

         2.可能web线程连接数不够

         3.可能数据库连接查询上不去。

         根据不同的情况,解决思路也不同。

    1. 像第一种情况可以增加网络带宽,DNS域名解析分发多台服务器。

    2. 负载均衡,前置代理服务器nginx、apache等等

    3. 数据库查询优化,读写分离,分表等等

       最后复制一些在高并发下面需要常常需要处理的内容:

    • 尽量使用缓存,包括用户缓存,信息缓存等,多花点内存来做缓存,可以大量减少与数据库的交互,提高性能。

    • 用jprofiler等工具找出性能瓶颈,减少额外的开销。

    • 优化数据库查询语句,减少直接使用hibernate等工具的直接生成语句(仅耗时较长的查询做优化)。

    • 优化数据库结构,多做索引,提高查询效率。

    • 统计的功能尽量做缓存,或按每天一统计或定时统计相关报表,避免需要时进行统计的功能。

    • 能使用静态页面的地方尽量使用,减少容器的解析(尽量将动态内容生成静态html来显示)。

    • 解决以上问题后,使用服务器集群来解决单台的瓶颈问题。



    展开全文
  • [摘要]:本文提出了一种完全通过点对点技术实现的电子现金系统,它使得在线支付能够直接由一方发起并支付给另外一方,中间不需要通过任何的金融机构。虽然数字签名(Digital signatures)部分解决了这个问题,但是...
  • 两种背包问题(递归,python)

    千次阅读 2020-08-13 20:55:35
    书包容量为 C, 每个物品对应重量wi和 vi ,求可拥有的最大价值,每个商品只有个。 递归解决: def backage(C,weight_list,value_list,now_value): # 剩下容量,目前商品,目前的价格,目前拥有的价值 if C<=0...
  • 两种常见电商sku的设计

    万次阅读 2016-06-29 16:43:39
    在电商系统商品sku和sku模型至关重要,是整个电商系统的重要组成部分之,下面通过一些简单的知识整理和分析,讲解一下sku属性管理和常见的建模方式。 、sku的定义及概念的统一 1、什么是sku? sku = Stock ...
  • 比特币白皮书:一种点对点的电子现金系统 原文作者:中本聪(ナカモト サトシ/Satoshi Nakamoto) 执行翻译:http://8btc.com 巴比特 QQagent 白皮书原文:http://www.bitcoin.org/bitcoin.pdf 本翻译转载自:...
  • 23设计模式介绍以及在Java的实现

    万次阅读 多人点赞 2016-04-24 01:06:53
    文本详细总结了23设计模式以及他们如何应用到java,并提供了大量的示例代码。 文章的示例源码在github上:https://github.com/anxpp/JavaDesignPattern。 如果本文对您有所帮助,请帮忙点个赞扩散一下,谢谢!
  • SQL Server数据库操作,在2005以上的版本新增加了个APPLY表运算符的功能。新增的APPLY表运算符把右表表达式应用到左表表达式的每...APPLY有两种形式,个是OUTER APPLY,个是CROSS APPLY,区别在于指定OUTER,
  • BlockChain:【中本聪】历史之作《Bitcoin: A Peer-to-Peer Electronic Cash System》 《比特币:一种点对点的电子现金系统》—九页英文对照翻译 导读 1、了解区块链底层原理技术,还是要看原汁原味的白皮书,对...
  • 一种处理亿级聚合数据的方法

    千次阅读 2021-03-03 14:58:11
    背景在电商平台的架构体系商品数据是系统正常运转的基石,随着平台的发展,商品数据很容易突破亿级。在电商运营方面,平台通常需要举行各种大促,使用各种营销工具吸引消费者,因此需要对商品进行招...
  • 一种优化组合相似度的协同过滤推荐算法[J]. 计算机工程与科学, 2017, 39(1):180-187.(1)建立用户一项目评分时间矩阵,根据用户对共同评分项目的评分时间先后顺序,计算用户之问的影响力; 构建用户一项目评分...
  • 最后会给个用 Redis 实现分布式锁,用在秒杀系统的案例。 更多 Redis 的实际运用场景请关注开源项目 coderiver 项目地址:https://github.com/cachecats/coderiver 、NoSQL 概述 什么是 NoSQL ?...
  • 实现轮播图时间间隔改变的两种方式 在 data-ride 后面加上个属性 data-interval=“millisecond” ,其中,millisecond为需要设置的毫秒数,如下: < div id = " carousel-example-generic " class = " ...
  • 猜你喜欢推荐结果展示图以及商品详情页截图(目前猜你喜欢同时存在行以及行标题情况)。商品原始标题往往过长(平均长度30字左右),在结果页无法完整显示,只能点击进入商品详情页才能看到商品完整标题。 ...
  • 我们玩一个游戏,每次你可以选择其中一枚硬币掷出,如果掷出正面,你将得到一百块奖励。掷硬币的次数有限(比如10000次),显然,如果要拿到最多的利益,你要做的就是尽快找出“正面概率最大”的硬币,然后就拿它...
  • 浅谈一种Android客户端架构设计

    万次阅读 2017-03-13 15:53:25
    技术发展日新月异,业界各种Android客户端架构设计,五花八门,但我们不能简单地说哪架构更好,因为脱离业务谈架构是没有任何意义的,适合业务的才是好架构。而架构也不是一成不变的,随着业务的发展,也许当初...
  • 阿里妹导读:在阿里做博士后是一种怎样的体验?今天,位阿里博士后和我们聊了聊他们的故事。 上个月,阿里巴巴发布2018年博士后招聘启事,针对机器智能、机器学习、数据挖掘、机器人、高性能计算、通信技术、人...
  • 最近在做个类似京东的购物网站,做到购物车模块,购物车的逻辑为:按照商家id分块,将每个属于同个商家的商品放在同个商家模块下,可以选中不同商家的不同商品进行订单提交(购物车信息存在redis),将...
  • 应用场景 这个一般应用在可以接受误差场景的数据统计,比如说UV统计等场景 8.geospatial(地理位置) geospatial是Redis在3.2版本新增的一种具有半径查询的地理空间索引数据类型。一般用来存储并计算两地之间的距离...
  • 中本聪的比特币论文:《比特币:一种点对点的电子现金系统》[摘要]:本文提出了一种完全通过点对点技术实现的电子现金系统,它使得在线支付能够直接由一方发起并支付给另外一方,中间不需要通过任何的金融机构。...
  • 以前在小公司写的项目一般不涉及国际化,所以都没去了解和思考该如何去做,最近的项目用到了大牛写的某微服务框架,阅读源码的过程发现其在框架层面就做了一些国际化处理,本文仅简单的记录一下该框架内国际化...
  • 分布式锁简单入门以及三实现方式介绍

    万次阅读 多人点赞 2018-01-11 21:16:28
    很多小伙伴在学习Java的时候,总是感觉Java多线程在实际的业务很少使用,以...学过Java多线程的应该都知道什么是锁,没学过的也不用担心,Java的锁可以简单的理解为多线程情况下访问临界资源的一种线程同步机制。
  • JAVA实现商品信息管理系统

    万次阅读 多人点赞 2019-10-14 20:43:56
    种商品都包含商品名称、价格、库存量和生产厂家、品牌等信息。 主要完成对商品的销售、统计和简单管理。 这个题目相对简单,可以用一张表实现信息的保存和处理,因此不再给出数据库设计参考。 功能要求 (1)...
  • 延迟消息的五实现方案

    万次阅读 多人点赞 2021-01-12 12:09:06
    针对延迟消息,本文分享五不同的实现方案,并逐一讨论各种方案的大致实现和优缺点。
  • 电影评论总是倾向于认为电影是现实世界的记录,一切隐藏于电影的思想和价值都只是现实世界的反映,评论的真正目的就是在真实的世界找到这些思想和价值的归宿,解读隐喻,以便在某个特定的历史话语彻底理解电影...
  • 给定个价格序列prices,其中prices[i]代表第i天商品的价格,商家需要在某天买入,然后在之后的某天出售,计算可以获得的最大利润 本质就是计算prices[i]−prices[j]prices[i] - prices[j]的最大值,要求i>
  • 电商ERP系统——商品SKU与库存设计

    万次阅读 2016-05-10 12:32:54
    商品关联商品类别,商品类别关联多个商品属性,其中指定某几个商品属性为SKU关键字段。例如,服装类别的颜色、尺码属性。2.多个SKU商品属性值组合生成唯一的商品SKUID。例如,红色、L=1001,黑色、L=1002。3.有了...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 110,868
精华内容 44,347
关键字:

两种商品中如果其中的一种