精华内容
下载资源
问答
  • cisco初始化的翻译

    2013-10-08 22:24:59
    思科初始化的翻译,基本配置的最初始化的英文进行翻译
  • 在线英文翻译中文比较

    千次阅读 2019-01-16 10:32:04
    在看英文资料时,对理解比较模糊的句子,希望看看别人是怎么理解的。最简单的方式就是用工具在线翻译一下。为了挑选一个合适的在线翻译,我进行了简单的比较。   英文原文,是一段技术文档: Objects are ...

    在看英文资料时,对理解比较模糊的句子,希望看看别人是怎么理解的。最简单的方式就是用工具在线翻译一下。为了挑选一个合适的在线翻译,我进行了简单的比较。

     

    英文原文,是一段技术文档:

    Objects are structures allocated on the heap. Special rules apply to the use of objects to ensure they are properly garbage-collected.

    Objects are never allocated statically or on the stack; they must be accessed through special macros and functions only.

    (Type objects are exceptions to the first rule; the standard types are represented by statically initialized type objects,

    although work on type/class unification for Python 2.2 made it possible to have heap-allocated type objects too).

     

    几款免费在线翻译结果如下:

    注:前面是个人主观评分,后面是产品名和网址。黄色字表示翻译出彩的(翻译出彩的),红色划线字表示翻译严重错误的(翻译有语病的)。

     

    --- 88分 google

    对象是在堆上分配的结构。 特殊规则适用于使用对象确保它们被正确地垃圾收集。

    永远不会静态地或在堆栈上分配对象; 他们一定是仅通过特殊宏和函数访问。

    (类型对象是第一条规则的例外情况; 标准类型由表示静态初始化的类型对象,虽然在类型/类统一上工作对于Python 2.2,也可以使用堆分配的类型对象。

     

    --- 88分 bing https://cn.bing.com/translator/

    对象是在堆上分配的结构。 特殊规则适用于使用对象确保它们被正确地垃圾收集。

    对象从不静态或在堆栈上分配;他们必须仅通过特殊的宏和函数访问。

    (类型对象是第一条规则的例外情况;标准类型由静态初始化的类型对象, 虽然在类型/类统一上工作对于 Python 2.2, 也可以拥有堆分配的类型对象。

     

    --- 90分 sogou fanyi.sogou.com

    对象是在堆上分配的结构。特殊规则适用于使用对象确保它们被正确地垃圾收集。

    对象从不静态分配或在堆栈上分配;他们一定是仅通过特殊宏和函数访问。

    (类型对象是第一条规则的例外情况;标准类型由表示静态初始化的类型对象,尽管工作在类型/类统一上对于Python 2.2,也可以有堆分配的类型对象)

     

    --- 80分 baidu

    对象是堆上分配的结构。特殊规则适用于对象的使用确保它们被正确地垃圾收集。

    对象永远不会静态分配或堆栈;它们必须是仅通过特殊宏和函数访问。

    (类型对象是第一个规则的例外;标准类型由静态初始化类型对象,虽然在类型/类统一方面工作对于Python 2.2,也可以使用堆分配的类型对象。

     

    --- 70分 youdao http://fanyi.youdao.com/

    对象是在堆上分配的结构。特别规则适用于使用对象以确保正确地收集垃圾

    对象从不静态或堆栈上分配;他们必须仅通过特殊宏和函数访问。

    (类型对象第一项规则的例外情况;标准类型表示为静态初始化类型对象不过要处理类型/类的统一对于Python 2.2,也可以拥有堆分配的类型对象)

     

    结论:

    对这个测试例句,sogou翻译是最好的,基本没有错误,标点符号也处理的很好,而且还语句比较通顺。

    其次是google和bing,翻译不错,标点符号处理有欠缺(最后一句的右括号缺失);

    baidu 和 youdao 有语句明显有语病,容易导致误解,还需要继续改进。

    有比较专业的测评,也是sogou在线翻译评分最高,看来sogou的确有实力。

    展开全文
  • Eclipse 英文翻译一点点

    千次阅读 2016-12-24 16:14:49
    Please take moment to perform ...百度翻译: 请采取时刻来执行初始配置 perform: perform [per·form || pər’fɔrm /pə’fɔːm] v. 履行; 完成; 执行; 做; 演出, 演奏, 表演; 行动, 表现; 运转 initial:

    Please take moment to perform the initial configuration
    这里写图片描述

    自译: 请花点时间完成 初使设置
    百度翻译: 请采取时刻来执行初始配置
    perform:
    perform [per·form || pər’fɔrm /pə’fɔːm]
    v. 履行; 完成; 执行; 做; 演出, 演奏, 表演; 行动, 表现; 运转
    initial:
    initial [in·i·tial || ɪ’nɪʃl]
    n. 起首字母; 首字母
    v. 签姓名的首字母
    adj. 开始的, 字首的, 最初的
    configuration:
    configuration [con·fig·u·ra·tion || kən‚fɪgjʊ’reɪʃn]
    n. 结构; 形态; 表面配置; 行星的方位

    展开全文
  • 基于keras的seq2seq中英文翻译实现

    千次阅读 多人点赞 2018-07-13 09:58:30
    1. seq2seq概述 ...2. 中英文翻译实战 2.1 数据处理 2.2 encoder-decoder模型搭建 2.2.1 用于训练的模型 2.2.2 用于推理的模型 2.3 模型评价 3 致谢 本文详细代码见 ...

    本文详细代码见https://github.com/pjgao/seq2seq_keras/blob/master/seq2seq_keras.ipynb

    1. seq2seq概述

    1.1 seq2seq简介

    seq2seq,全称Sequence to sequence,是RNN结构的一个变形,来自于Cho 在 2014 年提出的 Encoder–Decoder 结构,https://arxiv.org/pdf/1406.1078.pdf
    传统的RNN输入和输出长度要一致,而seq2seq在RNN的基础上进行改进,实现了变长序列的输入和输出,广泛的应用在了机器翻译、对话系统、文本摘要等领域。
    【seq2seq同时可作为一种特征提取器来提取特征,可参考论文A method for estimating process maliciousness with Seq2Seq model

    seq2seq与Encoder-Decoder:
    Encoder-decoder是模拟人类认知的一个过程, encoder记忆和理解信息,并提炼信息通常会形成一个低维向量,decoder回忆与运用这些信息,再将加工后的信息输出来。
    Encoder和Decoder部分可以是任意的文字,语音,图像,视频数据,模型可以采用CNN,RNN,Bi-RNN、LSTM、GRU等等。当encoder和decoder处理的都是序列时称为seq2seq。

    1.2 seq2seq结构

    seq2seq由encoder和decoder组成。
    encoder负责将输入序列压缩成指定长度的向量,这个向量就可以看成是这个序列的语义,这个过程称为编码,如下图,获取语义向量最简单的方式就是直接将最后一个输入的隐状态作为语义向量C。也可以对最后一个隐含状态做一个变换得到语义向量,还可以将输入序列的所有隐含状态做一个变换得到语义变量。
    decoder则负责根据语义向量生成指定的序列,这个过程也称为解码。如下图,这是一种简单的seq2seq,最简单的方式是将encoder得到的语义变量作为初始状态输入到decoder的RNN中,得到输出序列。可以看到上一时刻的输出会作为当前时刻的输入,而且其中语义向量C只作为初始状态参与运算,后面的运算都与语义向量C无关。
    这里写图片描述

    2. 中英文翻译实战

    本文使用中英文翻译数据集,来实现字符级的seq2seq模型的训练。
    该文件来自于http://www.manythings.org/anki/,包含了20133条中英文翻译。
    这里写图片描述

    2.1 数据处理

    首先要将数据处理成Keras中模型接受的三维向量。这里需要处理3个向量,分别是encoder的输入encoder_input,decoder的输入和输出decoder_inputdecoder_output

     #读取cmn-eng.txt文件
    data_path = 'data/cmn.txt'
    df = pd.read_table(data_path,header=None).iloc[:NUM_SAMPLES,:,]
    df.columns=['inputs','targets']
    #讲每句中文句首加上'\t'作为起始标志,句末加上'\n'作为终止标志
    df['targets'] = df['targets'].apply(lambda x: '\t'+x+'\n')
    
    input_texts = df.inputs.values.tolist()#英文句子列表
    target_texts = df.targets.values.tolist()#中文句子列表
    
    #确定中英文各自包含的字符。df.unique()直接取sum可将unique数组中的各个句子拼接成一个长句子
    input_characters = sorted(list(set(df.inputs.unique().sum())))
    target_characters = sorted(list(set(df.targets.unique().sum())))

    每条句子经过对字母转换成one-hot编码后,生成了LSTM需要的三维输入[n_samples, timestamp, one-hot feature]

    #encoder输入、decoder输入输出初始化为三维向量
    encoder_input = np.zeros((NUM_SAMPLES,INUPT_LENGTH,INPUT_FEATURE_LENGTH))
    decoder_input = np.zeros((NUM_SAMPLES,OUTPUT_LENGTH,OUTPUT_FEATURE_LENGTH))
    decoder_output = np.zeros((NUM_SAMPLES,OUTPUT_LENGTH,OUTPUT_FEATURE_LENGTH))

    其中:

    • NUM_SAMPLES,样本条数,这里是输入的句子条数
    • INPUT_LENGTH,输入数据的时刻t的长度,这里为最长的英文句子长度
    • OUTPUT_LENGTH,输出数据的时刻t的长度,这里为最长的中文句子长度
    • INPUT_FEATURE_LENGTH,每个时刻进入encoder的lstm单元的数据 xt x t 的维度,这里为英文中出现的字符数
    • OUTPUT_FEATURE_LENGTH,每个时刻进入decoder的lstm单元的数据 xt x t 的维度,这里为中文中出现的字符数

    对句子进行字符级one-hot编码,将输入输出数据向量化:

    
    #encoder的输入向量one-hot
    for seq_index,seq in enumerate(input_texts):
        for char_index, char in enumerate(seq):
            encoder_input[seq_index,char_index,input_dict[char]] = 1
    #decoder的输入输出向量one-hot,训练模型时decoder的输入要比输出晚一个时间步,这样才能对输出监督
    for seq_index,seq in enumerate(target_texts):
        for char_index,char in enumerate(seq):
            decoder_input[seq_index,char_index,target_dict[char]] = 1.0
            if char_index > 0:
                decoder_output[seq_index,char_index-1,target_dict[char]] = 1.0

    这里,查看获得的三个向量如下:

    In[0]:  ''.join([input_dict_reverse[np.argmax(i)] for i in encoder_input[0] if max(i) !=0])
    Out[0]: 'Hi.'
    
    In[1]:  ''.join([input_dict_reverse[np.argmax(i)] for i in decoder_output[0] if max(i) !=0])
    Out[1]: '嗨。\n'
    
    In[2]:  ''.join([input_dict_reverse[np.argmax(i)] for i in decoder_input[0] if max(i) !=0])
    Out[2]: '\t嗨。\n'

    其中input_dicttarget_dict为中英文字符与其索引的对应词典;input_dict_reversetarget_dict_reverse与之相反,索引为键字符为值:

    input_dict = {char:index for index,char in enumerate(input_characters)}
    input_dict_reverse = {index:char for index,char in enumerate(input_characters)}
    target_dict = {char:index for index,char in enumerate(target_characters)}
    target_dict_reverse = {index:char for index,char in enumerate(target_characters)}

    2.2 encoder-decoder模型搭建

    我们预测过程分为训练阶段和推理阶段,模型也分为训练模型和推断模型,这两个模型encoder之间deocder之间权重共享。
    为什么要这么划分的?我们仔细考虑训练过程,会发现训练阶段和预测阶段的差异。
    在训练阶段,encoder的输入为time series数据,输出为最终的隐状态,decoder的输出应该是target序列。为了有监督的训练,decoder输入应该是比输入晚一个时间步,这样在预测时才能准确的将下一个时刻的数据预测出来。
    在训练阶段,每一时刻decoder的输入包含了上一时刻单元的状态 ht1 h t − 1 ct1 c t − 1 ,输出则包含了本时刻的状态 h h c以及经过全连接层之后的输出数据。
    训练时的流程:
    这里写图片描述
    预测时的流程:
    这里写图片描述

    2.2.1 用于训练的模型

    
        #encoder
        encoder_input = Input(shape = (None, n_input))
        #encoder输入维度n_input为每个时间步的输入xt的维度,这里是用来one-hot的英文字符数
        encoder = LSTM(n_units, return_state=True)
        #n_units为LSTM单元中每个门的神经元的个数,return_state设为True时才会返回最后时刻的状态h,c(详见参考文献5,6)
        _,encoder_h,encoder_c = encoder(encoder_input)
        encoder_state = [encoder_h,encoder_c]
        #保留下来encoder的末状态作为decoder的初始状态
    
        #decoder
        decoder_input = Input(shape = (None, n_output))
        #decoder的输入维度为中文字符数
        decoder = LSTM(n_units,return_sequences=True, return_state=True)
        #训练模型时需要decoder的输出序列来与结果对比优化,故return_sequences也要设为True
        decoder_output, _, _ = decoder(decoder_input,initial_state=encoder_state)
        #在训练阶段只需要用到decoder的输出序列,不需要用最终状态h.c
        decoder_dense = Dense(n_output,activation='softmax')
        decoder_output = decoder_dense(decoder_output)
        #输出序列经过全连接层得到结果
    
        #生成的训练模型
        model = Model([encoder_input,decoder_input],decoder_output)
        #第一个参数为训练模型的输入,包含了encoder和decoder的输入,第二个参数为模型的输出,包含了decoder的输出    
    

    训练模型:
    其中英文字符(含数字和符号)共有73个,中文中字符(含数字和符号)共有2623个。
    训练模型

    2.2.2 用于推理的模型

     #推断模型-encoder,预测时对序列predict,生成的state给decoder
     encoder_infer = Model(encoder_input,encoder_state)

    encoder推断模型
    这里写图片描述

    
    #推断模型-decoder
    decoder_state_input_h = Input(shape=(n_units,))
    decoder_state_input_c = Input(shape=(n_units,))    
    decoder_state_input = [decoder_state_input_h, decoder_state_input_c] #上个时刻的状态h,c   
    
    decoder_infer_output, decoder_infer_state_h, decoder_infer_state_c = decoder(decoder_input,initial_state=decoder_state_input)
    decoder_infer_state = [decoder_infer_state_h, decoder_infer_state_c]#当前时刻得到的状态
    decoder_infer_output = decoder_dense(decoder_infer_output)#当前时刻的输出
    decoder_infer = Model([decoder_input]+decoder_state_input,[decoder_infer_output]+decoder_infer_state)
    

    decoder推断模型
    这里写图片描述

    把模型创建整理成一个函数:

    def create_model(n_input,n_output,n_units):
        #训练阶段
        encoder_input = Input(shape = (None, n_input))
        encoder = LSTM(n_units, return_state=True)
        _,encoder_h,encoder_c = encoder(encoder_input)
        encoder_state = [encoder_h,encoder_c]
    
        #decoder
        decoder_input = Input(shape = (None, n_output))
        decoder = LSTM(n_units,return_sequences=True, return_state=True)
        decoder_output, _, _ = decoder(decoder_input,initial_state=encoder_state)
        decoder_dense = Dense(n_output,activation='softmax')
        decoder_output = decoder_dense(decoder_output)
    
        #生成的训练模型
        model = Model([encoder_input,decoder_input],decoder_output)
    
        #推理阶段,用于预测过程
        encoder_infer = Model(encoder_input,encoder_state)
    
        decoder_state_input_h = Input(shape=(n_units,))
        decoder_state_input_c = Input(shape=(n_units,))    
        decoder_state_input = [decoder_state_input_h, decoder_state_input_c]#上个时刻的状态h,c   
    
        decoder_infer_output, decoder_infer_state_h, decoder_infer_state_c = decoder(decoder_input,initial_state=decoder_state_input)
        decoder_infer_state = [decoder_infer_state_h, decoder_infer_state_c]#当前时刻得到的状态
        decoder_infer_output = decoder_dense(decoder_infer_output)#当前时刻的输出
        decoder_infer = Model([decoder_input]+decoder_state_input,[decoder_infer_output]+decoder_infer_state)
    
        return model, encoder_infer, decoder_infer

    2.3 模型评价

    def predict_chinese(source,encoder_inference, decoder_inference, n_steps, features):
        #先通过推理encoder获得预测输入序列的隐状态
        state = encoder_inference.predict(source)
        #第一个字符'\t',为起始标志
        predict_seq = np.zeros((1,1,features))
        predict_seq[0,0,target_dict['\t']] = 1
    
        output = ''
        #开始对encoder获得的隐状态进行推理
        #每次循环用上次预测的字符作为输入来预测下一次的字符,直到预测出了终止符
        for i in range(n_steps):#n_steps为句子最大长度
            #给decoder输入上一个时刻的h,c隐状态,以及上一次的预测字符predict_seq
            yhat,h,c = decoder_inference.predict([predict_seq]+state)
            #注意,这里的yhat为Dense之后输出的结果,因此与h不同
            char_index = np.argmax(yhat[0,-1,:])
            char = target_dict_reverse[char_index]
            output += char
            state = [h,c]#本次状态做为下一次的初始状态继续传递
            predict_seq = np.zeros((1,1,features))
            predict_seq[0,0,char_index] = 1
            if char == '\n':#预测到了终止符则停下来
                break
        return output

    对100个值进行预测:

    for i in range(1000,1210):
        test = encoder_input[i:i+1,:,:]#i:i+1保持数组是三维
        out = predict_chinese(test,encoder_infer,decoder_infer,OUTPUT_LENGTH,OUTPUT_FEATURE_LENGTH)
        print(input_texts[i])
        print(out)

    我们发现预测的都很准(废话,训练集能不准嘛!)
    翻译结果:
    这里写图片描述

    3 致谢

    本文参照了以下文章:
    [1] keras/examples/lstm_seq2seq.py, https://github.com/keras-team/keras/blob/master/examples/lstm_seq2seq.py
    [2] A ten-minute introduction to sequence-to-sequence learning in Keras, https://blog.keras.io/a-ten-minute-introduction-to-sequence-to-sequence-learning-in-keras.html
    [3] How to Develop an Encoder-Decoder Model for Sequence-to-Sequence Prediction in Keras, https://machinelearningmastery.com/develop-encoder-decoder-model-sequence-sequence-prediction-keras/
    [4] Keras-9 实现Seq2Seq, https://blog.csdn.net/weiwei9363/article/details/79464789
    [5] 理解LSTM在keras API中参数return_sequences和return_state, https://blog.csdn.net/u011327333/article/details/78501054
    [6] Keras关于LSTM的units参数,还是不理解? https://blog.csdn.net/xiewenbo/article/details/79452843

    展开全文
  • 易语言翻译英文复读机源码,翻译英文复读机,初始化,取网页文档对象,取IES窗口句柄,取网页属性,谷哥翻译,取中间文本,URL编码_utf8,Ansi转Utf8,Unicode转Utf8,Ansi转Unicode,喇叭朗读,GetClassName,...
  • 50例大数据术语英文翻译及详解

    千次阅读 2019-05-13 23:15:37
    英文:big data,mega data 大数据,或称巨量资料,指的是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。 二、大数据的4V: Volume(大量)、Velocity...

    一、大数据

    英文:big data,mega data

    大数据,或称巨量资料,指的是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

    二、大数据的4V:

    Volume(大量)、Velocity(高速)、Variety(多样)、Value(价值)

    三、当前用于分析大数据的工具主要有开源与商用两个生态圈

    开源大数据生态圈:

    1、Hadoop HDFS、HadoopMapReduce, HBase、Hive 渐次诞生,早期Hadoop生态圈逐步形成。

    2、. Hypertable是另类。它存在于Hadoop生态圈之外,但也曾经有一些用户。

    3、NoSQL,membase、MongoDb

    商用大数据生态圈:

    1、一体机数据库/数据仓库:IBM PureData(Netezza), OracleExadata, SAP Hana等等。

    2、数据仓库:TeradataAsterData, EMC GreenPlum, HPVertica 等等。

    3、数据集市:QlikView、 Tableau 、 以及国内的Yonghong Data Mart 。

    四、Hadoop

    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。

    用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。

    Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。

    Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

    五、Apache基金会

    Apache软件基金会(也就是Apache Software Foundation,简称为ASF),是专门为支持开源软件项目而办的一个非盈利性组织。在它所支持的Apache项目与子项目中,所发行的软件产品都遵循Apache许可证(Apache License)。

    六、MapReduce

    MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。概念”Map(映射)”和”Reduce(归约)”,和它们的主要思想,都是从函数式编程语言里借来的,还有从矢量编程语言里借来的特性。它极大地方便了编程人员在不会分布式并行编程的情况下,将自己的程序运行在分布式系统上。 当前的软件实现是指定一个Map(映射)函数,用来把一组键值对映射成一组新的键值对,指定并发的Reduce(归约)函数,用来保证所有映射的键值对中的每一个共享相同的键组。

    七、BI

    商业智能(BI,Business Intelligence)。

    BI(Business Intelligence)即商务智能,它是一套完整的解决方案,用来将企业中现有的数据进行有效的整合,快速准确的提供报表并提出决策依据,帮助企业做出明智的业务经营决策。

    八、CRM

    CRM即客户关系管理,是指企业用CRM技术来管理与客户之间的关系。在不同场合下,CRM可能是一个管理学术语,可能是一个软件系统。通常所指的CRM,指用计算机自动化分析销售、市场营销、客户服务以及应用等流程的软件系统。它的目标是通过提高客户的价值、满意度、赢利性和忠实度来缩减销售周期和销售成本、增加收入、寻找扩展业务所需的新的市场和渠道。CRM是选择和管理有价值客户及其关系的一种商业策略,CRM要求以客户为中心的企业文化来支持有效的市场营销、销售与服务流程。

    九、云计算

    云计算(cloud computing)是基于互联网的相关服务的增加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且经常是虚拟化的资源。云是网络、互联网的一种比喻说法。过去在图中往往用云来表示电信网,后来也用来表示互联网和底层基础设施的抽象。因此,云计算甚至可以让你体验每秒10万亿次的运算能力,拥有这么强大的计算能力可以模拟核爆炸、预测气候变化和市场发展趋势。用户通过电脑、笔记本、手机等方式接入数据中心,按自己的需求进行运算。

    十、云计算相关

    分布式计算(Distributed Computing)

    并行计算(Parallel Computing)

    效用计算(Utility Computing)

    网络存储(Network Storage Technologies)

    虚拟化(Virtualization)

    负载均衡(Load Balance)

    热备份冗余(High Available)

    十一:数据仓库

    数据仓库,英文名称为Data Warehouse,可简写为DW或DWH。数据仓库是为企业所有级别的决策制定过程提供支持的所有类型数据的战略集合。它是单个数据存储,出于分析性报告和决策支持的目的而创建。 为企业提供需要业务智能来指导业务流程改进和监视时间、成本、质量和控制。

    十二:非关系型数据库

    NoSQL,泛指非关系型的数据库。随着互联网web2.0网站的兴起,传统的关系数据库在应付web2.0网站,特别是超大规模和高并发的SNS类型的web2.0纯动态网站已经显得力不从心,暴露了很多难以克服的问题,而非关系型的数据库则由于其本身的特点得到了非常迅速的发展。NoSQL数据库的产生就是为了解决大规模数据集合多重数据种类带来的挑战,尤其是大数据应用难题。

    十三:结构化数据

    结构化数据(即行数据,存储在数据库里,可以用二维表结构来逻辑表达实现的数据)而言,不方便用数据库二维逻辑表来表现的数据即称为非结构化数据,包括所有格式的办公文档、文本、图片、标准通用标记语言下的子集XML、HTML、各类报表、图像和音频/视频信息等等。

    十四:结构化分析方法

    结构化分析方法(Structured Method,结构化方法)是强调开发方法的结构合理性以及所开发软件的结构合理性的软件开发方法。结构是指系统内各个组成要素之间的相互联系、相互作用的框架。结构化开发方法提出了一组提高软件结构合理性的准则,如分解与抽象、模块独立性、信息隐蔽等。针对软件生存周期各个不同的阶段,它有结构化分析(SA)和结构化程序设计(SP)等方法。

    十五:半结构化数据

    和普通纯文本相比,半结构化数据具有一定的结构性,但和具有严格理论模型的关系数据库的数据相比。OEM(Object exchange Model)是一种典型的半结构化数据模型。

    半结构化数据(semi-structured data)

    在做一个信息系统设计时肯定会涉及到数据的存储,一般我们都会将系统信息保存在某个指定的关系数据库中。我们会将数据按业务分类,并设计相应的表,然后将对应的信息保存到相应的表中。比如我们做一个业务系统,要保存员工基本信息:工号、姓名、性别、出生日期等等;我们就会建立一个对应的staff表。

    但不是系统中所有信息都可以这样简单的用一个表中的字段就能对应的。

    十六:非结构化数据

    非结构化数据库是指其字段长度可变,并且每个字段的记录又可以由可重复或不可重复的子字段构成的数据库,用它不仅可以处理结构化数据(如数字、符号等信息)而且更适合处理非结构化数据(全文文本、图象、声音、影视、超媒体等信息)。

    十七:数据库(Database)

    数据库是按照数据结构来组织、存储和管理数据的仓库,它产生于距今六十多年前,随着信息技术和市场的发展,特别是二十世纪九十年代以后,数据管理不再仅仅是存储和管理数据,而转变成用户所需要的各种数据管理的方式。数据库有很多种类型,从最简单的存储有各种数据的表格到能够进行海量数据存储的大型数据库系统都在各个方面得到了广泛的应用。

    十八:数据分析

    英文名:Data Analysis

    数据分析是指用适当的统计分析方法对收集来的大量数据进行分析,提取有用信息和形成结论而对数据加以详细研究和概括总结的过程。这一过程也是质量管理体系的支持过程。在实用中,数据分析可帮助人们作出判断,以便采取适当行动。

    Excel作为常用的分析工具,可以实现基本的分析工作,在商业智能领域Cognos、Style Intelligence、Microstrategy、Brio、BO和Oracle以及国内产品如Yonghong Z-Suite BI套件等。

    十九:数据挖掘

    数据挖掘(英语:Data mining),又译为资料探勘、数据采矿。它是数据库知识发现(英语:Knowledge-Discovery in Databases,简称:KDD)中的一个步骤。数据挖掘一般是指从大量的数据中通过算法搜索隐藏于其中信息的过程。数据挖掘通常与计算机科学有关,并通过统计、在线分析处理、情报检索、机器学习、专家系统(依靠过去的经验法则)和模式识别等诸多方法来实现上述目标。

    二十:数据清洗

    数据清洗从名字上也看的出就是把“脏”的“洗掉”,指发现并纠正数据文件中可识别的错误的最后一道程序,包括检查数据一致性,处理无效值和缺失值等。因为数据仓库中的数据是面向某一主题的数据的集合,这些数据从多个业务系统中抽取而来而且包含历史数据,这样就避免不了有的数据是错误数据、有的数据相互之间有冲突,这些错误的或有冲突的数据显然是我们不想要的,称为“脏数据”。我们要按照一定的规则把“脏数据”“洗掉”,这就是数据清洗。而数据清洗的任务是过滤那些不符合要求的数据,将过滤的结果交给业务主管部门,确认是否过滤掉还是由业务单位修正之后再进行抽取。不符合要求的数据主要是有不完整的数据、错误的数据、重复的数据三大类。数据清洗是与问卷审核不同,录入后的数据清理一般是由计算机而不是人工完成。

    二十一:可视化

    可视化(Visualization)是利用计算机图形学和图像处理技术,将数据转换成图形或图像在屏幕上显示出来,并进行交互处理的理论、方法和技术。它涉及到计算机图形学、图像处理、计算机视觉、计算机辅助设计等多个领域,成为研究数据表示、数据处理、决策分析等一系列问题的综合技术。目前正在飞速发展的虚拟现实技术也是以图形图像的可视化技术为依托的。

    二十二:数据可视化

    英文名:Data visualization

    数据可视化技术的基本思想是将数据库中每一个数据项作为单个图元元素表示,大量的数据集构成数据图像,同时将数据的各个属性值以多维数据的形式表示,可以从不同的维度观察数据,从而对数据进行更深入的观察和分析。

    数据可视化主要旨在借助于图形化手段,清晰有效地传达与沟通信息。但是,这并不就意味着,数据可视化就一定因为要实现其功能用途而令人感到枯燥乏味,或者是为了看上去绚丽多彩而显得极端复杂。为了有效地传达思想概念,美学形式与功能需要齐头并进,通过直观地传达关键的方面与特征,从而实现对于相当稀疏而又复杂的数据集的深入洞察。然而,设计人员往往并不能很好地把握设计与功能之间的平衡,从而创造出华而不实的数据可视化形式,无法达到其主要目的,也就是传达与沟通信息。

    二十三:产品数据管理

    产品数据管理(Product Data Management)是基于分布式网络、主从结构、图形化用户接口和数据库件管理技术发展起来的一种软件框架(或数据平台),PDM对并行工程中的人员工具、设备资源、产品数据以及数据生成过程进行全面管理。

    二十四:DSP(需求方平台)

    DSP(Demand-Side Platform),就是需求方平台。这一概念起源于网络广告发达的欧美,是伴随着互联网和广告业的飞速发展新兴起的网络广告领域。它与Ad Exchange和RTB一起迅速崛起于美国,已在全球快速发展,2011年已经覆盖到了欧美、亚太以及澳洲。在世界网络展示广告领域,DSP方兴未艾。DSP传入中国,迅速成为热潮,成为推动中国网络展示广告RTB市场快速发展的动力之一。

    二十五:DMP(数据管理平台)

    DMP(Data-Management Platform)数据管理平台,是把分散的第一、第三方数据进行整合纳入统一的技术平台,并对这些数据进行标准化和细分,让用户可以把这些细分结果推向现有的互动营销环境里。

    DMP的核心元素包括:

    ·数据整合及标准化能力:采用统一化的方式,将各方数据吸纳整合。

    ·数据细分管理能力:创建出独一无二、有意义的客户细分,进行有效营销活动。

    ·功能健全的数据标签:提供数据标签灵活性,便于营销活动的使用。

    ·自助式的用户界面:基于网页web界面或其他集成方案直接获取数据工具,功能和几种形式报表和分析。

    ·相关渠道环境的连接:跟相关渠道的集成,包含网站端、展示广告、电子邮件以及搜索和视频,让营销者能找到、定位和提供细分群体相关高度的营销信息。

    二十六:CPA(广告术语)

    CPA(Cost Per Action)是一种广告计费模式,顾名思义按照行为(Action)作为指标来计费,这个行为可以是注册、咨询、放入购物车等等。广告公司和媒体公司常用CPA、CPC(Cost Per Click)、CPM(Cost Per Mille,或者Cost Per Thousand;Cost Per Impressions)一起来衡量广告价格。

    CPA(每次行动成本,Cost Per Action)计价方式是指按广告投放实际效果,即按回应的有效问卷或定单来计费,而不限广告投放量。CPA广告是网络中最常见的一种广告形式,当用户点击某个网站上的cpc广告后,这个站的站长就会获得相应的收入。

    二十七:CPT(广告术语)

    按时长计费是包时段投放广告的一种形式,广告主选择广告位和投放时间,费用与广告点击量无关。采用这种方式出售广告,网站主决定每一个广告位的价格,广告主自行选择购买时间段,目前可按周或按天购买,成交价就是网站主标定的价格。

    二十八:CTR(广告点击率)

    CTR(Click-Through-Rate)互联网广告常用的术语,指网络广告(图片广告/文字广告/关键词广告/排名广告/视频广告等)的点击到达率,即该广告的点击量(严格的来说,可以是到达目标页面的数量)除以广告的浏览量(PV- Page View)。

    CTR是衡量互联网广告效果的一项重要指标。

    二十九:算法

    算法(Algorithm)是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。也就是说,能够对一定规范的输入,在有限时间内获得所要求的输出。如果一个算法有缺陷,或不适合于某个问题,执行这个算法将不会解决这个问题。不同的算法可能用不同的时间、空间或效率来完成同样的任务。一个算法的优劣可以用空间复杂度与时间复杂度来衡量。

    三十:机器学习

    机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。

    它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。

    三十一:人工智能

    人工智能(Artificial Intelligence) ,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。

    三十二:深度学习

    英文名:Deep Learning

    深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。

    深度学习的概念由Hinton等人于2006年提出。基于深信度网(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。

    深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。

    三十四:神经网络

    人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型(Connection Model),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。

    三十五:OpenStack

    OpenStack是一个由NASA(美国国家航空航天局)和Rackspace合作研发并发起的,以Apache许可证授权的自由软件和开放源代码项目。

    OpenStack是一个开源的云计算管理平台项目,由几个主要的组件组合起来完成具体工作。OpenStack支持几乎所有类型的云环境,项目目标是提供实施简单、可大规模扩展、丰富、标准统一的云计算管理平台。OpenStack通过各种互补的服务提供了基础设施即服务(IaaS)的解决方案,每个服务提供API以进行集成。

    三十六:SaaS

    SaaS是Software-as-a-Service(软件即服务)的简称,随着互联网技术的发展和应用软件的成熟, 在21世纪开始兴起的一种完全创新的软件应用模式。它与“on-demand software”(按需软件),the application service provider(ASP,应用服务提供商),hosted software(托管软件)所具有相似的含义。它是一种通过Internet提供软件的模式,厂商将应用软件统一部署在自己的服务器上,客户可以根据自己实际需求,通过互联网向厂商定购所需的应用软件服务,按定购的服务多少和时间长短向厂商支付费用,并通过互联网获得厂商提供的服务。

    三十七:Paas

    PaaS是Platform-as-a-Service的缩写,意思是平台即服务。 把服务器平台作为一种服务提供的商业模式。通过网络进行程序提供的服务称之为SaaS(Software as a Service),而云计算时代相应的服务器平台或者开发环境作为服务进行提供就成为了PaaS(Platform as a Service)。

    所谓PaaS实际上是指将软件研发的平台(计世资讯定义为业务基础平台)作为一种服务,以SaaS的模式提交给用户。因此,PaaS也是SaaS模式的一种应用。但是,PaaS的出现可以加快SaaS的发展,尤其是加快SaaS应用的开发速度。在2007年国内外SaaS厂商先后推出自己的PAAS平台。

    三十八:IaaS

    IaaS(Infrastructure as a Service),即基础设施即服务。

    消费者通过Internet 可以从完善的计算机基础设施获得服务。这类服务称为基础设施即服务。基于 Internet 的服务(如存储和数据库)是 IaaS的一部分。Internet上其他类型的服务包括平台即服务(Platform as a Service,PaaS)和软件即服务(Software as a Service,SaaS)。PaaS提供了用户可以访问的完整或部分的应用程序开发,SaaS则提供了完整的可直接使用的应用程序,比如通过 Internet管理企业资源。

    三十九:HaaS

    以提供的Hadoop作为一种服务(HAAS)

    HaaS(Hardware-as-a-service)的意思是硬件即服务。HaaS概念的出现源于云计算,现在被称作基础架构即服务(IaaS)或基础架构云,使用IaaS,各企业可通过Web将更多的基础架构容量作为服务提供。“通过Web”分配更多的存储或处理容量当然要比供应商在基础环境中引入和安装新硬件要快得多。HaaS还具有另外一层含义是针对嵌入式设备而言的,目的在于建立通过互联网(Web)进行嵌入式设备统一管理服务的模式。在这种情况下,HaaS类似于SaaS,对于嵌入式设备使用者来说,无需对所需嵌入式设备进行一次性购买,仅需按照设备使用量或其它标准支付设备的服务费及维护费即可。

    四十:决策树

    决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy = 系统的凌乱程度,使用算法ID3, C4.5和C5.0生成树算法使用熵。这一度量是基于信息学理论中熵的概念。

    四十一:EM算法

    最大期望算法(Expectation Maximization Algorithm,又译期望最大化算法),是一种迭代算法,用于含有隐变量(hidden variable)的概率参数模型的最大似然估计或极大后验概率估计。

    四十二:数据聚类

    数据聚类 (英语 : Cluster analysis) 是对于静态数据分析的一门技术,在许多领域受到广泛应用,包括机器学习,数据挖掘,模式识别,图像分析以及生物信息。聚类是把相似的对象通过静态分类的方法分成不同的组别或者更多的子集(subset),这样让在同一个子集中的成员对象都有相似的一些属性,常见的包括在坐标系中更加短的空间距离等。

    四十三:概率模型

    给定一个用户的查询串,相对于该串存在一个包含所有相关文档的集合。我们把这样的集合看作是一个理想的结果文档集,在给出理想结果集后,我们能很容易得到结果文档。这样我们可以把查询处理看作是对理想结果文档集属性的处理。问题是我们并不能确切地知道这些属性,我们所知道的是存在索引术语来表示这些属性。由于在查询期间这些属性都是不可见的,这就需要在初始阶段来估计这些属性。这种初始阶段的估计允许我们对首次检索的文档集合返回理想的结果集,并产生一个初步的概率描述。

    四十四:贝索斯定律

    英文:Bezos’ Law

    贝索斯定律是指在云的发展过程中,单位计算能力的价格大约每隔3年会降低50%。

    四十五:回归分析

    回归分析(regression analysis)是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。运用十分广泛,回归分析按照涉及的自变量的多少,可分为一元回归分析和多元回归分析;按照自变量和因变量之间的关系类型,可分为线性回归分析和非线性回归分析。如果在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。

    四十六:推荐算法

    基于内容的信息推荐方法的理论依据主要来自于信息检索和信息过滤,所谓的基于内容的推荐方法就是根据用户过去的浏览记录来向用户推荐用户没有接触过的推荐项。主要是从两个方法来描述基于内容的推荐方法:启发式的方法和基于模型的方法。启发式的方法就是用户凭借经验来定义相关的计算公式,然后再根据公式的计算结果和实际的结果进行验证,然后再不断修改公式以达到最终目的。而对于模型的方法就是根据以往的数据作为数据集,然后根据这个数据集来学习出一个模型。

    四十七:八叉树

    英文名:Octree

    八叉树是一种用于描述三维空间的树状数据结构。八叉树的每个节点表示一个正方体的体积元素,每个节点有八个子节点,将八个子节点所表示的体积元素加在一起就等于父节点的体积。

    四十八:红黑树

    红黑树(Red Black Tree) 是一种自平衡二叉查找树,是在计算机科学中用到的一种数据结构,典型的用途是实现关联数组。

    它是在1972年由Rudolf Bayer发明的,当时被称为平衡二叉B树(symmetric binary B-trees)。后来,在1978年被 Leo J. Guibas 和 Robert Sedgewick 修改为如今的“红黑树”。

    红黑树和AVL树类似,都是在进行插入和删除操作时通过特定操作保持二叉查找树的平衡,从而获得较高的查找性能。

    它虽然是复杂的,但它的最坏情况运行时间也是非常良好的,并且在实践中是高效的: 它可以在O(log n)时间内做查找,插入和删除,这里的n 是树中元素的数目。

    四十九:哈希表

    散列表(Hash table,也叫哈希表),是根据关键码值(Key value)而直接进行访问的数据结构。也就是说,它通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做散列函数,存放记录的数组叫做散列表。

    给定表M,存在函数f(key),对任意给定的关键字值key,代入函数后若能得到包含该关键字的记录在表中的地址,则称表M为哈希(Hash)表,函数f(key)为哈希(Hash) 函数。

    五十:随机森林

    英文名:Random forest

    在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的算法。 而 “Random Forests” 是他们的商标。 这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。这个方法则是结合 Breimans 的 “Bootstrap aggregating” 想法和 Ho 的”random subspace method”” 以建造决策树的集合

    展开全文
  • 在第一次使用局部静态对象前创建并初始化它,当程序结束时局部静态对象才被销毁。 ( 11)函数(function) 可调用的计算单元。它对程序的结构化至关重要。每个函数都包含返回类型、名字、(可能为空)形参列表...
  • R语言错误的提示(中英文翻译

    万次阅读 2019-10-06 03:06:41
    msgstr "计算季节性初始值至少需要两个周期的数据" msgid "invalid length(x)" msgstr "length(x)不对" msgid "optimization difficulties: %s" msgstr "优化困难: %s " msgid "optimization failure" msgstr ...
  • 编译错误类型以及其原因还有中文翻译 作为一名C++的学习者(任何语言都是一样的),学会读编译器发出的错误信息都是一件很重要的事情。在前辈们不断地犯错的过程中,渐渐都会形成自己的错误调试体系。这里将绝大...
  • JAVA英文翻译表--IT术语中英对照

    千次阅读 2010-07-19 23:46:00
    2008年02月15日 星期五 15:52 JAVA英文翻译表 ● 单词「式」: constructor 建构式 declaration 宣告式 definition 定义式 destructor 解构式 expression 算式(运算式) ...
  • 学习C++ Primer 时对一些常用术语(包括对应英文)及其简单用法的总结。
  • 朋友们可以自由转载我对英文的中文翻译,但是对于“作者注:”的描述,转载时请注明出处和作者,否则视为侵权。 下面是翻译的正文,由于水平有限,有些翻译的不好,有些未能翻译出,恳请读者指出与见谅。 NAME bind ...
  • 说明一个类的数据成员的初始值,在构造函数体执行之前首先用初始值列表中的值初始化数据成员。未经初始值列表初始化的成员将被默认初始化。 (11)转换构造函数(converting constructor) 可以用一个实参调用的...
  • 利用花括号把一个或多个初始值放在一起的初始化形式。 (29)字面值(literal) 是一个不能改变的值,如数字、字符、字符串等。单引号内的是字符字面值,双引号内的是字符串字面值。 (30)顶层 ...
  • 对于容器的初始化来说,如果只说明了容器的大小而没有指定初始值的话,就会执行值初始化。此时编译器会生成一个值,而容器的元素被初始化为该值。 (27)运算符() 标准库类型string定义的输出运算符,负责输出...
  • 最近一个项目上有要求完成app国际化 也就是如果系统语言是英文,那么你的app打开时就会自动读取string 中的字符串资源,自动完成匹配,以满足国际化需求,那么我们就按照步骤走,完成我们的app国际化道路。...
  • JanusGraph-配置(第四章)--英文翻译

    千次阅读 2018-01-04 17:28:44
    当集群中第一个实例启动, 全局配置便被从本地文件初始化了. 可以通过系统提供的API来修改全局配置参数. 调用实例g.getManagementSystem()方法,可以访问管理API.例如, 修改一个集群默认的缓存行为 mgmt ...
  • 国外地图,默认GeoJSON文件为英文,为了阅读友好化体验,一般需要将地区的名称翻译成中文。 一种方式是修改GeoJSON文件内部,找到对应地区的name属性,直接替换成相应的中文即可,这种方式在众多的数字中找名字,...
  • 基于attention机制的中英文机器翻译

    千次阅读 2019-02-27 16:37:51
    基于attention机制的中英文机器翻译
  • GIS英文词汇翻译

    千次阅读 2012-10-16 10:17:03
    翻译 abscissa 横坐标 absolute accuracy 绝对精度 absolute coordinates 绝对坐标 absorption 吸收 abstraction 抽取 accuracy 精度 across-track ...
  • Spring英文参考文档翻译

    千次阅读 2013-08-14 09:31:18
    Spring官方文档的翻译
  • 【OpenCV】Mat的初始

    千次阅读 2019-04-17 21:51:06
    【OpenCV】Mat的初始化和非初始化设值一、初始化设值例一例二二、非初始化设值例一例二...此为OpenCV的官方教程,英文版,浏览器有翻译功能的话可以翻译来看,整体大概还是看得懂的。 一、初始化设值 例一 直接进入...
  • CTPN论文翻译——中英文对照

    千次阅读 2018-03-07 18:55:41
    文章作者:Tyan ...声明:作者翻译论文仅为学习,如有侵权请联系作者删除博文,谢谢! 翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers-translation Detecting Text in Natural Image ...
  • ResNet论文翻译——中英文对照

    千次阅读 2017-08-16 18:42:24
    文章作者:Tyan ...声明:作者翻译论文仅为学习,如有侵权请联系作者删除博文,谢谢! 翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers-translation Deep Residual Learning for Ima...
  • 神经网络权重初始化问题

    万次阅读 2017-09-01 12:24:26
    之前看Andrew大神的视频有介绍到神经网络权重... 另外这篇文章其实是一篇译文,所以翻译不是很确定的地方也将原文中的英文语句复制在句后,如果有更合适的翻译也请留言告知一下,谢谢! 参考文献: CS231n Convolut

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 44,603
精华内容 17,841
关键字:

初始英文翻译