精华内容
下载资源
问答
  • 云数据为什么叫云
    万次阅读 多人点赞
    更多相关内容
  • CASIA-WebFace 数据(百度

    热门讨论 2018-02-01 14:01:31
    WebFace 数据集,百度链接,压缩数据共 4.1 G. WebFace 数据集,百度链接,压缩数据共 4.1 G. WebFace 数据集,百度链接,压缩数据共 4.1 G. WebFace 数据集,百度链接,压缩数据共 4.1 G. WebFace 数据...
  • 华为云数据转发与分析

    千次阅读 2022-02-12 23:49:29
    在之前的文章我使用小熊派 STM32 开发板移植了 LiteOS 和 PahoMQTT 连接华为上云,实现了数据的上传和命令的下放,在实际场景中,一个平台可能会有若干的设备连接和海量的数据上报,华为也提供了数据的转发...

    华为云数据转发与分析

    前言

    在之前的文章我使用小熊派 STM32 开发板移植了 LiteOS 和 PahoMQTT 连接华为云上云,实现了数据的上传和命令的下放,在实际场景中,一个云平台可能会有若干的设备连接和海量的数据上报,华为云也提供了数据的转发保存以及数据分析功能,本篇文章即分享相关功能的使用

    一、数据转发

    1.1 创建对象存储

    将设备侧上报的数据转发到对象存储 OBS ,首先我们在控制台进入对象存储服务,进入到桶列表创建桶

    20220212170455

    设置桶的参数:

    20220212181603

    主要就是设置服务器的区域,离自己越近越快,然后设置桶的名称,其他的保持默认就行,创建完成如下:

    20220212181833

    进入对象,给对象创建一个文件夹用来存放小熊派的数据

    20220212181749

    1.2 设置设备转发规则

    在设备接入控制台下面点击:规则 -> 数据转发

    20220212182315

    点击创建规则

    20220212213446

    设置转发数据规则的规则名称,数据来源选择设备属性,转发的触发事件选择设备属性上报,资源空间选择我们之前创建的空间,然后创建规则

    20220212213554

    规则创建完成后,设置转发目标为 OBS ,然后区域选择中国东部,存储桶选择我们创建的,目录设置为 bearpi

    20220212214039

    之后我们启动规则,小熊派连接华为云上报数据,数据就会转发到该桶内,如下:

    20220212214602

    我们下载其中的一个数据,打开后可以看到该数据保存了上传的 JSON 格式数据:

    20220212214643

    到此数据转发完成

    二、数据分析

    数据分析的步骤我们可以在数据分析控制台(IoT数据分析)的总览看到

    20220212215710

    2.1 配置数据源

    进入数据源,添加数据源,选择我们创建好的产品实例

    20220212223732

    2.2 创建数据管道

    先是基本的设置名称和数据源

    20220212224848

    创建完成后,设置存储空间:储存组选择默认的储存组,数据存储选择我新建的 2_9 ,

    20220212224923

    设置完成后启动作业

    2.3 时序数据分析

    时序数据分析就是直接安装时间观察数据变化情况

    进入存储管理,选择我们新建的 2_9 数据进行实时数据分析

    20220212225158

    点击设备时序探索,选择我们的设备,添加要观察的属性,然后调整右上角的时序,观察数据变化

    20220212225340

    2.4 资产模型数据分析

    资产模型数据分析就是创建资产模型处理数据后进行进一步分析,该方式首先先新建个模型和分析任务,新建的模型属性包含产品自身的属性以及用于分析任务的属性

    20220212232350

    添加个分析任务,显示温度和光强,在这里可以做很多其他的计算

    20220212232455

    然后创建一个资产,添加模型

    20220212230527

    进入资产,具体配置设备,添加 设备 ID,然后发布模型:

    20220212232650

    之后在分析任务中观察资产模型即可

    20220212234717

    到此数据分析功能使用完成

    展开全文
  • 阿里ECS数据迁移到阿里OSS

    万次阅读 2022-02-11 09:57:41
    在运维工作中,存在数据文件迁移的场景,例如将阿里ECS的数据迁移到OSS中去,该操作可通过 ossutil 落地实现。 首先在你要迁移的服务器运行如下代码,安装该工具 wget ...

    实操背景

    在运维工作中,存在数据文件迁移的场景,例如将阿里云ECS的数据迁移到OSS中去,该操作可通过 ossutil 落地实现。
    首先在你要迁移的服务器运行如下代码,安装该工具

    wget https://gosspublic.alicdn.com/ossutil/1.7.9/ossutil64
    

    当控制台输出如下内容,表示安装成功。

    [root@xxxxx~]# wget https://gosspublic.alicdn.com/ossutil/1.7.9/ossutil64 
    --2022-02-10 11:19:24--  https://gosspublic.alicdn.com/ossutil/1.7.9/ossutil64
    Resolving gosspublic.alicdn.com (gosspublic.alicdn.com)... 101.37.183.187, 101.37.183.186, 240e:928:501:2:3::3fc, ...
    Connecting to gosspublic.alicdn.com (gosspublic.alicdn.com)|101.37.183.187|:443... connected.
    HTTP request sent, awaiting response... 200 OK
    Length: 10357129 (9.9M) [application/octet-stream]
    Saving to: ‘ossutil64’
    
    100%[=======================================================================================================================================================================>] 10,357,129  27.7MB/s   in 0.4s   
    
    2022-02-10 11:19:24 (27.7 MB/s) - ‘ossutil64’ saved [10357129/10357129]
    

    在这里插入图片描述

    该内容默认安装到 root 目录下,接下来授予权限。

    chmod 755 ossutil64
    

    在接下来进行OSS相关配置即可,通过命令 ./ossutil64 config 进入配置界面

    [root@ ~]# ./ossutil64 config
    The command creates a configuration file and stores credentials.
    
    Please enter the config file name,the file name can include path(default /root/.ossutilconfig, carriage return will use the default file. If you specified this option to other file, you should specify --config-file option to the file when you use other commands):
    No config file entered, will use the default config file /root/.ossutilconfig
    
    For the following settings, carriage return means skip the configuration. Please try "help config" to see the meaning of the settings
    Please enter language(CH/EN, default is:EN, the configuration will go into effect after the command successfully executed):CH(选择CH是中文)
    Please enter stsToken:
    Please enter endpoint:注意写阿里云内网 endpoint 
    Please enter accessKeyID:你的accessKeyID
    Please enter accessKeySecret:你的accessKeySecret
    

    其中会要求你输入配置文件地址,可以保持默认 /root/.ossutilconfig

    配置查看

    输入命令 ./ossutil64 可以直接查看帮助文档。

    root@ ~]# ./ossutil64
    用法: ossutil [command] [args...] [options...]
    请使用ossutil help command来显示command命令的帮助
    
    Commands:
      mb                cloud_url [options]
            创建Bucket
      ls                [cloud_url] [options]
            列举Buckets或者Objects
      rm                cloud_url [options]
            删除Bucket或Objects
    

    上传文件

    接下来就是上传文件,即迁移数据到OSS中,使用 ossutil64 中的 cp 命令即可。

    该命令用于将本地文件或文件夹上传至OSS。

    使用 cp 命令上传文件时,默认使用分片上传和断点续传。如果意外中断了文件上传的过程,且未继续完成该文件的上传,则已上传的部分会以碎片(Part)的形式存储在OSS的存储空间(Bucket)中。当不在需要的时候,注意删除这部分内容。

    命令格式如下所示,其中 -r-u 最常用。

    ./ossutil64 cp file_url cloud_url
    [-r, --recursive]
    [-f --force]
    [-u --update]
    [--maxupspeed <value>]
    [--enable-symlink-dir]
    [--disable-all-symlink]
    [--disable-ignore-error]
    [--only-current-dir]
    [--bigfile-threshold <value>]
    [--part-size <value>]
    [--checkpoint-dir <value>]
    [--encoding-type <value>]
    [--include <value>]
    [--exclude <value>]
    [--meta <value>]
    [--acl <value>]
    [--snapshot-path <value>]
    [--disable-crc64]
    [--disable-dir-object]
    [--payer <value>]
    [--tagging <value>]
    [-j, --job <value>]
    [--parallel <value>]
    

    详细配置参考地址:https://help.aliyun.com/document_detail/179388.htm

    接下来介绍的是比较常用的操作。

    上传单个文件

    上传文件时,如果不指定上传至OSS的文件名,则默认使用原文件名进行保存;如果指定文件名,则按照指定的文件名保存在OSS中。

    ./ossutil64 cp 要转移的文件 oss://examplebucket/OSS目标目录/
    

    仅上传文件夹内的文件

    使用cp命令时增加 -r 选项,可以只将本地文件夹内的文件上传到OSS指定路径。用于上传本地文件夹内容

    ./ossutil64 cp -r 本地文件夹/ oss://examplebucket/OSS目标目录/
    

    上传文件夹及文件夹内的文件

    使用cp命令时增加 -r 选项,并在OSS指定路径下添加本地文件夹名称,可以将本地文件夹以及文件夹内的文件上传到OSS指定路径。

    ./ossutil64 cp -r 本地文件夹/ oss://examplebucket/OSS目标目录/本地相同的文件名/
    

    上传文件夹并跳过已有文件

    批量上传失败重传时,可以指定 --update (可缩写为-u)选项跳过已经上传成功的文件,实现增量上传

    ./ossutil64 cp -r 本地文件夹/ oss://examplebucket/OSS目标目录/ -u
    

    仅上传当前目录下的文件,忽略子目录

    如标题所示含义:

    ./ossutil64 cp 本地文件夹/ oss://examplebucket/OSS目标目录/ --only-current-dir -r
    

    上传时限速

    在上传文件时,结合 --maxupspeed 选项来限制上传的最大速度,单位为KB/s。:
    上传文件并设置限速为1 MB/s

    ./ossutil64 cp 本地文件 oss://examplebucket/OSS目标目录/ --maxupspeed 1024
    

    上传文件夹并设置限速为1 MB/s

    ./ossutil64 cp -r 本地文件夹/ oss://examplebucket/OSS目标目录/ --maxupspeed 1024
    

    官方资料查询地址:https://help.aliyun.com/document_detail/50452.html

    记录时间

    2022年度 Flag,写作的 561 / 1024 篇。
    可以关注我,点赞我、评论我、收藏我啦。

    更多精彩


    👇👇👇扫码加入【78技术人】~ Python 事业部👇👇👇
    展开全文
  • 数据湖作为一个集中化的数据存储仓库, 支持的数据类型具有多样性, 包括结构化、 半结构化以及非结构化的数据数据来源上包含数据库数据、 binglog 增量数据、 日志数据以及已有数仓上的存量数据等.数据湖能够将...

    数据湖作为一个集中化的数据存储仓库, 支持的数据类型具有多样性, 包括结构化、 半结构化以及非结构化的数据, 数据来源上包含数据库数据、 binglog 增量数据、 日志数据以及已有数仓上的存量数据等.数据湖能够将这些不同来源、 不同格式的数据集中存储管理在高性价比的存储如 OSS 等对象存储中, 并对外提供统一的数据分析方式, 有效解决了企业中面临的数据孤岛问题, 同时大大降低了企业存储和使用数据的成本。
    在这里插入图片描述
    由于数据湖数据来源的多样性, 如何简单高效的将这些异构数据源的数据迁移到中心化的数据湖存储中, 是数据湖构建过程面临的问题.为此, 我们需要提供完善的一站式入湖的能力, 解决我们面临的问题, 主要包括以下几点:
     支持异构数据源统一的入湖方式:提供一个简单统一的入湖方式, 用户可以通过简单的页面配置实现异构数据源的入湖操
    作。
     满足数据入湖的时效性:对于日志、 binglog 等类型的数据源, 需要实现分钟级延迟的数据入湖能力, 满足实时交互式 分析场景对时效性的要求。
     支持数据源的实时变更:对于数据库、 TableStore Tunnel 等类型的数据源, 源头数据会经常发生变更, 比如数据层面的 update, delete 等操作, 甚至 schema 层面的字段结构变更. 需要利用更好的数据格式来支持这类变更行为。

    多数据源一站式入湖

    整体方案

    数据入湖整体上分为入湖模板、 入湖引擎、 文件格式以及数据湖存储四个部分。入湖模板定义了常见的数据源入湖方式, 目前主要包括 RDS 全量模板、 DTS 增量模板、 TableStore 模板、 SLS 模板以及文件格式转换 5 种模板。入湖引擎使用了阿里云 EMR 团队自研的 Spark Streaming SQL 以及 EMR Spark 引擎, Streaming SQL 基于 Spark Structured Streaming, 提供了相对完善的 Streaming SQL 语法, 极大简化了实时计算的开发成本。 对于实时增量模板, 上层入湖模板部分将入湖模板翻译成 Streaming SQL, 然后提交 Spark 集群运行。 我们在Streaming SQL 里面扩展了 Merge Into 语法来支持 update、 delete 操作。 对于 RDS等全量模板, 则直接翻译成 Spark SQL 运行。DLF 支持的文件格式包括 Delta Lake、 Parquet、 json 等, 更多文件格式比如Hudi 也在接入中。Delta Lake 和 Hudi 等文件格式能很好的支持 update、delete 等操作,同时支持 schema merge 功能。 可以很好的解决数据源实时变更问题。数据湖数据统一放在 OSS 对象存储中, OSS 提供了海量数据存储的能力, 同时在可靠性, 价格等方面更具优势。
    在这里插入图片描述

    实时入湖

    随着大数据的不断发展, 用户对数据时效性的要求越来越高, 实时入湖也是我们重点关
    注的场景, 目前我们已经支持了 DTS、 TableStore 以及 SLS 的实时入湖能力。DTS 是阿里云提供了高可靠的数据传输服务, 支持不同类型数据库增量数据的订阅和消费。 我们实现了 DTS 实时订阅数据的入湖, 支持用户已有订阅通道入湖和自动创建订阅通道入湖两种方式, 减少用户配置成本。在技术上, 支持增量数据对历史数据的 update、 delete 变更操作, 实现分钟级延迟的数据变更感知能力。 技术实现上在 Streaming SQL 中扩展了 merge into 语法来对接底层文件格式 Delta Lake 的相关接口。

    MERGE INTO delta_tbl AS target
    USING (
    select recordType, pk, ...
    from {{binlog_parser_subquery}}
    ) AS source
    ON target.pk = source.pk
    WHEN MATCHED AND source.recordType='UPDATE' THEN
    UPDATE SET *
    WHEN MATCHED AND source.recordType='DELETE' THEN
    DELETE
    WHEN NOT MATCHED THEN
    INSERT *
    

    和传统数仓的 binlog 入仓相比, 基于数据湖的方案具有更大的优势. 在传统数仓中,为了实现数据库等变更数据的入仓, 通常需要维护两张表, 一张增量表用于存放每天新增的数据库变更明细数据, 另外一张全量表, 存放历史所有的 merge 数据, 全量表每天和增量表更据主键做 merge 操作. 显然, 基于数据湖方案在实现的简单性和时效性上都更优。
    TableStore 是阿里云提供的是阿里云自研的 NoSQL 多模型数据库, 提供海量结构化数据存储以及快速的查询和分析服务.它同时支持了通道功能, 支持变更数据的实时消费。我们支持 TableStore 全量通道、 增量通道以及全量加增量通道的实现入湖.其中全量通道包含历史全量数据, 增量通道包含增量变化的数据, 全量加增量通道则包含了历史全量和增量变化的数据。
    SLS 是阿里云提供的针对日志类数据的一站式服务, 主要存放用户日志数据。 将 SLS中的日志数据实时归档到数据湖中, 进行分析处理可以充分挖掘数据中的价值。 目前通过SLS 入湖模板, 填写 project、 logstore 等少量信息, 即可完成日志实时入湖的能力。

    数据湖构建服务+Delta Lake=CDC实时入湖

    Change Data Capture(CDC)用来跟踪捕获数据源的数据变化, 并将这些变化同步到目标存储(如数据湖或数据仓库), 用于数据备份或后续分析, 同步过程可以是分钟/小时/天等粒度, 也可以是实时同步。 CDC 方案分为侵入式(intrusive manner)和非倾入性(non-intrusive manner)两种。
    在这里插入图片描述
    侵入式方案直接请求数据源系统(如通过 JDBC 读取数据), 会给数据源系统带来性能
    压力。 常见的方案如下:
     最后更新时间(Last Modified):源表需要有修改时间列, 同步作业需要指定最后修改时间参数, 表明同步某个时间点之后变更的数据。 该方法不能同步删除记录的变更, 同一条记录多次变更只能记录最后一次。
     自增 id 列:源表需要有一个自增 id 列, 同步作业需要指定上次同步的最大 id 值, 同步上次之后新增的记录行。 该方法也不能同步删除记录的变更, 而且老记录的变更也无法感知。
    非侵入性一般通过日志的方式记录数据源的数据变化(如数据库的 binlog), 源库需要开启 binlog 的功能。数据源的每次操作都会被记录到 binlog 中(如 insert/update/delete 等),能够实时跟踪数据插入/删除/数据多次更新/DDL 操作等。

    常见的CDC方案实现

    开源常见的 CDC 方案实现主要有两种:Sqoop 离线同步和binlog 实时同步
    sqoop 是一个开源的数据同步工具, 它可以将数据库的数据同步到 HDFS/Hive 中,支持全量同步和增量同步, 用户可以配置小时/天的调度作业来定时同步数据。sqoop 增量同步是一种侵入式的 CDC 方案, 支持 Last Modified 和 Append 模式。缺点:直接 jdbc 请求源库拉取数据, 影响源库性能,小时/天调度, 实时性不高,无法同步源库的删除操作, Append 模式还不支持数据更新操作。
    在这里插入图片描述
    binlog 日志可以通过一些工具实时同步到 kafka 等消息中间件中, 然后通过Spark/Flink 等流引擎实时的回放 binlog 到目标存储(如 Kudu/HBase 等)。缺点:Kudu/HBase 运维成本高,Kudu 在数据量大的有稳定性问题, HBase 不支持高吞吐的分析,Spark Streaming 实现回放 binlog 逻辑复杂, 使用 java/scala 代码具有一定门槛。
    在这里插入图片描述

    Streaming SQL+Delta Lake 实时入湖方案
    阿里云 E-MapReduce 团队提供了一种新的 CDC 解决方案, 利用自研的 Streaming SQL 搭配 Delta Lake 可以轻松 实 现 C D C 实 时 入 湖 。 这 套 解 决 方 案 同 时 通 过 阿 里 云 最 新 发 布 的 数 据 湖 构 建( Data Lake Formation, DLF) 服务提供一站式的入湖体验。
    在这里插入图片描述
    Spark Streaming SQL 在 Spark Structured Streaming 之上提供了 SQL 能力,降低了实时业务开发的门槛, 使得离线业务实时化更简单方便。Delta Lake 是 Databricks 开源的一种数据湖格式, 它在 parquet 格式之上, 提供了ACID 事务/元数据管理等能力, 同时相比parquet 具有更好的性能, 能够支持更丰富的数据应用场景(如数据更新/schema 演化等)。
    E-MapReduce 团队在开源 Delta Lake 基础上做了很多功能和性能的优化, 如小文件合并 Optimize/DataSkipping/Zorder, SparkSQL/Streaming SQL/Hive/Presto 深度集成 Delta 等
    在这里插入图片描述
    Spark Streaming SQL 提供了 Merge Into 的语法, 搭配 Delta Lake 的实时写入能力, 可以很方便的实现 CDC 实时入湖方案。

    在这里插入图片描述

    展开全文
  • 原生背景介绍与思考 图是基于 ECS 底座的 EMR 架构, 这是一套非常完整的开源大数据生态, 也是近 10 年来每个数字化企业必不可少的开源大数据解决方案。 主要分为以下几层: ECS 物理资源层, 也就是 Iaas 层。...
  • 阿里首次发布原生数据湖体系,基于对象存储OSS、数据湖构建Data Lake Formation和E-MapReduce产品的强强组合,提供存储与计算分离架构下,涵盖湖存储、湖加速、湖管理和湖计算的企业级数据湖解决方案。...
  • 中小站长来说,一般购买了服务器之后,可以自己在服务器ECS上搭建数据库,并不需要另外购买数据库。但是当网站的数据量规模已经大到一定程度之后,这种应用与数据库不分离的模式就会显露弊端了,会出现...
  • Jindo 是阿里基于 Apache Spark / Apache Hadoop 在上定制的分布式计算和存储引擎。 Jindo 原是阿里 开源大数据团队的内部... JindoFS 完全兼容 Hadoop 文件系统接口, 给客户带来更加灵活、 高效的数据湖加速方
  • 小程序开发登录,存用户的数据数据库

    千次阅读 多人点赞 2020-05-21 18:08:24
    建立一个函数getOpenid , 获取用户openid // 函数入口文件 const cloud = require('wx-server-sdk') cloud.init() // 函数入口函数 exports.main = async (event, context) => { const wxContext = ...
  • 华为云MySQL数据库,轻松助力数据上云

    千次阅读 多人点赞 2022-03-11 10:09:24
    目前在开发中比较常使用的也是华为数据库RDS,该数据库RDS支持以下引擎: MySQL PostgreSQL SQL Server 今天我主要和大家分享一下华为MySQL数据库,数据库MySQL拥有稳定可靠、安全运行、弹性伸缩、...
  • 有的朋友在地理空间数据云下载的dem数据显示光盘映像已损坏、 打不开,其实地理空间数据云下载的dem数据,都是img格式的。 (Tips:地理空间数据云现在需要注册才能下载,建议通过QQ登陆,不需要验证邮箱,邮箱...
  • 什么原生

    千次阅读 2022-07-11 23:20:12
    技术的变革,一定是思想先行,原生是一种构建和运行应用程序的方法,是一套...Native表示应用程序从设计之初即考虑到的环境,原生为云而设计,在上以最佳姿势运行,充分利用和发挥平台的弹性+分布式优势。...
  • 阿里产品之数据中台架构

    千次阅读 2020-07-22 17:53:32
    客户打包买了很多阿里的产品,但是阿里不负责实施,基于阿里产品与客户需求,拟采用的数据中台架构,有类似需求的,可以参考下,拿走不谢! 2. 解决方案 阿里产品数据中台架构图: 从下到上,简要介绍下各个...
  • 数据湖的定义:wikipedia 中对于数据湖的定义是: “ A data lake is a system or repository of data stored in its natural/raw format, usually object blobs or files. A data lake is usually a single store ...
  • 数据中心与云数据中心

    千次阅读 2020-09-11 17:43:36
    数据中心与云数据中心 数据中心(DC,DataCenter)是指在一个物理空间内实现信息的集中处理、存储、传输、管理等功能,它包括服务器、存储、网络等关键设备和这些关键设备运行所需要的环境因素,如供电、制冷、消防...
  • 最近遇到了一个需求:单片机上传数据到阿里物联网平台,手机端或者网页端能够从物联网平台获取数据并显示到出来,再加一个手机端/网页端通过物联网平台控制单片机。 最终采用了阿里物联网平台提供的方法,使用...
  • 给大家分享一个数据分析方面的教程视频吧,来源于网络,目录如下。请大家支持正版!七周成为数据分析师_课件7.126 Python练习(9).mp424.9M4.47图表绘制[houtouke.com].mp417.6M7.124 Python练习(7).mp444M6.79分...
  • 腾讯服务器被封怎么办?解决方案来了!
  • 目录 MQTT协议简单介绍(每句都是干货) 手把手流程 服务器:阿里物联网平台 客户端:MQTTfx 后记 ... 后续继续记录如何将阿里物联网平台数据存到阿里的数据库中。 研究生了才抓紧学习,努力努力 欢迎交流讨论
  • Python3连接阿里物联网设备发送接收数据(树莓派)阿里物联网IOT代码部分库文件Windows下安装环境树莓派安装环境可能遇到的错误代码效果展示 阿里物联网IOT 首先,准备好阿里产品设备的创建 (三码) 创建...
  • 当前以 oracle 代表的数据库中间件已经逐渐无法适应这样的需求, 于是业界也不断的产生新的计算引擎, 以便应对数据时代的到来。 在此背景下, 数据湖的概念被越来越多的人提起, 希望能有一套系统在保留数据的...
  • 使用4G模块EC600S和32单片机实现接入阿里服务器,上传光照数据和下发命令控制LED灯(PC13),同时可以打电话、发短信。 前期准备: 1、首先你得有一个阿里的账号,没有的话就注册一个 2、在物联网平台创建产品和...
  • 中小企业发展指数止跌回升,2022年中小企业走上快成长之路。 本文我就“数据安全”这一层面,通过云计算大厂横向对比,来说明华为安全可靠第一。
  • 阿里云数据盘挂载完整过程

    千次阅读 2022-03-24 14:57:41
    显示数据盘 fdisk -l 数据盘分区 输入fdisk /dev/vdb,然后根据下图的提示,输入n,p,1,回车,回车,wq,保存退出。 /dev/vdb是要挂载的数据盘,在操作系统内核中的名称。 在分区中创建文件系统(格式化) mkfs....
  • uniapp实现微信小程序开发数据库访问,并解决开发数据库获取不到数据问题 使用工具是HBuilder X 1.配置好AppID(小程序ID) 在HBuilder X工具的manifest.js文件种找到微信小程序配置,并配置好AppID 2.设计好...
  • 混合架构中的数据加密

    千次阅读 2021-11-24 14:22:04
    混合架构中的数据加密
  • 本文详细介绍了阿里物联网平台中,利用产品流转来关联设备间的数据的全部过程,可谓是十分详细了,希望能帮助到大家。
  • (Giser源数据获取必备)地理空间数据云 1、背景和历史——平台起源 随着观测技术的迅猛发展,地学数据已经迎来了信息爆炸时代,涌现出了大量的优质数据资源,且多数数据资源都采用友好的数据共享政策。由于受资源...
  • 博主介绍目前市场阿里阿里云云原生关系型数据库 PolarDB MySQL引擎什么是PolarDB产品优势产品架构一写多读计算与存储分离读写分离高速链路互联共享分布式存储数据多副本、Parallel-Raft协议产品安全能力访问安全...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 846,971
精华内容 338,788
热门标签
关键字:

云数据为什么叫云