精华内容
下载资源
问答
  • 在工作当中,我们企业内部SAP顾问,可能会遇到用户提到一种情况 ,就是一旦他自己设置了默认导出表格格式之后,就无法修改,此后的每一次都是原先设定的那种默认格式导出表格文件,但是用户又想使用其他格式导出,...

    6636cac3d2500373bf5f20e9fa43cb0e.png

    在工作当中,我们企业内部SAP顾问,可能会遇到用户提到一种情况 ,就是一旦他自己设置了默认导出表格格式之后,就无法修改,此后的每一次都是原先设定的那种默认格式导出表格文件,但是用户又想使用其他格式导出,这时我们可以确认下用户权限是否存在,然后再按以下方式处理。

    e1487e7c2a7486fbe72ef0474f93409a.png
    报表数据

    6f50e05e5efb7a317076f4a68e87e0b8.png
    导出表格格式选择

    6845e10be6234979f2d7bf24e48f73ce.png

    首先可以查询用户的角色权限,查找对象类BC_A里面一个S_GUI的权限对象,可以单机上方的显示技术名称,

    80b13d8f7b8ac5458dd19c9f9b14a4db.png
    显示技术名称

    98ed67b06448adaa5605b7578aa57449.png
    确定权限对象

    b1cf33b9d5d0f8ddc5a1144b994b8b27.png

    1、首先确定用户有输入输出权限后,就可以排除是权限问题导致的。

    2、这里就好像是一个系统BUG,具体原因不清楚,因为在用户一旦勾选了“始终使用选定的格式”后,SAP会在SALV_BS_ADMIN这张表里生成一个记录COPY,所以用户以后打开每次就使用默认的方式了。

    这里需要注意不同的SAP版本,用户选定格式的信息存放的位置是不一样的。早期的版本是存放在表SALV_BS_ADMIN(R3 ECC6.0),新版本的SAP存放在表SALV_CSQ_PARAMS (S4 HANA)。要让用户可以再次选择电子表格的格式,就必须将用户对应的含有参数名为GUI_ALV_XML_VER 或者 XML_TYPE_GUI_SWITCH的记录从表中删除。

    5ab0dd0d2a0a7b0db3e52d842f0b0cf6.png
    R3 ECC6.0 版本的

    d6ee35b9e321740f95ecc66962177ceb.png
    S4 HANA版本的

    问题是要删除或修改这个选项,SAP没有提供前台操作模式......只有通过非常规手段了,使用SE16N,然后在命令栏输入&SAP_EDIT(或者 /H进入调试模式 ,GD-SAPEDIT = X 、GD-EDIT = X 再F8),回车,再输入表命SALV_BS_ADMIN,选择项里输入对应用户的用户名,进去之后删除掉记录。

    868df663cbdc25d9a977499a52f6e5f6.png
    进入调试模式可以删除表数据

    9dbea2fcbd79d8357f3f2da1518c3909.png
    选中那行记录,点击上方-号图标删除保存即可。

    亦或者,可以通过自定义程序、Debug等方式删除用户对应的记录,另外SAP提供一个标准程序SALV_BS_ADMIN_MAINTAIN来维护,

    859a7d3af5bff4f50fad2ef86364b0b8.png
    R3 ECC6.0

    ef6e3430b7f6552f727685562e3691a6.png
    R3 ECC6.0

    3abe5847f41e84bbb26ae464edaaef76.png
    R3 ECC6.0

    fe891bc0a1e287c7598d3bd952ae532d.png
    S4

    1a90f043988e87aaf0b10c1fd11da930.png
    S4

    同样删除对应用户数据记录即可。删完数据之后 用户即可选择格式导出表格数据了。

    Dancy记于 广州 2020年11月10日

    展开全文
  • 文件格式下面是测试用的文件预览格式,我将其存储为jsonTest.json文件,放在了/root目录下{"_location":"(32.121, 45.262)","_ip":"2.12.1.211","_action":"click button","_uid":"694666ee-8918-48f8-bb92-0a756a3f.....

    hive从0.12版本以后就开始自身支持json文件的格式了

    1.文件格式

    下面是测试用的文件预览格式,我将其存储为jsonTest.json文件,放在了/root目录下

    {"_location":"(32.121, 45.262)","_ip":"2.12.1.211","_action":"click button","_uid":"694666ee-8918-48f8-bb92-0a756a3f1f31","_timestamp":"1496999163163"}

    {"_location":"(32.121, 45.262)","_ip":"7.12.1.211","_action":"click button","_uid":"868be529-f59e-4f16-8ea5-08c4612ede9a","_timestamp":"1496999164165"}

    {"_location":"(32.121, 45.262)","_ip":"2.12.1.211","_action":"click button","_uid":"49b63380-2a5a-453d-aa5b-57e74cd1a8d7","_timestamp":"1496999165170"}

    {"_location":"(32.121, 45.262)","_ip":"3.12.1.211","_action":"click button","_uid":"60fd093a-9f6a-4716-81c6-72a5f07d3b4f","_timestamp":"1496999166171"}

    {"_location":"(32.121, 45.262)","_ip":"3.12.1.211","_action":"click button","_uid":"056cf558-56b1-4312-aba1-0b0eb71ba78e","_timestamp":"1496999167172"}

    {"_location":"(32.121, 45.262)","_ip":"8.12.1.211","_action":"click button","_uid":"a2ecd34c-5458-43a2-b851-89eb6b3985ae","_timestamp":"1496999168174"}

    注意: 一行之内必须是完整的一条json文件,否则会解析出错误

    2.创建hive表

    CREATE TABLE IF NOT EXISTS jsonTest

    (

    `_location` STRING,

    `_ip` STRING,

    `_action` STRING,

    `_uid` STRING,

    `_timestamp` STRING)

    ROW FORMAT SERDE 'org.apache.hive.hcatalog.data.JsonSerDe'

    STORED AS TEXTFILE;

    注意: “符号是因为列明里面是下划线开头;并且列明需要与json文件中的key对应,否则也会解析不到数据.

    3.加载数据

    LOAD DATA LOCAL INPATH "/root/jsonTest.json" OVERWRITE INTO TABLE jsonTest;

    4.查询数据进行校验

    hive> select * from jsonTest_test;

    OK

    (32.121, 45.262) 2.12.1.211 click button 54490a2f-376a-43e3-9658-e9a3d6583ffd 1496999162153

    (32.121, 45.262) 2.12.1.211 click button 694666ee-8918-48f8-bb92-0a756a3f1f31 1496999163163

    (32.121, 45.262) 7.12.1.211 click button 868be529-f59e-4f16-8ea5-08c4612ede9a 1496999164165

    (32.121, 45.262) 2.12.1.211 click button 49b63380-2a5a-453d-aa5b-57e74cd1a8d7 1496999165170

    (32.121, 45.262) 3.12.1.211 click button 60fd093a-9f6a-4716-81c6-72a5f07d3b4f 1496999166171

    (32.121, 45.262) 3.12.1.211 click button 056cf558-56b1-4312-aba1-0b0eb71ba78e 1496999167172

    (32.121, 45.262) 8.12.1.211 click button a2ecd34c-5458-43a2-b851-89eb6b3985ae 1496999168174

    Time taken: 0.439 seconds, Fetched: 7 row(s)

    可以看到数据已经成功解析出来

    问题

    1.出现下面错误

    FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. Cannot validate serde: org.apache.hive.hcatalog.data.JsonSerDe

    需要将支持序列化的hive-hcatalog-core.jar添加进来,执行如下命令即可解决该问题.(找到自己安装的目录即可,我的是在这个目录里)

    hive> add jar /opt/cloudera/parcels/CDH-5.11.0-1.cdh5.11.0.p0.34/lib/hive-hcatalog/share/hcatalog/hive-hcatalog-core.jar;

    展开全文
  • {"txt":"Hive 迁移 Spark","link":"https://yq.aliyun.com/articles/686004"}],"countinfo":{"search":{"length_pc":0,"length":0},"card":{"length_pc":0,"length":0}},"$tmsId":"tce/2192240"}

    {"moduleinfo":{"card_count":[{"count_phone":1,"count":1}],"search_count":[{"count_phone":4,"count":4}]},"card":[{"des":"X-Pack Spark分析引擎支持批量和流式入库、复杂分析、机器学习等场景。同时提供调度,作业管理,交互查询,自动告警等能力。相比自建在性能、免运维、易用性,可靠性等各方面全面提升。","link1":"https://help.aliyun.com/document_detail/93899.html","link":"https://help.aliyun.com/document_detail/93899.html","icon":"https://img.alicdn.com/tfs/TB1afahQpXXXXaAapXXXXXXXXXX-114-114.png","btn2":"技术专家服务群","btn1":"立即查看","link2":"https://yq.aliyun.com/articles/82911?spm=5176.124785.631202.btn6.727752c0imIsiF","title":"X-Pack Spark 分析引擎"}],"search":[{"txt":"X-Pack Spark 分析 POLARDB","link":"https://yq.aliyun.com/articles/690754"},{"txt":"X-Pack Spark 分析 HBase","link":"https://help.aliyun.com/document_detail/93899.html"},{"txt":"X-Pack Spark 分析 Mongo","link":"https://help.aliyun.com/document_detail/109135.html"},{"txt":"Hive 迁移 Spark","link":"https://yq.aliyun.com/articles/686004"}],"countinfo":{"search":{"length_pc":0,"length":0},"card":{"length_pc":0,"length":0}},"$tmsId":"tce/2192240"}

    展开全文
  • 问题描述:数据是json格式存储的,需要创建一张hive表支持json格式(1)低版本的hive创建json格式的表,需要add jar...,hive2.3.0版本默认支持json格式的表(2)创建json格式的表需要建表语句加ROW FORMAT SERDE 'org....

    问题描述:数据是json格式存储的,需要创建一张hive表支持json格式

    (1)低版本的hive创建json格式的表,需要add jar...,hive2.3.0版本默认支持json格式的表

    (2)创建json格式的表需要建表语句加

    ROW FORMAT SERDE 'org.apache.hive.hcatalog.data.JsonSerDe'

    STORED AS TEXTFILE

    完整sql如下:

    CREATE EXTERNAL TABLE `test_json`(

    字段 类型 ...)

    PARTITIONED BY ( 分区..)

    ROW FORMAT SERDE 'org.apache.hive.hcatalog.data.JsonSerDe'

    STORED AS TEXTFILE

    LOCATION '...';

    (3)虽然hive2.3.0直接支持建json格式的表,也支持select *,但是select count(1) 操作时候会报错找不到org.apache.hive.hcatalog.data.JsonSerDe

    解决办法:

    在hive-site.xml中添加如下配置,重启hive后,恢复正常

    hive.aux.jars.path

    /home/hadoop/apache-hive-2.3.2-bin/hcatalog/share/hcatalog/hive-hcatalog-core-2.3.2.jar

    展开全文
  • Hive支持完全json格式的数据现有json格式的数据test.txt,如下{"name":"zhang","age":"20","sex":"man"}{"name":"li","age":"21","sex":"man"}{"name":"wu","age":"18","sex":"woman"}将test.txt上传到hdfs中...
  • 看了一篇使用hive解析json报错的文章,在平台中试了一下发现没问题,如果报错,可能在yarn中缺少org.apache.hive.hcatalog.data.JsonSerDe类,以下是测试过程一、声明1、创建表create table if not exists temp....
  • hive中对于json的数据格式,可以使用get_json_object或json_tuple先解析然后查询。也可以直接在hive中创建json格式的表结构,这样就可以直接查询,实战如下(hive-2.3.0版本):1. 准备数据源将以下内容保存为test....
  • hive 避免不了Jason格式的话,可以使用如下两个函数HIVE直接读入json的函数有两个:(1)get_json_object(string json_string, string path)返回值:string说明:解析json的字符串json_string,返回path指定的内容。...
  • 本文旨在快速学习或者回顾hive常用知识,阅读本文档需要二十分钟,完成后你将上手hive。内部表和外部表内部表(managed table)默认创建的是内部表...导入数据的时候是将文件剪切(移动)到指定位置,即原有路径下文...
  • beeline和hiveserver2(2)hive系列之基本操作(3)hive系列之udf(4)hive系列之二级分区和动态分区(5)hive系列之分桶表(6)hive系列之...压缩格式(9)hive系列之数据仓库建模理论(10)hive系列之数据仓库建模...
  • 我的经验是使用杰克逊库(http://jackson.codehaus.org/),你创建一个POJO来映射json格式。所以一旦你从你的配置单元查询中得到了ResultSet,你就可以迭代它并使用Jackson创建POJO的对象。/**--JACKSON Class--**/...
  • I have a JSON file like below, which I want to load in a HIVE table with parsed format, what are possible options I can go for.If it is AVRO then I could have used directly AvroSerDe. But the source f...
  • 例如:我们将这个环境的数据库中用户信息导出为一份json格式文件,再直接将json文件复制到另一个环境导入到数据库,这样可以达到我们的目的。下面我将使用springboot搭建用户数据信息的导入导出案例,实现了单用户和...
  • 前言在2.2里程碑中我们增加了一些新的功能,正如标题所写通过请求头进行导出我们不同格式文件.下面我们来看一下如何使用.通过这种方式无论是对我们的数据多用途,还是说对我们的数据校验都做到了轻松易配。同时我们...
  • Git文件状态描述 检查当前文件状态 [root@typhoeus79 ice_test_m git_test]# git status # On branch master nothing to commit (wor ... XML异常 1....
  • hive默认是以tab为分隔符,分隔各个输出字段,如hive> select get_json_object(json.value,'$.hour'),get_json_object(json.value,"$.channel") from json limit 10;Total MapReduce jobs = 1Launching Job 1 out...
  • 一、将hive表数据查询出来转为json对象输出1、将查询出来的数据转为一行一行,并指定分割符的数据2、使用UDF函数,将每一行数据作为string传入UDF函数中转换为json再返回1、准备数据2、查询出来的数据转为一行一行,...
  • 用python做一个转换我原想用python pandas.read_json来读取,但是发现读不出来,因为以前也确实没做过json的读取应该是格式不对,需要重新清洗。思路:既然每行是一个json对象,那么把每一行都导入到一个list里,...
  • 写在开头本章是Hive教程第三部分归纳,着重于数据操作命令文章内容输出来源:拉勾教育大数据高薪训练营HQL操作之—数据操作第 1 节 数据导入第一步就是要明确如何装载数据。装载数据(Load)基本语法:LOAD DATA ...
  • 因此,这里稍微分享一下我自己制作数据集的时候如何将json文件提取出png格式的方法吧。至于labelme具体怎么安装和使用, 安装过程参考:https://github.com/wkentaro/labelme使用过程参考:https://blog.csdn.ne...
  • Hive文件格式 TEXTFILE 默认格式,数据不进行任何压缩 存储方式:行存储 磁盘开销大,数据解析开销大 Hive不会对其进行切分,无法对数据进行并行操作 SEQUENCEFILE 二进制文件,以<key,value>形式序列...
  • Hive文件格式TEXTFILE默认格式,数据不进行任何压缩存储方式:行存储磁盘开销大,数据解析开销大Hive不会对其进行切分,无法对数据进行并行操作SEQUENCEFILE二进制文件,以<key,value>形式序列化到文件中存储...
  • Hive文件格式TEXTFILE默认格式,数据不进行任何压缩存储方式:行存储磁盘开销大,数据解析开销大Hive不会对其进行切分,无法对数据进行并行操作SEQUENCEFILE二进制文件,以<key,value>形式序列化到文件中存储...

空空如也

空空如也

1 2 3 4 5 ... 8
收藏数 153
精华内容 61
关键字:

hive导出文件格式