精华内容
下载资源
问答
  • Hive函数

    千次阅读 2016-09-16 18:17:37
    Hive函数分为简单函数、窗口函数、分析混合函数、自定义函数(UDF/UDAF)等 查看Hive中函数基本命令 show functions ----列出所有函数 desc function count ----查看count函数的用法 desc function extended count -...

    Hive函数分为简单函数、窗口函数、分析混合函数、自定义函数(UDF/UDAF)等

    本文主要介绍简单函数和分析混合函数

    查看Hive中函数基本命令
    show functions   ----列出所有函数
    desc function count   ----查看count函数的用法
    desc function extended count  ---查看详细用法,并且会举出一个简单例子

    简单函数

    1.if函数

    hive> select if(1=2,"true","false");            ----如果第一个参数成立,返回第二个参数,否则返回第三个参数
    false


    
    
    2.coalesce函数
    hive> select coalesce(null,1,'hello',null);           -----返回参数列表中第一个不为空的值,参数列表可以有多个
    1



    3.case when
    语法:case when a then b [when c then d]* [else e] end
    判断a表达式若成立,执行b,若不成立判断c,c成立返回d,否则返回e。c部分可以有多个也可以一个都没有

    hive> select case when 1=2 then 'true' when 1>0 then 'yes' else 'no' end  ;
    yes  
    hive> select case when 1=2 then 'true' else 'false' end
    false
    hive> select case when 1=2 then 'true' end
    NULL         ---因为1不等于2,语句中没显示指定返回的值,所以系统返回NULL
    
    4.concat_ws
    hive> select concat_ws('.','www','baidu','com');
    www.baidu.com              ---拼接函数,将参数列表后几个参数用第一个参数拼接起来

    5.parse_url
    hive> select parse_url('http://facebook.com/path/p1.php?query=1', 'HOST') ;
    facebook.com
    hive> select parse_url('http://facebook.com/path/p1.php?query=1', 'QUERY') ;
    query=1
    hive> select parse_url('http://facebook.com/path/p1.php?query=1', 'QUERY','query') ;
    1
    类似的参数还有PATH、PROTOCOL、FILE等,可通过desc function extended parse_url
    
    

    6.get_json_object
    hive> select get_json_object('{"name":"jack"}','$.name');
    jack
    -----第一个参数是传入的json字符串,第二个是需要指定获取的json的key


    
    7.collect_set和collect_list用法可见另外一片博文Hive的Collect函数

    混合函数

    Hive中也可以直接调用Java中的方法,一般可借助java_method函数或reflect函数
    hive> select java_method("java.lang.Math","sqrt",cast(4 as double));
    2.0
    hive> select java_method("java.util.UUID","randomUUID");
    45bd610f-5020-4b46-80a2-22044e908dce
    hive> select reflect("java.lang.Object","toString");
    java.lang.Object@78a981a1










    展开全文
  • hive 函数

    千次阅读 2020-04-28 08:05:21
    内置函数 内容较多,见《Hive官方文档》 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF 1)查看系统自带的函数 hive> show functions; 2)显示自带的函数的用法 hive> desc ...

    内置函数

    内容较多,见《Hive官方文档》

    https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF

    1)查看系统自带的函数

    hive> show functions;

    2)显示自带的函数的用法

    hive> desc function upper;

    3)详细显示自带的函数的用法

    hive> desc function extended upper;

    Hive自定义函数

    1)Hive 自带了一些函数,比如:max/min等,但是数量有限,自己可以通过自定义UDF来方便的扩展。

    2)当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。

    3)根据用户自定义函数类别分为以下三种:

           1UDFUser-Defined-Function

                  一进一出

           (2)UDAF(User-Defined Aggregation Function)

                  聚集函数,多进一出

                  类似于:count/max/min

           (3)UDTF(User-Defined Table-Generating Functions)

                  一进多出

                  如lateral view explore()

    4)官方文档地址

    https://cwiki.apache.org/confluence/display/Hive/HivePlugins

    5)编程步骤:

           1)继承org.apache.hadoop.hive.ql.UDF

           2)需要实现evaluate函数;evaluate函数支持重载;

    6)注意事项

           (1)UDF必须要有返回类型,可以返回null,但是返回类型不能为void;

           2UDF中常用Text/LongWritable等类型,不推荐使用java类型;

     

     

     

    UDF开发实例

    简单UDF示例

    第一步:创建maven  java 工程,导入jar包

    <repositories>
        <repository>
            <id>cloudera</id>
     <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
        </repository>
    </repositories>
    <dependencies>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.6.0-cdh5.14.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-exec</artifactId>
            <version>1.1.0-cdh5.14.0</version>
        </dependency>
    </dependencies>
    <build>
    <plugins>
        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-compiler-plugin</artifactId>
            <version>3.0</version>
            <configuration>
                <source>1.8</source>
                <target>1.8</target>
                <encoding>UTF-8</encoding>
            </configuration>
        </plugin>
         <plugin>
             <groupId>org.apache.maven.plugins</groupId>
             <artifactId>maven-shade-plugin</artifactId>
             <version>2.2</version>
             <executions>
                 <execution>
                     <phase>package</phase>
                     <goals>
                         <goal>shade</goal>
                     </goals>
                     <configuration>
                         <filters>
                             <filter>
                                 <artifact>*:*</artifact>
                                 <excludes>
                                     <exclude>META-INF/*.SF</exclude>
                                     <exclude>META-INF/*.DSA</exclude>
                                     <exclude>META-INF/*/RSA</exclude>
                                 </excludes>
                             </filter>
                         </filters>
                     </configuration>
                 </execution>
             </executions>
         </plugin>
    </plugins>
    </build>
    
    

     

    第二步:开发java类继承UDF,并重载evaluate 方法

    public class ItcastUDF extends UDF {
        public Text evaluate(final Text s) {
            if (null == s) {
                return null;
            }
            //返回大写字母
            return new Text(s.toString().toUpperCase());
    
        }
    }
    
    

     

    第三步:将我们的项目打包,并上传到hive的lib目录下

     

     

    第四步:添加我们的jar包

    重命名我们的jar包名称

    cd /export/servers/hive-1.1.0-cdh5.14.0/lib
    
    mv original-day_06_hive_udf-1.0-SNAPSHOT.jar udf.jar
    
    

    hive的客户端添加我们的jar包

    add jar /export/servers/hive-1.1.0-cdh5.14.0/lib/udf.jar;

     

    第五步:设置函数与我们的自定义函数关联

    创建临时函数

    create temporary function tolowercase as 'cn.itcast.udf.ItcastUDF';

     

    删除临时函数

    drop temporary function tolowercase
    
    

     

    创建永久函数

    create function tolowercase1 as 'cn.itcast.udf.ItcastUDF';

    删除永久函数

    drop   function tolowercase1;

     

     

    第六步:使用自定义函数

    select tolowercase('abc');

     

    展开全文
  • hive函数

    2020-10-28 21:22:20
    系统内置函数 1)查看系统自带的函数 hive> show functions; 2)显示自带的函数的用法 hive> desc function upper; 3)详细显示自带的函数的用法 hive> desc function extended upper; 常用内置函数 ...

    系统内置函数

    1)查看系统自带的函数

    hive> show functions;
    

    2)显示自带的函数的用法

    hive> desc function upper;
    

    3)详细显示自带的函数的用法

    hive> desc function extended upper;
    

    常用内置函数

    8.2.1 空字段赋值
    1)函数说明
    NVL:给值为NULL的数据赋值,它的格式是NVL( value,default_value)。它的功能是如果value为NULL,则NVL函数返回default_value的值,否则返回value的值,如果两个参数都为NULL ,则返回NULL。
    2)数据准备:采用员工表
    3)查询:如果员工的comm为NULL,则用-1代替

    hive (default)> select comm,nvl(comm, -1) from emp;
    OK
    comm    _c1
    NULL    -1.0
    300.0   300.0
    500.0   500.0
    NULL    -1.0
    1400.0  1400.0
    NULL    -1.0
    NULL    -1.0
    NULL    -1.0
    NULL    -1.0
    0.0     0.0
    NULL    -1.0
    NULL    -1.0
    NULL    -1.0
    NULL    -1.0
    

    4)查询:如果员工的comm为NULL,则用领导id代替

    hive (default)> select comm, nvl(comm,mgr) from emp;
    OK
    comm    _c1
    NULL    7902.0
    300.0   300.0
    500.0   500.0
    NULL    7839.0
    1400.0  1400.0
    NULL    7839.0
    NULL    7839.0
    NULL    7566.0
    NULL    NULL
    0.0     0.0
    NULL    7788.0
    NULL    7698.0
    NULL    7566.0
    NULL    7782.0
    

    CASE WHEN THEN ELSE END

    1)数据准备

    name	dept_id	sex
    悟空	A	男
    大海	A	男
    宋宋	B	男
    凤姐	A	女
    婷姐	B	女
    婷婷	B	女
    

    2)需求
    求出不同部门男女各多少人。结果如下:

    dept_Id     男       女
    A     		2       1
    B     		1       2
    

    3)创建本地emp_sex.txt,导入数据

    [atguigu@hadoop102 datas]$ vi emp_sex.txt
    悟空	A	男
    大海	A	男
    宋宋	B	男
    凤姐	A	女
    婷姐	B	女
    婷婷	B	女
    

    4)创建hive表并导入数据

    create table emp_sex(
    name string, 
    dept_id string, 
    sex string) 
    row format delimited fields terminated by "\t";
    load data local inpath '/opt/module/hive/datas/emp_sex.txt' into table emp_sex;
    

    5)按需求查询数据

    select 
      dept_id,
      sum(case sex when '男' then 1 else 0 end) male_count,
      sum(case sex when '女' then 1 else 0 end) female_count
    from 
      emp_sex
    group by
      dept_id;
    

    行转列

    1)相关函数说明
    CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字符串;
    CONCAT_WS(separator, str1, str2,…):它是一个特殊形式的 CONCAT()。第一个参数剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间;
    注意: CONCAT_WS must be "string or array
    COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生array类型字段。
    2)数据准备

    name	constellation	blood_type
    孙悟空	白羊座	A
    大海	射手座	A
    宋宋	白羊座	B
    猪八戒	白羊座	A
    凤姐	射手座	A
    

    苍老师 白羊座 B
    3)需求
    把星座和血型一样的人归类到一起。结果如下:

    射手座,A            大海|凤姐
    白羊座,A            孙悟空|猪八戒
    白羊座,B            宋宋|苍老师
    

    4)创建本地constellation.txt,导入数据

    [atguigu@hadoop102 datas]$ vim person_info.txt
    孙悟空	白羊座	A
    大海	射手座	A
    宋宋	白羊座	B
    猪八戒	白羊座	A
    凤姐	射手座	A
    苍老师	白羊座	B
    

    5)创建hive表并导入数据

    create table person_info(
    name string, 
    constellation string, 
    blood_type string) 
    row format delimited fields terminated by "\t";
    load data local inpath "/opt/module/hive/datas/person_info.txt" into table person_info;
    

    6)按需求查询数据

    SELECT t1.c_b , CONCAT_WS("|",collect_set(t1.name))
    FROM (
    SELECT NAME ,CONCAT_WS(',',constellation,blood_type) c_b
    FROM person_info
    )t1 
    GROUP BY t1.c_b
    

    列转行

    1)函数说明
    EXPLODE(col):将hive一列中复杂的array或者map结构拆分成多行。
    LATERAL VIEW
    用法:LATERAL VIEW udtf(expression) tableAlias AS columnAlias
    解释:用于和split, explode等UDTF一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。
    2)数据准备
    表6-7 数据准备

    movie	category
    《疑犯追踪》	悬疑,动作,科幻,剧情
    《Lie to me》	悬疑,警匪,动作,心理,剧情
    《战狼2》	战争,动作,灾难
    

    3)需求
    将电影分类中的数组数据展开。结果如下:

    《疑犯追踪》      悬疑
    《疑犯追踪》      动作
    《疑犯追踪》      科幻
    《疑犯追踪》      剧情
    《Lie to me》   悬疑
    《Lie to me》   警匪
    《Lie to me》   动作
    《Lie to me》   心理
    《Lie to me》   剧情
    《战狼2》        战争
    《战狼2》        动作
    《战狼2》        灾难
    

    4)创建本地movie.txt,导入数据

    [atguigu@hadoop102 datas]$ vi movie_info.txt
    《疑犯追踪》	悬疑,动作,科幻,剧情
    《Lie to me》	悬疑,警匪,动作,心理,剧情
    《战狼2》	战争,动作,灾难
    

    5)创建hive表并导入数据

    create table movie_info(
        movie string, 
        category string) 
    row format delimited fields terminated by "\t";
    load data local inpath "/opt/module/hive/datas/movie_info.txt" into table movie_info;
    

    6)按需求查询数据

    SELECT movie,category_name 
    FROM movie_info 
    lateral VIEW
    explode(split(category,",")) movie_info_tmp  AS category_name ;
    

    窗口函数(开窗函数)

    1)相关函数说明
    OVER():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变而变化。
    CURRENT ROW:当前行
    n PRECEDING:往前n行数据
    n FOLLOWING:往后n行数据
    UNBOUNDED:起点,
    UNBOUNDED PRECEDING 表示从前面的起点,
    UNBOUNDED FOLLOWING表示到后面的终点
    LAG(col,n,default_val):往前第n行数据
    LEAD(col,n, default_val):往后第n行数据
    NTILE(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从1开始,对于每一行,NTILE返回此行所属的组的编号。注意:n必须为int类型。
    2)数据准备:name,orderdate,cost

    jack,2017-01-01,10
    tony,2017-01-02,15
    jack,2017-02-03,23
    tony,2017-01-04,29
    jack,2017-01-05,46
    jack,2017-04-06,42
    tony,2017-01-07,50
    jack,2017-01-08,55
    mart,2017-04-08,62
    mart,2017-04-09,68
    neil,2017-05-10,12
    mart,2017-04-11,75
    neil,2017-06-12,80
    mart,2017-04-13,94
    

    3)需求
    (1)查询在2017年4月份购买过的顾客及总人数
    (2)查询顾客的购买明细及月购买总额
    (3)上述的场景, 将每个顾客的cost按照日期进行累加
    (4)查询每个顾客上次的购买时间
    (5)查询前20%时间的订单信息
    4)创建本地business.txt,导入数据

    [atguigu@hadoop102 datas]$ vi business.txt
    

    5)创建hive表并导入数据

    create table business(
    name string,
    orderdate string,
    cost int
    ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';
    load data local inpath "/opt/module/hive/datas/business.txt" into table business;
    

    6)按需求查询数据
    (1)查询在2017年4月份购买过的顾客及总人数

    select name,count(*) over () 
    from business
    where substring(orderdate,1,7) = '2017-04'
    group by name;
    

    (2)查询顾客的购买明细及月购买总额

    select name,orderdate,cost,sum(cost) over(partition by month(orderdate)) from
    business;
    

    (3)将每个顾客的cost按照日期进行累加

    select name,orderdate,cost,
    sum(cost) over() as sample1,--所有行相加
    sum(cost) over(partition by name) as sample2,--按name分组,组内数据相加 
    sum(cost) over(partition by name order by orderdate) as sample3,--按name分组,组内数据累加
    sum(cost) over(partition by name order by orderdate rows between UNBOUNDED PRECEDING and current row ) as sample4 ,--和sample3一样,由起点到当前行的聚合
    sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING and current row) as sample5, --当前行和前面一行做聚合
    sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING AND 1 FOLLOWING ) as sample6,--当前行和前边一行及后面一行
    sum(cost) over(partition by name order by orderdate rows between current row and UNBOUNDED FOLLOWING ) as sample7 --当前行及后面所有行
    from business;
    rows必须跟在Order by 子句之后,对排序的结果进行限制,使用固定的行数来限制分区中的数据行数量
    

    (4)查看顾客上次的购买时间

    select name,orderdate,cost,
    lag(orderdate,1,'1900-01-01') over(partition by name order by orderdate ) as time1, lag(orderdate,2) over (partition by name order by orderdate) as time2 
    from business;
    

    (5)查询前20%时间的订单信息

    select * from (
        select name,orderdate,cost, ntile(5) over(order by orderdate) sorted
        from business
    ) t
    where sorted = 1;
    

    Rank

    1)函数说明
    RANK() 排序相同时会重复,总数不会变
    DENSE_RANK() 排序相同时会重复,总数会减少
    ROW_NUMBER() 会根据顺序计算
    2)数据准备

    name	subject	score
    孙悟空	语文	87
    孙悟空	数学	95
    孙悟空	英语	68
    大海	语文	94
    大海	数学	56
    大海	英语	84
    宋宋	语文	64
    宋宋	数学	86
    宋宋	英语	84
    婷婷	语文	65
    婷婷	数学	85
    婷婷	英语	78
    

    3)需求
    计算每门学科成绩排名。
    4)创建本地score.txt,导入数据

    [atguigu@hadoop102 datas]$ vi score.txt
    

    5)创建hive表并导入数据

    create table score(
    name string,
    subject string, 
    score int) 
    row format delimited fields terminated by "\t";
    load data local inpath '/opt/module/hive/datas/score.txt' into table score;
    

    6)按需求查询数据

    select name,
    subject,
    score,
    rank() over(partition by subject order by score desc) rp,
    dense_rank() over(partition by subject order by score desc) drp,
    row_number() over(partition by subject order by score desc) rmp
    from score;
    
    name    subject score   rp      drp     rmp
    孙悟空  数学    95      1       1       1
    宋宋    数学    86      2       2       2
    婷婷    数学    85      3       3       3
    大海    数学    56      4       4       4
    宋宋    英语    84      1       1       1
    大海    英语    84      1       1       2
    婷婷    英语    78      3       2       3
    孙悟空  英语    68      4       3       4
    大海    语文    94      1       1       1
    孙悟空  语文    87      2       2       2
    婷婷    语文    65      3       3       3
    宋宋    语文    64      4       4       4
    

    扩展:求出每门学科前三名的学生?

    常用日期函数

    unix_timestamp:返回当前或指定时间的时间戳

    select unix_timestamp();
    select unix_timestamp("2020-10-28",'yyyy-MM-dd');
    

    from_unixtime:将时间戳转为日期格式

    select from_unixtime(1603843200);
    

    current_date:当前日期

    select current_date;
    

    current_timestamp:当前的日期加时间

    select current_timestamp;
    

    to_date:抽取日期部分

    select to_date('2020-10-28 12:12:12');
    

    year:获取年

    select year('2020-10-28 12:12:12');
    

    month:获取月

    select month('2020-10-28 12:12:12');
    

    day:获取日

    select day('2020-10-28 12:12:12');
    

    hour:获取时

    select hour('2020-10-28 12:12:12');
    

    minute:获取分

    select minute('2020-10-28 12:12:12');
    

    second:获取秒

    select second('2020-10-28 12:12:12');
    

    weekofyear:当前时间是一年中的第几周

    select weekofyear('2020-10-28 12:12:12');
    

    dayofmonth:当前时间是一个月中的第几天

    select dayofmonth('2020-10-28 12:12:12');
    

    months_between: 两个日期间的月份

    select months_between('2020-04-01','2020-10-28');
    

    add_months:日期加减月

    select add_months('2020-10-28',-3);
    

    datediff:两个日期相差的天数

    select datediff('2020-11-04','2020-10-28');
    

    date_add:日期加天数

    select date_add('2020-10-28',4);
    

    date_sub:日期减天数

    select date_sub('2020-10-28',-4);
    

    last_day:日期的当月的最后一天

    select last_day('2020-02-30');
    

    date_format(): 格式化日期

    select date_format('2020-10-28 12:12:12','yyyy/MM/dd HH:mm:ss');
    

    常用取整函数
    round: 四舍五入

    select round(3.14);
    select round(3.54);
    

    ceil: 向上取整

    select ceil(3.14);
    select ceil(3.54);
    

    floor: 向下取整

    select floor(3.14);
    select floor(3.54);
    

    常用字符串操作函数
    upper: 转大写

    select upper('low');
    

    lower: 转小写

    select lower('low');
    

    length: 长度

    select length("atguigu");
    

    trim: 前后去空格

    select trim(" atguigu ");
    

    lpad: 向左补齐,到指定长度

    select lpad('atguigu',9,'g');
    

    rpad: 向右补齐,到指定长度

    select rpad('atguigu',9,'g');
    

    regexp_replace:使用正则表达式匹配目标字符串,匹配成功后替换!

    SELECT regexp_replace('2020/10/25', '/', '-');
    

    集合操作
    size: 集合中元素的个数

    select size(friends) from test3;
    

    map_keys: 返回map中的key

    select map_keys(children) from test3;
    

    map_values: 返回map中的value

    select map_values(children) from test3;
    

    array_contains: 判断array中是否包含某个元素

    select array_contains(friends,'bingbing') from test3;
    

    sort_array: 将array中的元素排序

    select sort_array(friends) from test3;
    
    展开全文
  • Hive 函数

    2018-06-18 22:11:04
    1 系统自带的函数 1 查看系统自带的函数 hive&gt; show functions; 2 显示自带的函数的用法 hive&gt; desc function upper;...1 Hive 自带了一些函数,比如: max/min 等,但是数量有限,自己可...

    1 系统自带的函数
    1 查看系统自带的函数
    hive> show functions;

    2 显示自带的函数的用法
    hive> desc function upper;

    3 详细显示自带的函数的用法
    hive> desc function extended upper;

    2 自定义函数
    1 Hive 自带了一些函数,比如: max/min 等,但是数量有限,自己可以通过自定义 UDF来方便的扩展。

    2 当 Hive 提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF: user-defined function)。

    3 根据用户自定义函数类别分为以下三种:
    1) UDF(User-Defined-Function)
    一进一出
    2) UDAF(User-Defined Aggregation Function)
    聚集函数,多进一出
    类似于: count/max/min
    3) UDTF(User-Defined Table-Generating Functions)
    一进多出
    如 lateral view explore()

    4 官方文档地址
    https://cwiki.apache.org/confluence/display/Hive/HivePlugins

    5 编程步骤:
    1)继承 org.apache.hadoop.hive.ql.UDF
    2)需要实现 evaluate 函数; evaluate 函数支持重载;
    3)在 hive 的命令行窗口创建函数
    (a)添加 jar
    add jar linux_jar_path
    (b)创建 function
    create [temporary] function [dbname.]function_name AS class_name;

    4)在 hive 的命令行窗口删除函数
    Drop [temporary] function [if exists] [dbname.]function_name;

    6 注意事项
    1) UDF 必须要有返回类型,可以返回 null,但是返回类型不能为 void;

    3 自定义 UDF 函数开发案例
    1 创建一个 java 工程

    2 配置pom.xml依赖

    <dependency>
        <groupId>org.apache.hive</groupId>
        <artifactId>hive-exec</artifactId>
        <version>1.2.1</version>
    </dependency>

    3 创建一个类

    package com.da.hive;
    
    import org.apache.hadoop.hive.ql.exec.UDF;
    
    public class Lower extends UDF {
        public String evaluate(final String s) {
            if (s == null) {
                return null;
            }
            return s.toString().toLowerCase();
        }
    }

    4 打成 jar 包上传到服务器/opt/module/jars/udf.jar

    5 将 jar 包添加到 hive 的 classpath
    hive (default)> add jar /opt/module/datas/udf.jar;

    6 创建临时函数与开发好的 java class 关联
    hive (default)> create temporary function my_lower as "com.da.hive.Lower";

    7 即可在 hql 中使用自定义的函数 strip
    hive (default)> select ename, my_lower(ename) lowername from emp;

    展开全文
  • 文章目录4.3 Hive 函数1 内置运算符2 内置函数3 Hive 自定义函数和 Transform 4.3 Hive 函数 1 内置运算符 在 Hive 有四种类型的运算符: 关系运算符 算术运算符 逻辑运算符 复杂运算 (内容较多,见《Hive ...
  • 1.hive内置函数 1.1、内容较多,见《Hive 官方文档》  https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF   1.2、测试内置函数的快捷方式:   第一种方式:直接使用,例如:select ...
  • Hive函数函数及性能优化Hive函数分类内置函数字符函数类型转换函数和数学函数日期函数集合函数条件函数聚合函数和表生成函数Hive UDF开发流程Hive UDF实现Hive事务概述特性特点局限Hive事务的开启和设置Hive ...
  • Hive自定义函数 系统内置函数 1.查看系统自带的函数 hive> show functions; 2.显示自带的函数的用法 hive> desc function upper; 3.详细显示自带的函数的用法 hive> desc function extended upper; ...
  • hive函数 官方pdf

    2018-06-15 11:43:38
    hive函数大全,官方pdf文档,文字很清晰,希望对大家有用
  • Hive(三)Hive 函数

    千次阅读 2020-05-29 16:09:39
    Hive 函数内置函数自定义函数 内置函数 查看系统自带的函数 hive> show functions; 显示自带的函数的用法 hive> desc function upper; 详细显示自带的函数的用法 hive> desc function extended ...
  • Hive函数4.1内置运算符内容较多,见《Hive官方文档》 4.2 内置函数内容较多,见《Hive官方文档》 4.3 Hive自定义函数和Transform当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义...
  • Hive函数详解

    千次阅读 2020-06-05 15:14:28
    日常工作常用的hive函数总结 公司前端hive环境主要用hue,里面内置的有函数文档,正好把这些函数全部总结下,按照内置文档的顺序 一、Aggregate--聚合类 1、avg(col) --返回某一列的平均值 2、count([DISTINCT] ...
  • Hadoop之Hive函数

    千次阅读 热门讨论 2021-05-04 10:09:34
    ????各位小伙伴,大家好,昨天我们学习...这里写目录标题1.Hive函数的分类2.查询系统自带函数3.常用的内置函数3.1 NVL 空字段赋值3.2 CASE WHEN THEN ELSE END3.3 CONCAT (行转列)3.4 EXPLODE(列转行)4.窗口函数参
  • hive函数 查看系统自带的函数 hive> show functions; 显示自带的函数的用法 hive> desc function upper; 详细显示自带的函数的用法 hive> desc function extended upper; hive自定义函数 hive...
  • hive函数大全

    2017-08-20 19:51:32
    非常全的hive函数大全,可以当做一个工具
  • hive函数大全:数值与数学相关函数

    万次阅读 2018-03-05 23:55:52
    hive函数官网文档:hive函数官网文档 一、数值计算函数 1. 取整函数: round 语法: round(double a) 返回值: BIGINT 说明: 返回double类型的整数值部分 (遵循四舍五入) 举例: hive&gt; select round(3....
  • 一、hive函数 1、hive内置函数 (1)内容较多,见《 Hive 官方文档》 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF (2)详细解释: http://blog.sina.com.cn/s/blog_83bb...
  • Hive函数相关知识简介

    2020-03-22 11:38:44
    Hive函数相关知识简介 文章目录Hive函数相关知识简介1、 系统自带的函数2 、自定义函数3、 自定义UDF函数开发案例 1、 系统自带的函数 1)查看系统自带的函数 hive> show functions; 2)显示自带的函数的用法 ...
  • Hive 函数大全

    千次阅读 2016-08-15 18:14:22
    hive 函数大全:http://blog.csdn.net/wisgood/article/details/17376393
  • 几乎所有hive函数一览无余,每个函数均有例子
  • Hive函数大全

    千次阅读 2017-04-26 13:47:32
    Hive函数大全–完整版 现在虽然有很多SQL ON Hadoop的解决方案,像Spark SQL、Impala、Presto等等,但就目前来看,在基于Hadoop的大数据分析平台、数据仓库中,Hive仍然是不可替代的角色。尽管它的相应延迟大,...
  • Hive函数及性能优化

    2020-07-14 10:27:59
    一.Hive函数分类 从输入输出角度分类 标准函数:一行数据中的一列或多列为输入,结果为单一值 聚合函数:多行的零列到多列为输入,结果为单一值 表生成函数:零个或多个输入,结果为多列或多行 从实现方式分类 ...
  • Hive第五天——Hive函数 自己的话:千里之行,始于足下。 每天都要保持前进,我势必要有强劲的实力,再跟明天的自己问好。 URL解析函数 在工作中,我们除了JSON格式还会经常遇到URL格式的日志数据,本文来详细介绍在...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 18,792
精华内容 7,516
关键字:

hive函数