精华内容
下载资源
问答
  • java调用api接口,maven导入jar

    千次阅读 2018-02-14 15:37:21
    maven需要引入的jar <!-- httpclient --> <dependency> <groupId>commons-httpclient</groupId> <artifactId>commons-httpclient&...
        maven需要引入的jar包
        <!--  httpclient -->
            <dependency>
                <groupId>commons-httpclient</groupId>
                <artifactId>commons-httpclient</artifactId>
                <version>3.1</version>
                </dependency>
            <dependency>   
               <groupId>javax.servlet</groupId>   
               <artifactId>servlet-api</artifactId>   
               <version>2.5</version>   
               <scope>provided</scope>   
            </dependency> 
            <!-- json包 -->
            <dependency>
                <groupId>org.json</groupId>
                <artifactId>json</artifactId>
            </dependency>   
    
    前端发送数据,后台根据电话号码查归属地:
        http://localhost:8881/a?a=18650498888
        {"msg":"success","result":{"city":"福州市","cityCode":"0591","mobileNumber":"1865049","operator":"福建联通GSM卡","province":"福建","zipCode":"350000"},"retCode":"200"}
    
    java代码如下:
        @RequestMapping(value="/a",method=RequestMethod.GET)
        //接收ajax 传过来的电话号码phone
        public String urldata(@RequestParam String a) {
            //查询电话号码接口
            System.out.println(a);
            //返回号码详细信息
            //---------代码开始
               String result = "";
                BufferedReader in = null;
                try {
                    String urlNameString = "http://apicloud.mob.com/v1/mobile/address/query?phone="
                            + a + "&key=520520test";
                    URL realUrl = new URL(urlNameString);
                    // 打开和URL之间的连接
                    URLConnection connection = realUrl.openConnection();
                    // 设置通用的请求属性
                    connection.setRequestProperty("accept", "*/*");
                    connection.setRequestProperty("connection", "Keep-Alive");
                    connection.setRequestProperty("user-agent",
                            "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1;SV1)");
                    // 建立实际的连接
                    connection.connect();
                    // 获取所有响应头字段
                    Map<String, List<String>> map = connection.getHeaderFields();
                    // 遍历所有的响应头字段
                    for (String key : map.keySet()) {
                        System.out.println(key + "--->" + map.get(key));
                    }
                    // 定义 BufferedReader输入流来读取URL的响应
                    in = new BufferedReader(new InputStreamReader(
                            connection.getInputStream()));
                    String line;
                    while ((line = in.readLine()) != null) {
                        result += line;
                    }
                } catch (Exception e) {
                    System.out.println("发送GET请求出现异常!" + e);
                    e.printStackTrace();
                }
                // 使用finally块来关闭输入流
                finally {
                    try {
                        if (in != null) {
                            in.close();
                        }
                    } catch (Exception e2) {
                        e2.printStackTrace();
                    }
                }
            //-----代码结束
            return result;
        }
    
    
    //----
      /**
         * 向指定 URL 发送POST方法的请求
         * 
         * @param url
         *            发送请求的 URL
         * @param param
         *            请求参数,请求参数应该是 name1=value1&name2=value2 的形式。
         * @return 所代表远程资源的响应结果
         */
        public static String sendPost(String url, String param) {
            PrintWriter out = null;
            BufferedReader in = null;
            String result = "";
            try {
                URL realUrl = new URL(url);
                // 打开和URL之间的连接
                URLConnection conn = realUrl.openConnection();
                // 设置通用的请求属性
                conn.setRequestProperty("accept", "*/*");
                conn.setRequestProperty("connection", "Keep-Alive");
                conn.setRequestProperty("user-agent",
                        "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1;SV1)");
                // 发送POST请求必须设置如下两行
                conn.setDoOutput(true);
                conn.setDoInput(true);
                // 获取URLConnection对象对应的输出流
                out = new PrintWriter(conn.getOutputStream());
                // 发送请求参数
                out.print(param);
                // flush输出流的缓冲
                out.flush();
                // 定义BufferedReader输入流来读取URL的响应
                in = new BufferedReader(
                        new InputStreamReader(conn.getInputStream()));
                String line;
                while ((line = in.readLine()) != null) {
                    result += line;
                }
            } catch (Exception e) {
                System.out.println("发送 POST 请求出现异常!"+e);
                e.printStackTrace();
            }
            //使用finally块来关闭输出流、输入流
            finally{
                try{
                    if(out!=null){
                        out.close();
                    }
                    if(in!=null){
                        in.close();
                    }
                }
                catch(IOException ex){
                    ex.printStackTrace();
                }
            }
            return result;
        }    
    }
    
    
    
    调用方法:参考
    
    
    public static void main(String[] args) {
            //发送 GET 请求
            String s=HttpRequest.sendGet("http://localhost:6144/Home/RequestString", "key=123&v=456");
            System.out.println(s);
    
            //发送 POST 请求
            String sr=HttpRequest.sendPost("http://localhost:6144/Home/RequestPostString", "key=123&v=456");
            System.out.println(sr);
        }
    展开全文
  • NULL 博文链接:https://787141854-qq-com.iteye.com/blog/2067818
  • java 导入导出excel的api,jar,还有实例 java 导入导出excel的api,jar,还有实例 java 导入导出excel的api,jar,还有实例
  • 测试环境:java 1.8 + poi 3.17+tomcat jar列表: commons-codec-1.10.jar commons-collections4-4.1.jar commons-fileupload-1.3.1.jar lib/commons-io-2.5.jar commons-lang-2.3.jar poi-3.17.jar poi-ooxml-3.17....
  • 使用腾讯云短信API所使用的工具类,jar。由于官网下载较慢且不完整,所以整理了一下全部上传。下载后可以直接导入编译器使用。
  • ElasticSearch Java API 中文文档 ElasticSearch Java API 中文文档
  • at com.jd.open.api.sdk.request.mall.WarePriceGetRequest.getAppJsonParams(WarePriceGetRequest.java:35) at com.jd.open.api.sdk.DefaultJdClient.buildUrl(DefaultJdClient.java:131) at ...
  • hbase java api操作导入数据

    千次阅读 2016-12-01 23:13:23
    使用hbase存储名人数据集,数据集由名人文字信息以及名人图片组成。 名人文字信息使用scrapy框架从wiki百科上爬取并保存在csv格式中。...- 将数据导入hbasescrapy 爬取wiki百科首先新建scrapy项目 然后在settings

    使用hbase存储名人数据集,数据集由名人文字信息以及名人图片组成。
    名人文字信息使用scrapy框架从wiki百科上爬取并保存在csv格式中。
    图片信息从百度图片上爬取每人30张保存在以该名人姓名命名的文件夹中
    因此本文包含以下几个方面:
    - 爬取文本的爬虫
    - 爬取图片的爬虫
    - 将数据导入hbase


    scrapy 爬取wiki百科

    首先新建scrapy项目
    items.py配置
    然后在settings.py文件中加入

    FEED_URI = u'file:///F:/pySpace/celebrity/info1.csv'
    FEED_FORMAT = 'CSV'

    即以csv格式保存爬取数据以及文件保存位置

    在main.py文件中加入

    import sys
    reload(sys)
    sys.setdefaultencoding('utf-8')
    sys.getdefaultencoding()
    from scrapy import cmdline
    cmdline.execute("scrapy crawl celebrity".split())
    <python>
    # -*- coding: utf-8 -*-
    from scrapy.spiders import CrawlSpider
    from scrapy.selector import Selector
    from celebrity.items import CelebrityItem
    from scrapy.http import Request
    import pandas as pd
    #读取待爬取的名人姓名列表
    with open(r'F:\pySpace\celebrity\name_lists1.txt','r') as f:
        url_list = f.read()
    url_list = url_list.split('\n')
    
    class Celebrity(CrawlSpider):
        len_url = len(url_list)
        num =1
        name = "celebrity"
        front_url = 'https://zh.wikipedia.org/wiki/'
        start_urls = [front_url + url_list[num].encode('utf-8')]
    
        def parse(self, response):
            item = CelebrityItem()
            selector = Selector(response)
            body = selector.xpath('//*[@id="mw-content-text"]')[0]
            Title = body.xpath('//span[@class="mw-headline"]/text()').extract()
            titles = ['简介']
            for i in range(len(Title)):
                if Title[i] != '参考文献' and Title[i] != '注释' and Title[i] != '外部链接' and Title[i] != '参考资料':
                    titles.append(Title[i])
            Passage = selector.xpath('//*[@id="mw-content-text"]/p')
            all_info = []
            for eachPassage in Passage:
                info =''.join(eachPassage.xpath('.//text()').extract())
                if info!= '':
                    all_info.append(info.strip())
            Ul_list = selector.xpath('//*[@id="mw-content-text"]/ul')
            for eachul in Ul_list:
                info = ''.join(eachul.xpath('.//text()').extract())
                if info != '' and info!= '\n' and info != ' ':
                    all_info.append(info)
    
            # 爬取带标题的
            k = 0
            epoch = len(all_info) / len(titles)
            i=0
            if epoch >0:
                for i  in range(len(titles)):
    
                    if i == len(titles)-1:
                        item['name'] = url_list[self.num].encode('utf-8')
                        item['title'] = titles[i]
                        item['info'] = ''.join(all_info[k:])
                    else :
                        item['name'] = url_list[self.num].encode('utf-8')
                        item['title'] = titles[i]
                        item['info'] = ''.join(all_info[k:k+epoch])
                        k = k+epoch
                    yield item
            else :
                for j in range(len(all_info)):
                    item['name'] = url_list[self.num].encode('utf-8')
                    item['title'] = titles[j]
                    item['info'] = all_info[j]
                    yield item
    
    
            #爬取不带标题的
            # for j in range(len(all_info)):
            #     item['name'] = url_list[self.num].encode('utf-8')
            #     item['info'] = all_info[j]
            #     yield item
    
            print item['name']
            self.num = self.num + 1
            print self.num
            if self.num < self.len_url:
                nextUrl =self.front_url + url_list[self.num].encode('utf-8')
                yield Request(nextUrl,callback=self.parse)
    </python>
    

    爬取图片

    import urllib2
    import re
    import os
    import sys
    reload(sys)
    sys.setdefaultencoding("utf-8")
    
    def img_spider(name_file):
    
        user_agent = "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36"
        headers = {'User-Agent':user_agent}
    
        with open(name_file) as f:
            name_list = [name.rstrip().decode('utf-8') for name in f.readlines()]
            f.close()
    
        for name in name_list:
            if not os.path.exists('F:/pySpace/celebrity/img_data/' + name):
                os.makedirs('F:/pySpace/celebrity/img_data/' + name)
                try:
                    url = "http://image.baidu.com/search/avatarjson?tn=resultjsonavatarnew&ie=utf-8&word=" + name.replace(' ','%20') + "&cg=girl&rn=60&pn=60"
                    req = urllib2.Request(url, headers=headers)
                    res = urllib2.urlopen(req)
                    page = res.read()
                    #print page
                    img_srcs = re.findall('"objURL":"(.*?)"', page, re.S)
                    print name,len(img_srcs)
                except:
                    print name," error:"
                    continue
                j = 1
                src_txt = ''
    
                for src in img_srcs:
                    with open('F:/pySpace/celebrity/img_data/' + name + '/' + str(j)+'.jpg','wb') as p:
                        try:
                            print "downloading No.%d"%j
                            req = urllib2.Request(src, headers=headers)
                            img = urllib2.urlopen(src,timeout=3)
                            p.write(img.read())
                        except:
                            print "No.%d error:"%j
                            p.close()
                            continue
                        p.close()
                    src_txt = src_txt + src + '\n'
                    if j==30:
                        break
                    j = j+1
                #保存src路径为txt
                with open('F:/pySpace/celebrity/img_data/' + name + '/' + name +'.txt','wb') as p2:
                    p2.write(src_txt)
                    p2.close()
                    print "save %s txt done"%name
    
    
    if __name__ == '__main__':
        name_file = "name_lists1.txt"
        img_spider(name_file)
    

    通过java api 将数据导入hbase

    在hbase中建两个表,分别为celebrity(存储图片信息)和celebrity_info(存储文本信息)名人的姓名为rowkey。

    <java>
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.hbase.*;
    import org.apache.hadoop.hbase.client.*;
    import com.csvreader.CsvReader;
    import com.google.common.primitives.Chars;
    import org.junit.Test;
    import java.nio.charset.Charset;
    import java.io.*;
    import javax.swing.ImageIcon;
    /**
     * Created by mxy on 2016/10/31.
     */
    public class CelebrityDataBase {
    
        /*新建表*/
        public void createTable(String tablename)throws Exception{
            Configuration config = HBaseConfiguration.create();
            config.set("hbase.zookeeper.quorum","node4,node5,node6");
            HBaseAdmin admin = new HBaseAdmin(config);
            String table = tablename;
    
            if(admin.isTableAvailable(table)){
                admin.disableTable(table);
                admin.deleteTable(table);
            }else {
                HTableDescriptor t = new HTableDescriptor(table.getBytes());
                HColumnDescriptor cf1 = new HColumnDescriptor("cf1".getBytes()) ;
                cf1.setMaxVersions(10);
                t.addFamily(cf1);
                admin.createTable(t);
            }
            admin.close();
        }
        //插入数据csv格式文字数据
        public void putInfo()throws Exception{
            CsvReader r = new CsvReader("F://pySpace//celebrity//info.csv",',', Charset.forName("utf-8"));
            r.readHeaders();
            Configuration config = HBaseConfiguration.create();
            config.set("hbase.zookeeper.quorum","node4,node5,node6");
            HTable table = new HTable(config,"celebrity_info");
            while(r.readRecord()){
    
                System.out.println(r.get("name"));
    //          String rowkey = r.get("name");
                Put put = new Put(r.get("name").getBytes());
                put.add("cf1".getBytes(),r.get("title").getBytes(),r.get("info").getBytes());
                table.put(put);
    
            }
            r.close();
            table.close();
    
        }
    
        //查找图片数据
        public void getImage(String celebrity_name,String img_num)throws Exception{
            Configuration config = HBaseConfiguration.create();
            config.set("hbase.zookeeper.quorum","node4,node5,node6");
            HTable table = new HTable(config,"celebrity");
            Get get = new Get(celebrity_name.getBytes());
            Result res = table.get(get);
            Cell c1 = res.getColumnLatestCell("cf1".getBytes(),img_num.getBytes());
            File file=new File("D://"+celebrity_name+img_num);//将输出的二进制流转化后的图片的路径
            FileOutputStream fos=new FileOutputStream(file);
            fos.write(c1.getValue());
            fos.flush();
            System.out.println(file.length());
            fos.close();
            table.close();
        }
    
        //查找文本数据
        public void getInfo(String name) throws Exception{
            Configuration config = HBaseConfiguration.create();
            config.set("hbase.zookeeper.quorum","node4,node5,node6");
            HTable table = new HTable(config,"celebrity_info");
    
            Get get = new Get(name.getBytes());
            Result res = table.get(get);
            Result result = table.get(get);
            for(Cell cell : result.rawCells()){
                System.out.println("rowKey:" + new String(CellUtil.cloneRow(cell))
                        + " cfName:" + new String(CellUtil.cloneFamily(cell))
                        + " qualifierName:" + new String(CellUtil.cloneQualifier(cell))
                        + " value:" + new String(CellUtil.cloneValue(cell)));
            }
            table.close();
        }
    
    //插入图片数据
        public void putImage(String each_celebrity,String each_img)throws Exception{
    
            String str = null;
            Configuration config = HBaseConfiguration.create();
            config.set("hbase.zookeeper.quorum","node4,node5,node6");
            HTable table = new HTable(config,"celebrity");
            str = String.format("F://pySpace//celebrity//img_data//%s//%s",each_celebrity,each_img);
            File file = new File(str);
            int size = 0;
            size = (int)file.length();
            System.out.println(size);
            byte[] bbb = new byte[size];
            try {
                InputStream a = new FileInputStream(file);
                a.read(bbb);
    //            System.out.println(bbb);
    //            System.out.println(Integer.toBinaryString(bbb));
            } catch (FileNotFoundException e) {
    // TODO Auto-generated catch block
                e.printStackTrace();
            } catch (IOException e) {
    // TODO Auto-generated catch block
                e.printStackTrace();
            }
            String rowkey = each_celebrity;
            Put put = new Put(rowkey.getBytes());
            put.add("cf1".getBytes(),each_img.getBytes(),bbb);
            table.put(put);
            table.close();
    
        }
    
        public static void main(String args[]){
            CelebrityDatabase pt = new CelebrityDatabase();
            try {
                pt.createTable("celebrity);
                pt.createTable("celebrity_info);
            } catch (Exception e) {
                e.printStackTrace();
                System.out.println("createTable error");
            }
            String root_path = "F://pySpace//celebrity//img_data";
            File file = new File(root_path);
            File[] files = file.listFiles();
    
            for(int i = 0;i < files.length;i++){
                String each_path = root_path +"//"+ files[i].getName();
                File celebrity_file = new File(each_path);
                File[] celebrity_files = celebrity_file.listFiles();
                System.out.println(each_path);
                for(int j = 0;j<celebrity_files.length - 1;j++){
                    try {
                        pt.putImage(files[i].getName(),celebrity_files[j].getName());
                    } catch (Exception e) {
                        e.printStackTrace();
                        System.out.println("putImage error");
                    }
                }
    
            }
            //存入文字信息
            try {
                pt.putInfo();
            } catch (Exception e) {
                e.printStackTrace();
            }
    
            //取出图片
            try {
                pt.getImage("龔照勝","13.jpg");
            } catch (Exception e) {
                e.printStackTrace();
                System.out.println("getImage error");
            }
            //取出文字
            try {
                pt.getInfo("成龙");
            } catch (Exception e) {
                e.printStackTrace();
            }
        }
    }
    
    </java>
    展开全文
  • 在初次使用 IntelliJ IDEA 中,当你使用javax.servlet下的类时(例:javax.servlet.http.HttpServlet), 在你会...java.lang.ClassNotFoundException:javax.el.ELResolver 为什么呢?因为IntelliJ IDEA 没有导入 ...

    在初次使用 IntelliJ IDEA 中,当你使用javax.servlet包下的类时(例:javax.servlet.http.HttpServlet), 在你会发现在IntelliJ IDEA里无法成功编译这个程序。
    报错如下:

    java.lang.ClassNotFoundException:javax.el.ELResolver

    为什么呢?因为IntelliJ IDEA 没有导入 servlet-api.jar 这个架包,需要你手动导入支持。

    解决方案如下:
    1、选中项目(在IntelliJ中称为Module);
    2、点击右键,选择open modual settings(或者直接按F4);
    3、在弹出的窗口左端选择Libraries;
    4、点击顶端的一个类似加号“+”的图标,选择java;
    5、在弹出的窗口中选择tomcat所在的目录,进入里面的lib目录,寻找servlet-api.jar这个jar包(如果JSP页面也有相关的JavaWeb对象,则还要寻找jsp-api.jar;如果只有Servlet,则只选择servlet-api.jar);
    6、选中上述jar包,依次点击OK。
    这里写图片描述

    7.可以查看如下,则导入成功:
    这里写图片描述

    展开全文
  • java学习记录之无法导入servlet

    千次阅读 2018-07-27 13:15:27
    最近在学习过程中遇到了一个问题,那就是在导入servlet的时候,程序给报错了,也就是无法进行正常的编译。 解决办法在网上找了下,有好多。。。 咱根据自己的需要,本人仅仅是需要编译这个java脚本,并不需要做...

    最近在学习过程中遇到了一个问题,那就是在导入servlet包的时候,程序给报错了,也就是无法进行正常的编译。

    解决办法在网上找了下,有好多。。。

    咱根据自己的需要,本人仅仅是需要编译这个java脚本,并不需要做一些别的事情。

    所以,本人给出的解决办法就是在我们的tomcat 服务器的安装目录的lib目录里找到servlet-api.jar文件,然后把它复制到我们java的安装目录下的\jre\lib目录下,就算是完事了。

    展开全文
  • POI和Java Excel Api导入导出

    千次阅读 2018-08-21 23:09:35
    一、介绍    当前B/S模式已成为应用开发的主流,而在企业办公系统中,常常有客户这样子要求:你要把我们的报表直接用... 目前,比较常用的实现Java导入、导出Excel的技术有两种Jakarta POI和Java Excel  下...
  • java 5 个常用的api包

    千次阅读 2018-09-07 11:34:02
    一、java.lang下的API Java常用基础,在开发中会自动导入到代码环境中,不需要import。 1.基本数据类型/包装类 (1)基本数据类型:byte、short、int、long、float、double、char、boolean (2)包装类: ...
  • java的EXCEL导入包

    2018-12-13 10:15:52
    支持java的excel导入功能的jar,包含commons-fileupload-1.2.2,commons-io-2.4,geronimo-stax-api_1.0_spec-1.0,poi-3.7-20101029,poi-ooxml-3.7-20101029,poi-ooxml-schemas-3.7-20101029,xmlbeans-2.3.0
  • Java项目中导入jar方法详述

    万次阅读 2016-01-12 20:22:34
    当你在向java类中导入某些的时候(比如:import javax.servet.*)会报错,提示没有这个。那是因为我们使用的jdk的JRE System Library库中没有包含servet_api.jar。这个时候我们可以可以在网上下载或从Tomcat的...
  • Java项目怎么导入jar

    千次阅读 2020-04-17 16:17:15
    第一步:在java项目中新建一个文件夹lib,并将需要导入的jar复制到lib文件夹中。 第二步,选中servlet-api.jar,右键点击【Build Path】→【Add to Build Path 】之后该jar就已经成功添加到了java项目中了。...
  • 本人工作中自己写的一个excel工具类,可以单独打包成jar,作为公共模块使用。...使用它可以直接不用关心poi的api导入导出,轻轻松松。 使用方法请关注一下,cn.com.flaginfo.biz.excel.test 下面的Test类。
  • hadoop的java_api

    2019-02-15 10:17:52
    凡是hadoop2.x以上版本都可以使用这个导入包,下载后直接将里面的所有文件直接导入到需要使用hadoop接口的项目里就好
  •  目前,比较常用的实现Java导入、导出Excel的技术有两种Jakarta POI和Java Excel  下面我就分别讲解一下如何使用这两个技术实现导入、导出Excel 二、使用Jakarta POI导入、导出Excel  ...
  • ESAPI for java 说明

    2014-04-13 19:34:54
    ESAPI for java 说明
  • java实现http协议jar

    2018-10-15 21:45:21
    java实现http协议jar,是一个访问http协议工具类,导入全部jar到项目里面,调用httpRequest方法及可实现http协议访问,以及获取代理IP方法封装
  • java调用Kettle引用jar.zip
  • java11中文版api,是以反编译好的html文件夹,可以直接导入IDEA中,就可以获取中文版的代码提示了
  • (java) Idea中导入servlet失败处理方法

    千次阅读 热门讨论 2020-11-04 08:24:18
    第一次导入servlet的时候会报错,出现红色字体 错误原因显示为: 实际上就是因为没有把相应的jar包导入。解决方法为:在Tomcat安装目录下,找到lib文件夹,在里面找到servlet-api.jar这个文件。 然后打开Ideal...
  • IDEA添加JAVAAPI

    千次阅读 2019-01-08 12:30:00
    在IDEA中使用JAVAAPI方式 传送门
  • 使用spring-cloud框架搭建,集成esjavaapi,直接打开idea从es-pom项目中导入pom文件即可,修改application.properties文件中你的es服务地址即可,增删改查均可使用
  • 1、报错:“Exception in thread "main" java.lang.NoClassDefFoundError:... 这是因为项目缺少slf4j-api.jar和slf4j-log4j12.jar这两个jar导致的错误。 2、报错:java.lang.NoClassDefFoundError: org/apache/lo...
  • Java常用类库和API

    千次阅读 2020-01-11 14:58:36
    如果不会总结,很多知识学习后想回顾就会花很多时间,这里总结一下Java常用的类库,都是日常开发中常用到的库,并且之后用到比较好用的库也会再这里添加 日志类库 无论是开发,学习和运维,日志已经是每个环节都必须...
  • java json依赖(完整直接可用版),一键导入。内含json-lib, commons, ezmorph等库。
  • java api实现http请求

    千次阅读 2018-07-29 11:11:52
    java api实现,无需导入其他 1、 public static String httpRequestUtils(String url, String params){ PrintWriter out = null; BufferedReader in = null; StringBuilder result ...
  • Java导入Excel工具类使用教程

    千次阅读 热门讨论 2019-03-26 11:06:43
    本工具类提供了Excel导入功能,通过反射机制将Excel中数据映射到实体类中,从而获取Excel数据,工具类依赖`org.apache.poi`。支持RESTful API,支持Spring MVC中使用。 本工具类支持功能: - 支持File类型导入 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 180,123
精华内容 72,049
关键字:

java导入api包

java 订阅