精华内容
下载资源
问答
  • 1 去掉ES 部分查询条件(对结果集的影响较小,但是增加es的计算代价),到应用内存中进行 看样子{"term":{"join_state":{"value":1,"boost":1.0}}} 去掉更快,这个状态的过滤完全可以放内存中计算。 去掉条件...

    1 去掉ES 部分查询条件(对结果集的影响较小,但是增加es的计算代价),到应用内存中进行

     

    看样子{"term":{"join_state":{"value":1,"boost":1.0}}} 去掉更快,这个状态的过滤完全可以放内存中计算。

    去掉条件之后:

    2  启用停用词 比如ik的热更新

    一个"的"查询好点了73%的资源,但是对结果集的价值确实微乎其微

    使用ik停用词后:

     

    3 控制写入速度平稳性

    瞬时写入增加,造成gc overhead,导致业务延迟

     

     

    展开全文
  • union在进行表链接后会筛选掉重复的记录,所以在表链接后会对所产生的结果集进行排序运算, 删除重复的记录再返回结果。实际大部分应用中是不会产生重复的记录,最常见的是过程表与历史 表union。如: 复制代码...

    9:union操作符
    union在进行表链接后会筛选掉重复的记录,所以在表链接后会对所产生的结果集进行排序运算,
    删除重复的记录再返回结果。实际大部分应用中是不会产生重复的记录,最常见的是过程表与历史
    表union。如:

    复制代码代码如下:

    select * from gc_dfys
    union
    select * from ls_jg_dfys

    这个SQL在运行时先取出两个表的结果,再用排序空间进行排序删除重复的记录,最后返回结果集,
    如果表数据量大的话可能会导致用磁盘进行排序。
    推荐方案:采用union ALL操作符替代union,因为union ALL操作只是简单的将两个结果合并后就返回。
    复制代码代码如下:

    select * from gc_dfys
    union all
    select * from ls_jg_dfys
    展开全文
  • 问题描述: 在项目中需要连接mysql,查询上千上万的记录,每个字段都挺...mysql会将查询到的记录全部发送到java端保存,而JVM中如果98%的时间是用于GC,且可用的Heap size 不足2%的时候将抛出此异常信息。JVM堆的设置是

    问题描述:

    在项目中需要连接mysql,查询上千上万的记录,每个字段都挺大。结果在Eclipse中报如下错误:

     java.lang.OutOfMemoryError: Java heap space


    原因分析:

    mysql会将查询到的记录全部发送到java端保存,而JVM中如果98%的时间是用于GC,且可用的Heap size 不足2%的时候将抛出此异常信息。JVM堆的设置是指java程序运行过程中JVM可以调配使用的内存空间的设置.JVM在启动的时候会自动设置Heap size的值,其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)是物理内存的1/4。可以利用JVM提供的-Xmn -Xms -Xmx等选项可进行设置。


    解决方案记录如下:
    方案一:

    eclipse 有启动参数里设置jvm大小,因为eclipse运行时自己也需要jvm,所以eclipse.ini里设置的jvm大小不是具体某个程序运行时所用jvm的大小,这和具体程序运行的jvm大小无关。 
    那么怎么才能设置某个程序的jvm大小呢?
    (当然控制台运行的话不会存在这个问题,如:java -Xms256m -Xmx1024m classname,这样就可以把当前程序的jvm大小给设定) 
    因为eclipse里默认的一个程序的jvm配置为:-Xms8m -Xmx128m,所以我们的处理耗内存比较大时需要手动调整一下,以便不会内存溢出。
    具体的设置方法为:
    选中被运行的类,点击菜单‘run->run configurations’,选择(x)=Argument标签页下的vm arguments框里输入
    -Xms128m-Xmx512m(根据你物理内存的大小调整), 保存运行就ok了


     方案二:
    这个问题的根源是jvm虚拟机的默认Heap大小是64M,可以通过设置其最大和最小值来实现.设置的方法主要是几个.
    1.可以在windows 更改系统环境变量加上JAVA_OPTS=-Xms64m -Xmx512m
    2.如果用的tomcat,在windows下,可以在C:\tomcat5.5.9\bin\catalina.bat 中加上:
    set JAVA_OPTS=-Xms64m -Xmx256m
    位置在: rem Guess CATALINA_HOME if not defined 这行的下面加合适.
    3.如果是linux系统
    Linux 在{tomcat_home}/bin/catalina.sh的前面,加 
    set JAVA_OPTS='-Xms64 -Xmx512'


    方案三(通用性强):

    采用PreparedStatement:

    1、当PreparedStatement设置以下属性时,采用的是流数据接收方式,每次只从服务器接收部分数据,直到所有数据处理完毕,不会发生JVM OOM。
              setResultSetType(ResultSet.TYPE_FORWARD_ONLY);
              setFetchSize(Integer.MIN_VALUE); 
    2、调用statement的enableStreamingResults方法,实际上enableStreamingResults方法内部封装的就是第1种方式。
    3、设置连接属性useCursorFetch=true (5.0版驱动开始支持),statement以TYPE_FORWARD_ONLY打开,再设置fetch size参数,表示采用服务器端游标,每次从服务器取fetch_size条数据。

    package com.seven.dbTools.DBTools;
    
    import java.sql.Connection;
    import java.sql.DriverManager;
    import java.sql.PreparedStatement;
    import java.sql.ResultSet;
    import java.sql.SQLException;
    import java.sql.Statement;
    import java.util.ArrayList;
    
    public class JdbcHandleMySQLBigResultSet {
    
    	public static long importData(String sql){
    		String url = "jdbc:mysql://ipaddress:3306/test?user=username&password=password";
    		try {
    			Class.forName("com.mysql.jdbc.Driver");
    		} catch (ClassNotFoundException e1) {
    			e1.printStackTrace();
    		}
    		long allStart = System.currentTimeMillis();
    		long count =0;
    
    		Connection con = null;
    		PreparedStatement ps = null;
    		Statement st = null;
    		ResultSet rs = null;
    		try {
    			con = DriverManager.getConnection(url);
    			
    			ps = (PreparedStatement) con.prepareStatement(sql,ResultSet.TYPE_FORWARD_ONLY,
    		              ResultSet.CONCUR_READ_ONLY);
    					  
    			ps.setFetchSize(Integer.MIN_VALUE);
    			
    			ps.setFetchDirection(ResultSet.FETCH_REVERSE);
    
    			rs = ps.executeQuery();
    
    
    			while (rs.next()) {
    				
    				//此处处理业务逻辑
    				count++;
    				if(count%600000==0){
    					System.out.println(" 写入到第  "+(count/600000)+" 个文件中!");
    					long end = System.currentTimeMillis();
    				}
    				
    			}
    			System.out.println("取回数据量为  "+count+" 行!");
    		} catch (SQLException e) {
    			e.printStackTrace();
    		} finally {
    			try {
    				if(rs!=null){
    					rs.close();
    				}
    			} catch (SQLException e) {
    				e.printStackTrace();
    			}
    			try {
    				if(ps!=null){
    					ps.close();
    				}
    			} catch (SQLException e) {
    				e.printStackTrace();
    			}
    			try {
    				if(con!=null){
    					con.close();
    				}
    			} catch (SQLException e) {
    				e.printStackTrace();
    			}
    		}
    		return count;
    
    	}
    
    	public static void main(String[] args) throws InterruptedException {
    
    		String sql = "select * from test.bigTable ";
    		importData(sql);
    
    	}
    
    }

    展开全文
  • #此项结果应仅有配置文件的DNS监听地址 Dnsmasq转发设置: #===================== 依赖检查 =====&#...
  • 一个大表的性能优化

    2018-04-08 19:06:42
    才会弹出结果集form界面。同时form在初次打开时最耗时间;随后再打开时,情况会有所好转;同时在此form之前的POXPOVPO有时打开也很慢通过trace及分析,发现以下几个问题大量db file sequential read和gc curr...

    生产中采购管理系统的订单查询form查询缓慢;比如在查询2015000004采购版本时;结果窗口POXPOEPO要很长时间才能打开,有时甚至达半个小时;才会弹出结果集form界面。同时form在初次打开时最耗时间;随后再打开时,情况会有所好转;


    同时在此form之前的POXPOVPO有时打开也很慢


    通过trace及分析,发现以下几个问题

    大量db file sequential read和gc current block 2-way

    语句执行过程中产生大量的dbfile sequential read和gc current block 2-way其中时间主要消耗在获取结果集中;

    ********************************************************************************

     

    SQL ID: 08jf13kjhjz2k PlanHash: 1858060575

     

    SELECT /*+FIRST_ROWS */ 1

    FROM

     MTL_CONSUMPTION_TRANSACTIONS MCT,MTL_MATERIAL_TRANSACTIONS MMT WHERE

      MMT.TRANSACTION_ID = MCT.TRANSACTION_ID ANDMMT.TRANSACTION_SOURCE_ID = :B2

      AND MMT.INVENTORY_ITEM_ID = :B1 ANDNVL(MCT.CONSUMPTION_PROCESSED_FLAG,'N')

      <> 'Y' AND ROWNUM < 2

     

     

    call     count      cpu    elapsed       disk     query    current        rows

    ------- ------  -------- ---------- ---------- --------------------  ----------

    Parse        2     0.00       0.00          0          0          0           0

    Execute     16     0.00       0.00          0          0          0           0

    Fetch       15     1.83     196.36      21380     94847          0          14

    ------- ------  -------- ---------- ---------- --------------------  ----------

    total       33     1.83     196.37      21380     94847          0          14

     

    Misses in library cacheduring parse: 1

    Misses in library cacheduring execute: 1

    Optimizer mode: FIRST_ROWS

    Parsing user id: 44     (recursive depth: 1)

    Number of plan statisticscaptured: 2

     

    Rows (1st) Rows (avg) Rows(max)  Row Source Operation

    ---------- -------------------- ---------------------------------------------------

             0          0          1 COUNT STOPKEY (cr=28473 pr=136 pw=0 time=984748 us)

             0          0          1  NESTED LOOPS  (cr=28473 pr=136pw=0 time=984738 us cost=31 size=26 card=1)

             0          0          1   NESTED LOOPS  (cr=28472 pr=136pw=0 time=983910 us cost=31 size=26 card=1)

             0          0          1    TABLE ACCESS BY INDEX ROWID MTL_MATERIAL_TRANSACTIONS (cr=28471 pr=136pw=0 time=982564 us cost=28 size=17 card=1)

        140382     70652     140382      INDEX RANGE SCAN MTL_MATERIAL_TRANSACTIONS_N2(cr=469 pr=4 pw=0 time=42921 us cost=5 size=0 card=177)(object id 119955)

             0          0          1    INDEX RANGE SCAN TRANSACTION_ID (cr=2 pr=0 pw=0 time=1343 us cost=2size=0 card=1)(object id 212844)

             0          0          1    TABLE ACCESS BY INDEX ROWIDMTL_CONSUMPTION_TRANSACTIONS (cr=0 pr=0 pw=0 time=821 us cost=3 size=9 card=1)

     

     

    Elapsed times includewaiting on following events:

      Event waited on                             Times   Max. Wait Total Waited

      ----------------------------------------   Waited ----------  ------------

      library cache lock                              5        0.00          0.00

      library cache pin                               5        0.00          0.00

      Disk file operations I/O                      153        0.00          0.00

      db file sequential read                    435010        0.58       4124.76

      gc current block 2-way                       3038        0.12          1.84

      gc cr grant 2-way                              11        0.00          0.00

      latch: gc element                               5        0.00          0.00

      latch: object queue header operation            4        0.00          0.00

      gc current block congested                      4        0.00          0.00

    ********************************************************************************

    2.相关数据表中数据量庞大

    进一步检查查询所涉及的MTL_CONSUMPTION_TRANSACTIONS和MTL_MATERIAL_TRANSACTIONS中数据量巨大;其中MTL_CONSUMPTION_TRANSACTIONS表中数据量达3.7亿多条,仅一个统计条目的查询就消耗了7分多钟;而MTL_CONSUMPTION_TRANSACTIONS记录数也有1000多万条;

    SQL> select count(*) fromMTL_CONSUMPTION_TRANSACTIONS;

     

      COUNT(*)

    ----------

      11683476

     Executed in67.221 seconds

    SQL> select count(*) fromMTL_MATERIAL_TRANSACTIONS;

     

      COUNT(*)

    ----------

     376463701

     Executed in471.42 seconds

    3.索引效率低,有大量回表产生

    查询过程虽然走了索引,但是其索引效率很低,仅本次执行就花费了614秒。执行计划预估结果集大小与实际结果集大小偏差大;

    SQL Text

    ------------------------------

    SELECT /*+FIRST_ROWS */

     1

      FROMMTL_CONSUMPTION_TRANSACTIONS MCT, MTL_MATERIAL_TRANSACTIONS MMT

     WHEREMMT.TRANSACTION_ID = MCT.TRANSACTION_ID

       ANDMMT.TRANSACTION_SOURCE_ID = :B2

       ANDMMT.INVENTORY_ITEM_ID = :B1

       ANDNVL(MCT.CONSUMPTION_PROCESSED_FLAG, 'N') <> 'Y'

       AND ROWNUM< 2

     

    Global Information

    ------------------------------

     Status                                 :  DONE (ALL ROWS)

     InstanceID                            :  2

     Session                                :  APPS (2038:55095)

     SQL ID                                 :  08jf13kjhjz2k

     SQLExecution ID                       :  33578527

     ExecutionStarted                      :  03/22/2018 14:49:35

     FirstRefresh Time                     :  03/22/2018 14:49:42

     Last RefreshTime                      :  03/22/2018 14:59:49

     Duration                               :  614s

     Module/Action                          :  e:PO:frm:POXPOEPO/PO/112_VMI_PO_WCBP_SUPER

     Service                                :  PROD

     Program                                :  frmweb@ebsapp (TNS V1-V3)

     PLSQL EntryIds (Object/Subprogram)    :  149550,1

     PLSQLCurrent Ids (Object/Subprogram)  :  149550,1

     Fetch Calls                            :  1

     

    Binds

    =====================================

    | Name | Position | Type  | Value  |

    =====================================

    | :B2  |        1 | NUMBER | 4      |

    | :B1  |        2 | NUMBER | 7796   |

    =====================================

     

    Global Stats

    ============================================================================

    | Elapsed |   Cpu  |    IO    | Cluster | Fetch | Buffer | Read  |Read  |

    | Time(s) | Time(s) |Waits(s) | Waits(s) | Calls |  Gets  | Reqs | Bytes |

    ============================================================================

    |     614 |   3.70 |      610 |     0.24 |    1 |  60921 | 51701 | 404MB |

    ============================================================================

    SQL Plan Monitoring Details(Plan Hash Value=1858060575)

    =============================================================================================

    | Id |            Operation             |             Name             | Rows   |   Rows  |

    |    |                                  |                              | (Estim) |(Actual) |

    =============================================================================================

    |  0 | SELECT STATEMENT                 |                              |         |          |

    |  1 |   COUNT STOPKEY                  |                              |         |          |

    |  2 |   NESTED LOOPS                 |                              |       1 |          |

    |  3 |    NESTED LOOPS                |                              |       1|          |

    |  4 |     TABLE ACCESS BY INDEX ROWID | MTL_MATERIAL_TRANSACTIONS    |      1 |        0 |

    |    |                                  |                              |         |          |

    |  5 |      INDEX RANGE SCAN           | MTL_MATERIAL_TRANSACTIONS_N2|     177 |     141K |

    |  6 |     INDEX RANGE SCAN            |TRANSACTION_ID               |       1 |          |

    |  7 |    TABLE ACCESS BY INDEX ROWID  |MTL_CONSUMPTION_TRANSACTIONS |       1 |          |

    =============================================================================================

    查看索引最近一次收集统计信息的时间,并不久远;

    select last_analyzed from dba_indexes where  index_name ='MTL_MATERIAL_TRANSACTIONS_N2'

    LAST_ANALYZED

    -------------

    2018-03-18

    通过以上分析建议有以下两种建议方案

    方案一:修改索引,提高索引效率

    通过上述分析可以看出性能主要产生在索引MTL_MATERIAL_TRANSACTIONS_N2,尽管统计信息并不过旧,但是此索引的执行效率还是不高,索引产生大量回表读,正是这个原因,造成查询效率低,执行时间长。

    为避免大量回表的产生,建议把索引MTL_MATERIAL_TRANSACTIONS_N2由原来的(TRANSACTION_SOURCE_ID,ORGANIZATION_ID,TRANSACTION_DATE)的联合索引修改为由(TRANSACTION_SOURCE_ID,INVENTORY_ITEM_ID ,ORGANIZATION_ID,TRANSACTION_DATE)组成的联合索引;也就是在原来的联合索引中添加INVENTORY_ITEM_ID字段;

    同时,为减少对生产系统中影响可以采取先创建新索引,再删除原索引,最后把新索引名变量为原索引的方式。具体过程如下:

    1)创建新索引

    创建新索引MTL_MATERIAL_TRANSACTIONS_N2_N,此过程在测试系统中执行时间为01:28:45.90。

    CREATE INDEX MTL_MATERIAL_TRANSACTIONS_N2_N ON INV.MTL_MATERIAL_TRANSACTIONS  (TRANSACTION_SOURCE_ID , INVENTORY_ITEM_ID , ORGANIZATION_ID , TRANSACTION_DATE )

     PCTFREE 10INITRANS 11 MAXTRANS 255 COMPUTE STATISTICS

     STORAGE(INITIAL 131072 NEXT 131072 MINEXTENTS1 MAXEXTENTS 2147483645

     PCTINCREASE0 FREELISTS 1 FREELIST GROUPS 1

     BUFFER_POOLDEFAULT FLASH_CACHE DEFAULT CELL_FLASH_CACHE DEFAULT)

     TABLESPACE APPS_TS_TX_IDX;

    2)删除旧索引

    此过程在测试环境执行大约用时10秒左右。

    drop index MTL_MATERIAL_TRANSACTIONS_N2;

    3)重命名索引

    此过程在测试环境执行用时为:00:00:00.05

    ALTER INDEX MTL_MATERIAL_TRANSACTIONS_N2_N RENAMETO MTL_MATERIAL_TRANSACTIONS_N2;

    4)重建索引前后在测试系统中测试结果对比

    通过对比可以发现,仅执行时间从优化前553s缩小到优化后.000116s,此sql执行效率得到提升。

    优化前执行信息:

    Global Information

    ------------------------------

     Status                                 :  DONE (ALL ROWS)

     InstanceID                            :  1

     Session                                :  APPS (2634:51725)

     SQL ID                                 : 08jf13kjhjz2k

     SQLExecution ID                       :  16777594

     ExecutionStarted                      :  03/26/2018 09:04:21

     FirstRefresh Time                     :  03/26/2018 09:04:27

     Last RefreshTime                      :  03/26/2018 09:13:34

     Duration                               :  553s

     Module/Action                          :  e:PO:frm:POXPOEPO/PO/112_VMI_PO_WCBP_SUPER

     Service                                :  EBSUAT

     Program                                :  frmweb@ebsuat (TNS V1-V3)

     PLSQL EntryIds (Object/Subprogram)    :  149550,1

     PLSQLCurrent Ids (Object/Subprogram)  :  149550,1

     FetchCalls                            :  1

     

    Binds

    ==========================================

    | Name | Position | Type  |      Value |

    ==========================================

    | :B2  |        1 | NUMBER | 4           |

    | :B1  |        2 | NUMBER | 7796        |

    ==========================================

     

    Global Stats

    ============================================================================

    | Elapsed |   Cpu  |    IO    | Cluster | Fetch | Buffer | Read  |Read  |

    | Time(s) | Time(s) |Waits(s) | Waits(s) | Calls |  Gets  | Reqs | Bytes |

    ============================================================================

    |     553 |   2.23 |      551 |     0.07 |    1 |  50287 | 49244 | 385MB |

    ============================================================================

    SQL Plan Monitoring Details(Plan Hash Value=1858060575)

    =============================================================================================

    | Id |            Operation             |             Name             | Rows   |   Rows  |

    |    |                                  |                              | (Estim) |(Actual) |

    =============================================================================================

    |  0 | SELECT STATEMENT                 |                              |         |          |

    |  1 |  COUNT STOPKEY                 |                              |         |          |

    |  2 |   NESTED LOOPS                 |                             |       1 |          |

    |  3 |    NESTED LOOPS                |                              |       1 |          |

    |  4 |     TABLE ACCESS BY INDEX ROWID | MTL_MATERIAL_TRANSACTIONS    |      1 |        0 |

    |    |                                  |                              |         |          |

    |  5 |      INDEX RANGE SCAN           |MTL_MATERIAL_TRANSACTIONS_N2 |      31 |     125K |

    |  6 |     INDEX RANGE SCAN            |TRANSACTION_ID               |       1 |          |

    |  7 |    TABLE ACCESS BY INDEX ROWID  |MTL_CONSUMPTION_TRANSACTIONS |       1 |          |

    =============================================================================================

    优化后执行信息

    Global Information

    ------------------------------

     Status              : DONE (ALL ROWS)

     InstanceID         :  1

     Session             : APPS (1511:3327)

     SQL ID              : 12bfdjdzhmxc3

     SQLExecution ID    :  16777216

     ExecutionStarted   :  03/26/2018 17:40:31

     First RefreshTime  : 03/26/2018 17:40:31

     Last RefreshTime   : 03/26/2018 17:40:31

     Duration            : .000116s

     Module/Action       : SQL*Plus/-

     Service             : EBSUAT

     Program             : sqlplus@ebsuat (TNS V1-V3)

     FetchCalls         :  2

     

    Global Stats

    =================================================

    | Elapsed |  Cpu   |  Other  | Fetch | Buffer |

    | Time(s) | Time(s) | Waits(s) | Calls |  Gets  |

    =================================================

    |    0.00|    0.00 |     0.00 |    2 |      9 |

    =================================================

    SQL Plan Monitoring Details(Plan Hash Value=79251601)

    ==============================================================================================

    | Id |            Operation             |              Name              | Rows   |  Rows  |

    |    |                                  |                                | (Estim)|(Actual) |

    ==============================================================================================

    |  0 | SELECT STATEMENT                 |                                |         |      1 |

    |  1 |  COUNT STOPKEY                 |                                |         |      1 |

    |  2 |   NESTED LOOPS                 |                                |       1 |      1 |

    |  3 |    NESTED LOOPS                |                                |       1 |      1 |

    |  4 |     TABLE ACCESS BY INDEX ROWID | MTL_MATERIAL_TRANSACTIONS      |      1 |       1 |

    |  5 |      INDEX RANGE SCAN           |MTL_MATERIAL_TRANSACTIONS_N2_N |       1|       1 |

    |  6 |     INDEX RANGE SCAN            |TRANSACTION_ID                 |       1 |      1 |

    |  7 |    TABLE ACCESS BY INDEX ROWID  |MTL_CONSUMPTION_TRANSACTIONS   |       1 |      1 |

    =============================================================================================

     

    方案二:对过期数据进行定时清理归档

    此查询影响速度的根本原因是表中数据量庞大所至;所以长远解决方法可以对记录进行归档和清理;清理时注意做好备份;

    清理方法可以参考oracle官方文档:

    《INVTransaction Purge Which Inventory Purge Program Should Be Used To PurgeTransaction Data (文档 ID 299003.1)》

    《InventoryPurging Programs Information (文档 ID 1351271.1)》

    展开全文
  • 执行的sql结果集,,ResultMap中是否有多个字段的column错误配置了该列、导致类型不匹配。 异常原因: 单次执行查询没有问题,200个并发时会报以上的某个字段错误。(会出现不同字段异常) 分析 单次查询无报错...
  • NetFabric.Hyperlinq NetFabric.Hyperlinq包含System.Linq命名空间中许多操作的替代实现: 通过使方法调用成为非...通过执行以下所有操作, NetFabric.Hyperlinq可以比System.Linq更快地枚举查询结果: 将多个枚举器
  • 但是希望查询结果返回的数据结构是自描述的。为了简化问题,就用了linq的匿名对象。 现在的做法,是用动态编译的方法,用CSharpCodeProvider动态编译客户输入的那段代码,产生一个CompilerResult,这个地方的问题的...
  • 目前用JProfiler来看,几乎什么东西都丢到session了,比如用户信息、权限表、查询条件、甚至查询结果集....我都有点疯了,我干了4年Java Web应用,从来不敢做的事情,这个系统都给做了。这个问题肯定要解决,我只想...
  • //将查询结果集放入request中 request.getRequestDispatcher("/index.jsp").forward(request, response); } /** * 2008-7-1-上午11:05:41 * * 功能:通过Hibernate来查询对象返回集合 * ...
  • java面试宝典2012

    2012-12-16 20:43:41
    16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 135 17.介绍一下Hibernate的二级缓存 135 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message ...
  • Java虚拟机

    2018-01-20 13:22:29
    8.4.2 基于栈的指令与基于寄存器的指令 8.4.3 基于栈的解释器执行过程 8.5 本章小结 第9章 类加载及执行子系统的案例与实战 9.1 概述 9.2 案例分析 9.2.1 Tomcat:正统的类加载器架构 9.2.2 OSGi:灵活...
  • Java面试宝典2010版

    2011-06-27 09:48:27
    16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 17.介绍一下Hibernate的二级缓存 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message 属性, ...
  • 最新Java面试宝典pdf版

    热门讨论 2011-08-31 11:29:22
    16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 123 17.介绍一下Hibernate的二级缓存 123 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message ...
  • Java面试宝典-经典

    2015-03-28 21:44:36
    16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 123 17.介绍一下Hibernate的二级缓存 123 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message ...
  • 16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 123 17.介绍一下Hibernate的二级缓存 123 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message ...
  • Java面试宝典2012版

    2012-12-03 21:57:42
    16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 123 17.介绍一下Hibernate的二级缓存 123 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message...
  • 16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 123 17.介绍一下Hibernate的二级缓存 123 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message ...
  • Java面试笔试资料大全

    热门讨论 2011-07-22 14:33:56
    16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 123 17.介绍一下Hibernate的二级缓存 123 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message ...
  • Java面试宝典2012新版

    2012-06-26 19:20:00
    16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 123 17.介绍一下Hibernate的二级缓存 123 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message ...
  • JAVA面试宝典2010

    2011-12-20 16:13:24
    16. hibernate进行多表查询每个表中各取几个字段,也就是说查询出来的结果集没有一个实体类与之对应如何解决; 123 17.介绍一下Hibernate的二级缓存 123 18、Spring 的依赖注入是什么意思? 给一个 Bean 的 message ...
  • java面试宝典

    2013-02-28 16:04:01
    139、当我使用一个结果集时,如何防止字段为"null"的字域显示在我的HTML输入文本域中? 35 140、如何中SERVLET或JSP下载一个文件(如:binary,text,executable)? 36 141、使用useBean标志初始化BEAN时如何接受初始化...
  • 千方百计笔试题大全

    2011-11-30 21:58:33
    139、当我使用一个结果集时,如何防止字段为"null"的字域显示在我的HTML输入文本域中? 35 140、如何中SERVLET或JSP下载一个文件(如:binary,text,executable)? 36 141、使用useBean标志初始化BEAN时如何接受初始化...
  • 4.4.5 JVM中一次完整的GC流程是怎样的,对象如何晋升到老年代,说说你知道的几种主要的JVM参数。 4.4.6 你知道哪几种垃圾收集器,各自的优缺点,重点讲下cms和G1,包括原理,流程,优缺点。 4.4.7 垃圾回收算法的...
  • 该qjscalc应用程序是qjsbn命令行解释器的超,它实现了一个具有任意大整数和浮点数,分数,复数,多项式和矩阵的Javascript计算器。源代码在qjscalc.js中。http://numcalc.com上提供了更多文档和Web版本。 2.5 ...
  • c#学习笔记.txt

    2008-12-15 14:01:21
    本文假定你具备一切学习此语言所需的知识,没有也不要紧,我会在文中尽量列出相关的link,鉴于互联网瞬息万变的特点,若某一链接不可用,请自行至Google查询。 如前所述,我是一个狮子座男人,一度我认为学习Java会...
  • 39、下面的程序代码输出的结果是多少?...........................................................2 40、final,finally, finalize的区别。......................................................................
  • Java 面试宝典

    2013-02-01 10:02:08
    39、下面的程序代码输出的结果是多少? ................................................................. 26 40、final, finally, finalize 的区别。 ..........................................................

空空如也

空空如也

1 2
收藏数 31
精华内容 12
关键字:

查询结果集gc