HIVE-21228: Replace all occurences of new Integer with Integer.valueOf (Ivan Suller...
authorIvan Suller <isuller@cloudera.com>
Wed, 13 Feb 2019 10:13:22 +0000 (11:13 +0100)
committerZoltan Haindrich <kirk@rxd.hu>
Wed, 13 Feb 2019 10:30:48 +0000 (11:30 +0100)
Signed-off-by: Zoltan Haindrich <kirk@rxd.hu>
32 files changed:
beeline/src/java/org/apache/hive/beeline/BeeLine.java
beeline/src/java/org/apache/hive/beeline/Reflector.java
hcatalog/core/src/main/java/org/apache/hive/hcatalog/data/HCatRecordSerDe.java
hcatalog/core/src/test/java/org/apache/hive/hcatalog/data/TestLazyHCatRecord.java
hcatalog/hcatalog-pig-adapter/src/test/java/org/apache/hive/hcatalog/pig/TestHCatLoaderStorer.java
hplsql/src/main/java/org/apache/hive/hplsql/functions/FunctionMisc.java
llap-server/src/test/org/apache/hadoop/hive/llap/cache/TestIncrementalObjectSizeEstimator.java
ql/src/java/org/apache/hadoop/hive/ql/exec/GroupByOperator.java
ql/src/java/org/apache/hadoop/hive/ql/exec/Operator.java
ql/src/java/org/apache/hadoop/hive/ql/exec/TaskFactory.java
ql/src/java/org/apache/hadoop/hive/ql/exec/mr/HadoopJobExecHelper.java
ql/src/java/org/apache/hadoop/hive/ql/exec/tez/CustomPartitionVertex.java
ql/src/java/org/apache/hadoop/hive/ql/lockmgr/zookeeper/ZooKeeperHiveLockManager.java
ql/src/java/org/apache/hadoop/hive/ql/optimizer/AbstractBucketJoinProc.java
ql/src/java/org/apache/hadoop/hive/ql/optimizer/GenMapRedUtils.java
ql/src/java/org/apache/hadoop/hive/ql/optimizer/calcite/translator/ASTConverter.java
ql/src/java/org/apache/hadoop/hive/ql/optimizer/stats/annotation/StatsRulesProcFactory.java
ql/src/java/org/apache/hadoop/hive/ql/parse/CalcitePlanner.java
ql/src/java/org/apache/hadoop/hive/ql/parse/SemanticAnalyzer.java
ql/src/java/org/apache/hadoop/hive/ql/plan/LimitDesc.java
ql/src/java/org/apache/hadoop/hive/ql/processors/CryptoProcessor.java
ql/src/java/org/apache/hadoop/hive/ql/udf/generic/GenericUDTFPosExplode.java
ql/src/test/org/apache/hadoop/hive/ql/exec/vector/TestVectorizationContext.java
ql/src/test/org/apache/hadoop/hive/ql/exec/vector/VectorRandomRowSource.java
ql/src/test/org/apache/hadoop/hive/ql/io/TestRCFile.java
ql/src/test/org/apache/hadoop/hive/ql/io/orc/TestNewInputOutputFormat.java
ql/src/test/org/apache/hadoop/hive/ql/optimizer/physical/TestVectorizer.java
ql/src/test/org/apache/hadoop/hive/ql/udf/generic/TestGenericUDFDateAdd.java
ql/src/test/org/apache/hadoop/hive/ql/udf/generic/TestGenericUDFDateSub.java
serde/src/test/org/apache/hadoop/hive/serde2/SerdeRandomRowSource.java
serde/src/test/org/apache/hadoop/hive/serde2/thrift_test/CreateSequenceFile.java
standalone-metastore/metastore-server/src/main/java/org/apache/hadoop/hive/metastore/HiveMetaStore.java

index e54e818..65eee2c 100644 (file)
@@ -486,7 +486,7 @@ public class BeeLine implements Closeable {
     try {
       return MessageFormat.format(
           new ChoiceFormat(resourceBundle.getString(res)).format(param),
-          new Object[] {new Integer(param)});
+          new Object[] {Integer.valueOf(param)});
     } catch (Exception e) {
       return res + ": " + param;
     }
@@ -2176,7 +2176,7 @@ public class BeeLine implements Closeable {
         new Object[] {
             e.getMessage() == null ? "" : e.getMessage().trim(),
             e.getSQLState() == null ? "" : e.getSQLState().trim(),
-            new Integer(e.getErrorCode())}));
+            Integer.valueOf(e.getErrorCode())}));
 
     if (getOpts().getVerbose()) {
       e.printStackTrace(getErrorStream());
index 455c11c..1434d94 100644 (file)
@@ -110,19 +110,19 @@ class Reflector {
     } else if (toType == Byte.class || toType == byte.class) {
       return Byte.valueOf(ob.toString());
     } else if (toType == Character.class || toType == char.class) {
-      return new Character(ob.toString().charAt(0));
+      return Character.valueOf(ob.toString().charAt(0));
     } else if (toType == Short.class || toType == short.class) {
-      return new Short(ob.toString());
+      return Short.valueOf(ob.toString());
     } else if (toType == Integer.class || toType == int.class) {
-      return new Integer(ob.toString());
+      return Integer.valueOf(ob.toString());
     } else if (toType == Long.class || toType == long.class) {
-      return new Long(ob.toString());
+      return Long.valueOf(ob.toString());
     } else if (toType == Double.class || toType == double.class) {
-      return new Double(ob.toString());
+      return Double.valueOf(ob.toString());
     } else if (toType == Float.class || toType == float.class) {
-      return new Float(ob.toString());
+      return Float.valueOf(ob.toString());
     } else if (toType == Boolean.class || toType == boolean.class) {
-      return new Boolean(ob.toString().equals("true")
+      return Boolean.valueOf(ob.toString().equals("true")
           || ob.toString().equals(true + "")
           || ob.toString().equals("1")
           || ob.toString().equals("on")
index 0b16b83..110769a 100644 (file)
@@ -288,12 +288,12 @@ public class HCatRecordSerDe extends AbstractSerDe {
         conf.getBoolean(
           HCatConstants.HCAT_DATA_TINY_SMALL_INT_PROMOTION,
           HCatConstants.HCAT_DATA_TINY_SMALL_INT_PROMOTION_DEFAULT)) {
-        return new Integer((Short) f);
+        return Integer.valueOf((Short) f);
       } else if (f instanceof Byte &&
         conf.getBoolean(
           HCatConstants.HCAT_DATA_TINY_SMALL_INT_PROMOTION,
           HCatConstants.HCAT_DATA_TINY_SMALL_INT_PROMOTION_DEFAULT)) {
-        return new Integer((Byte) f);
+        return Integer.valueOf((Byte) f);
       }
     }
 
index b65eeb0..6a5a962 100644 (file)
@@ -43,7 +43,7 @@ public class TestLazyHCatRecord {
     Assert.assertEquals(INT_CONST, ((Integer) r.get(0)).intValue());
     Assert.assertEquals(LONG_CONST, ((Long) r.get(1)).longValue());
     Assert.assertEquals(DOUBLE_CONST, ((Double) r.get(2)).doubleValue(), 0);
-    Assert.assertEquals(STRING_CONST, (String) r.get(3));
+    Assert.assertEquals(STRING_CONST, r.get(3));
   }
 
   @Test
@@ -55,7 +55,7 @@ public class TestLazyHCatRecord {
     Assert.assertEquals(INT_CONST, ((Integer) r.get("an_int", schema)).intValue());
     Assert.assertEquals(LONG_CONST, ((Long) r.get("a_long", schema)).longValue());
     Assert.assertEquals(DOUBLE_CONST, ((Double) r.get("a_double", schema)).doubleValue(), 0);
-    Assert.assertEquals(STRING_CONST, (String) r.get("a_string", schema));
+    Assert.assertEquals(STRING_CONST, r.get("a_string", schema));
   }
 
   @Test
@@ -65,7 +65,7 @@ public class TestLazyHCatRecord {
     Assert.assertEquals(INT_CONST, ((Integer) list.get(0)).intValue());
     Assert.assertEquals(LONG_CONST, ((Long) list.get(1)).longValue());
     Assert.assertEquals(DOUBLE_CONST, ((Double) list.get(2)).doubleValue(), 0);
-    Assert.assertEquals(STRING_CONST, (String) list.get(3));
+    Assert.assertEquals(STRING_CONST, list.get(3));
   }
 
   @Test
@@ -152,16 +152,16 @@ public class TestLazyHCatRecord {
     Assert.assertEquals(INT_CONST, ((Integer) r.get(0)).intValue());
     Assert.assertEquals(LONG_CONST, ((Long) r.get(1)).longValue());
     Assert.assertEquals(DOUBLE_CONST, ((Double) r.get(2)).doubleValue(), 0);
-    Assert.assertEquals(STRING_CONST, (String) r.get(3));
+    Assert.assertEquals(STRING_CONST, r.get(3));
     Assert.assertEquals("org.apache.hive.hcatalog.data.DefaultHCatRecord", r.getClass().getName());
   }
 
   private HCatRecord getHCatRecord() throws Exception {
     List<Object> rec_1 = new ArrayList<Object>(4);
-    rec_1.add( new Integer(INT_CONST));
-    rec_1.add( new Long(LONG_CONST));
-    rec_1.add( new Double(DOUBLE_CONST));
-    rec_1.add( new String(STRING_CONST));
+    rec_1.add(Integer.valueOf(INT_CONST));
+    rec_1.add(Long.valueOf(LONG_CONST));
+    rec_1.add(Double.valueOf(DOUBLE_CONST));
+    rec_1.add(STRING_CONST);
 
     return new DefaultHCatRecord(rec_1);
   }
index 38e1e7e..281754b 100644 (file)
@@ -141,11 +141,11 @@ public class TestHCatLoaderStorer extends HCatBaseTest {
     // Ensure Pig can read data correctly.
     Iterator<Tuple> it = server.openIterator("data");
     Tuple t = it.next();
-    Assert.assertEquals(new Integer(Short.MIN_VALUE), t.get(0));
-    Assert.assertEquals(new Integer(Byte.MIN_VALUE), t.get(1));
+    Assert.assertEquals(Integer.valueOf(Short.MIN_VALUE), t.get(0));
+    Assert.assertEquals(Integer.valueOf(Byte.MIN_VALUE), t.get(1));
     t = it.next();
-    Assert.assertEquals(new Integer(Short.MAX_VALUE), t.get(0));
-    Assert.assertEquals(new Integer(Byte.MAX_VALUE), t.get(1));
+    Assert.assertEquals(Integer.valueOf(Short.MAX_VALUE), t.get(0));
+    Assert.assertEquals(Integer.valueOf(Byte.MAX_VALUE), t.get(1));
     Assert.assertFalse(it.hasNext());
 
     // Ensure Pig can write correctly to smallint/tinyint columns. This means values within the
index 24081a9..9efc712 100644 (file)
@@ -36,27 +36,27 @@ public class FunctionMisc extends Function {
    */
   @Override
   public void register(Function f) {
-    f.map.put("COALESCE", new FuncCommand() { public void run(HplsqlParser.Expr_func_paramsContext ctx) { nvl(ctx); }});
-    f.map.put("DECODE", new FuncCommand() { public void run(HplsqlParser.Expr_func_paramsContext ctx) { decode(ctx); }});
-    f.map.put("NVL", new FuncCommand() { public void run(HplsqlParser.Expr_func_paramsContext ctx) { nvl(ctx); }});
-    f.map.put("NVL2", new FuncCommand() { public void run(HplsqlParser.Expr_func_paramsContext ctx) { nvl2(ctx); }});
-    f.map.put("PART_COUNT_BY", new FuncCommand() { public void run(HplsqlParser.Expr_func_paramsContext ctx) { partCountBy(ctx); }});
-    
-    f.specMap.put("ACTIVITY_COUNT", new FuncSpecCommand() { public void run(HplsqlParser.Expr_spec_funcContext ctx) { activityCount(ctx); }});
-    f.specMap.put("CAST", new FuncSpecCommand() { public void run(HplsqlParser.Expr_spec_funcContext ctx) { cast(ctx); }});
-    f.specMap.put("CURRENT", new FuncSpecCommand() { public void run(HplsqlParser.Expr_spec_funcContext ctx) { current(ctx); }});
-    f.specMap.put("CURRENT_USER", new FuncSpecCommand() { public void run(HplsqlParser.Expr_spec_funcContext ctx) { currentUser(ctx); }});
-    f.specMap.put("PART_COUNT", new FuncSpecCommand() { public void run(HplsqlParser.Expr_spec_funcContext ctx) { partCount(ctx); }});
-    f.specMap.put("USER", new FuncSpecCommand() { public void run(HplsqlParser.Expr_spec_funcContext ctx) { currentUser(ctx); }});
+    f.map.put("COALESCE", this::nvl);
+    f.map.put("DECODE", this::decode);
+    f.map.put("NVL", this::nvl);
+    f.map.put("NVL2", this::nvl2);
+    f.map.put("PART_COUNT_BY", this::partCountBy);
 
-    f.specSqlMap.put("CURRENT", new FuncSpecCommand() { public void run(HplsqlParser.Expr_spec_funcContext ctx) { currentSql(ctx); }});
+    f.specMap.put("ACTIVITY_COUNT", this::activityCount);
+    f.specMap.put("CAST", this::cast);
+    f.specMap.put("CURRENT", this::current);
+    f.specMap.put("CURRENT_USER", this::currentUser);
+    f.specMap.put("PART_COUNT", this::partCount);
+    f.specMap.put("USER", this::currentUser);
+
+    f.specSqlMap.put("CURRENT", this::currentSql);
   }
   
   /**
    * ACTIVITY_COUNT function (built-in variable)
    */
   void activityCount(HplsqlParser.Expr_spec_funcContext ctx) {
-    evalInt(new Long(exec.getRowCount()));
+    evalInt(Long.valueOf(exec.getRowCount()));
   }
   
   /**
@@ -268,7 +268,7 @@ public class FunctionMisc extends Function {
       return;
     }
     ResultSet rs = query.getResultSet();
-    HashMap<String, Integer> group = new HashMap<String, Integer>();
+    Map<String, Integer> group = new HashMap<String, Integer>();
     try {
       while (rs.next()) {
         String part = rs.getString(1);
@@ -288,7 +288,7 @@ public class FunctionMisc extends Function {
         }
         Integer count = group.get(key);
         if (count == null) {
-          count = new Integer(0); 
+          count = Integer.valueOf(0);
         }
         group.put(key, count + 1);        
       }
index 652a29f..60eaab6 100644 (file)
@@ -225,22 +225,22 @@ public class TestIncrementalObjectSizeEstimator {
   @Test
   public void testSimpleTypes() {
     JavaDataModel memModel = JavaDataModel.get();
-    int intSize = runEstimate(new Integer(0), memModel, null);
-    runEstimate(new String(""), memModel, "empty string");
-    runEstimate(new String("foobarzzzzzzzzzzzzzz"), memModel, null);
+    int intSize = runEstimate(Integer.valueOf(0), memModel, null);
+    runEstimate("", memModel, "empty string");
+    runEstimate("foobarzzzzzzzzzzzzzz", memModel, null);
     List<Object> list = new ArrayList<Object>(0);
     runEstimate(list, memModel, "empty ArrayList");
-    list.add(new String("zzz"));
+    list.add("zzz");
     runEstimate(list, memModel, "ArrayList - one string");
-    list.add(new Integer(5));
-    list.add(new Integer(6));
+    list.add(Integer.valueOf(5));
+    list.add(Integer.valueOf(6));
     int arrayListSize = runEstimate(list, memModel, "ArrayList - 3 elements");
     LinkedHashSet<Object> list2 = new LinkedHashSet<Object>(0);
     runEstimate(list2, memModel, "empty LinkedHashSet");
-    list2.add(new String("zzzz"));
+    list2.add("zzzz");
     runEstimate(list2, memModel, "LinkedHashSet - one string");
-    list2.add(new Integer(7));
-    list2.add(new Integer(4));
+    list2.add(Integer.valueOf(7));
+    list2.add(Integer.valueOf(4));
     int lhsSize = runEstimate(list2, memModel, "LinkedHashSet - 3 elements");
 
     Struct struct = new Struct();
index 4882e61..e2feb3f 100644 (file)
@@ -466,10 +466,10 @@ public class GroupByOperator extends Operator<GroupByDesc> implements IConfigure
     case DOUBLE:
       return javaSizePrimitiveType;
     case STRING:
-      keyPositionsSize.add(new Integer(pos));
+      keyPositionsSize.add(Integer.valueOf(pos));
       return javaObjectOverHead;
     case BINARY:
-      keyPositionsSize.add(new Integer(pos));
+      keyPositionsSize.add(Integer.valueOf(pos));
       return javaObjectOverHead;
     case TIMESTAMP:
     case TIMESTAMPLOCALTZ:
index 380b603..b197041 100644 (file)
@@ -1021,10 +1021,11 @@ public abstract class Operator<T extends OperatorDesc> implements Serializable,C
   }
 
   public String dump(int level, HashSet<Integer> seenOpts) {
-    if (seenOpts.contains(new Integer(id))) {
+    Integer idObj = Integer.valueOf(id);
+    if (seenOpts.contains(idObj)) {
       return null;
     }
-    seenOpts.add(new Integer(id));
+    seenOpts.add(idObj);
 
     StringBuilder s = new StringBuilder();
     String ls = getLevelString(level);
index 40cc576..8e6fdc0 100644 (file)
@@ -129,7 +129,7 @@ public final class TaskFactory {
 
   public static int getAndIncrementId() {
     int curValue = tid.get().intValue();
-    tid.set(new Integer(curValue + 1));
+    tid.set(Integer.valueOf(curValue + 1));
     return curValue;
   }
 
index cb8d81a..9ec820d 100644 (file)
@@ -631,7 +631,7 @@ public class HadoopJobExecHelper {
 
     for (TaskCompletionEvent taskCompletion : taskCompletions) {
       if (!taskCompletion.isMapTask()) {
-        reducersRunTimes.add(new Integer(taskCompletion.getTaskRunTime()));
+        reducersRunTimes.add(Integer.valueOf(taskCompletion.getTaskRunTime()));
       }
     }
     // Compute the reducers run time statistics for the job
index bd1f54d..dfabfb8 100644 (file)
@@ -147,7 +147,7 @@ public class CustomPartitionVertex extends VertexManagerPlugin {
     List<VertexManagerPluginContext.TaskWithLocationHint> scheduledTasks =
       new ArrayList<VertexManagerPluginContext.TaskWithLocationHint>(numTasks);
     for (int i = 0; i < numTasks; ++i) {
-      scheduledTasks.add(new VertexManagerPluginContext.TaskWithLocationHint(new Integer(i), null));
+      scheduledTasks.add(new VertexManagerPluginContext.TaskWithLocationHint(Integer.valueOf(i), null));
     }
     context.scheduleVertexTasks(scheduledTasks);
   }
index 141cbc9..64f6c27 100644 (file)
@@ -738,7 +738,7 @@ public class ZooKeeperHiveLockManager implements HiveLockManager {
   private int getSequenceNumber(String resPath, String path) {
     String tst = resPath.substring(path.length());
     try {
-      return (new Integer(tst)).intValue();
+      return Integer.parseInt(tst);
     } catch (Exception e) {
       return -1; // invalid number
     }
index 947c180..3a5b334 100644 (file)
@@ -316,7 +316,7 @@ abstract public class AbstractBucketJoinProc implements NodeProcessor {
         }
         List<String> fileNames =
             getBucketFilePathsOfPartition(tbl.getDataLocation(), pGraphContext);
-        Integer num = new Integer(tbl.getNumBuckets());
+        int num = tbl.getNumBuckets();
 
         // The number of files for the table should be same as number of buckets.
         if (fileNames.size() != 0 && fileNames.size() != num) {
@@ -332,7 +332,7 @@ abstract public class AbstractBucketJoinProc implements NodeProcessor {
           bigTblPartsToBucketNumber.put(null, tbl.getNumBuckets());
           bigTablePartitioned = false;
         } else {
-          tblAliasToNumberOfBucketsInEachPartition.put(alias, Arrays.asList(num));
+          tblAliasToNumberOfBucketsInEachPartition.put(alias, Arrays.asList(Integer.valueOf(num)));
           tblAliasToBucketedFilePathsInEachPartition.put(alias, Arrays.asList(fileNames));
         }
       }
index 2131bf1..bb575d3 100644 (file)
@@ -420,7 +420,7 @@ public final class GenMapRedUtils {
     childPlan.setReduceWork(rWork);
     rWork.setReducer(reducer);
     ReduceSinkDesc desc = cRS.getConf();
-    childPlan.getReduceWork().setNumReduceTasks(new Integer(desc.getNumReducers()));
+    childPlan.getReduceWork().setNumReduceTasks(Integer.valueOf(desc.getNumReducers()));
 
     opProcCtx.getOpTaskMap().put(reducer, childTask);
 
index 141ebe5..e783d1c 100644 (file)
@@ -322,8 +322,7 @@ public class ASTConverter {
       RexNode offsetExpr = hiveSortLimit.getOffsetExpr();
       RexNode fetchExpr = hiveSortLimit.getFetchExpr();
       if (fetchExpr != null) {
-        Object offset = (offsetExpr == null) ?
-            new Integer(0) : ((RexLiteral) offsetExpr).getValue2();
+        Object offset = (offsetExpr == null) ? Integer.valueOf(0) : ((RexLiteral) offsetExpr).getValue2();
         Object fetch = ((RexLiteral) fetchExpr).getValue2();
         hiveAST.limit = ASTBuilder.limit(offset, fetch);
       }
@@ -765,7 +764,7 @@ public class ASTConverter {
     }
 
     Schema(DruidQuery dq) {
-      HiveTableScan hts = (HiveTableScan) ((DruidQuery)dq).getTableScan();
+      HiveTableScan hts = (HiveTableScan) dq.getTableScan();
       String tabName = hts.getTableAlias();
       for (RelDataTypeField field : dq.getRowType().getFieldList()) {
         add(new ColumnInfo(tabName, field.getName()));
index d8b5783..6aeb2a8 100644 (file)
@@ -610,7 +610,7 @@ public class StatsRulesProcFactory {
             return RangeResult.of(value < minValue, value < maxValue, value == minValue, value == maxValue);
           }
           case serdeConstants.SMALLINT_TYPE_NAME: {
-            short value = new Short(boundValue);
+            short value = Short.parseShort(boundValue);
             short maxValue = range.maxValue.shortValue();
             short minValue = range.minValue.shortValue();
             return RangeResult.of(value < minValue, value < maxValue, value == minValue, value == maxValue);
@@ -623,25 +623,25 @@ public class StatsRulesProcFactory {
             return RangeResult.of(value < minValue, value < maxValue, value == minValue, value == maxValue);
           }
           case serdeConstants.INT_TYPE_NAME: {
-            int value = new Integer(boundValue);
+            int value = Integer.parseInt(boundValue);
             int maxValue = range.maxValue.intValue();
             int minValue = range.minValue.intValue();
             return RangeResult.of(value < minValue, value < maxValue, value == minValue, value == maxValue);
           }
           case serdeConstants.BIGINT_TYPE_NAME: {
-            long value = new Long(boundValue);
+            long value = Long.parseLong(boundValue);
             long maxValue = range.maxValue.longValue();
             long minValue = range.minValue.longValue();
             return RangeResult.of(value < minValue, value < maxValue, value == minValue, value == maxValue);
           }
           case serdeConstants.FLOAT_TYPE_NAME: {
-            float value = new Float(boundValue);
+            float value = Float.parseFloat(boundValue);
             float maxValue = range.maxValue.floatValue();
             float minValue = range.minValue.floatValue();
             return RangeResult.of(value < minValue, value < maxValue, value == minValue, value == maxValue);
           }
           case serdeConstants.DOUBLE_TYPE_NAME: {
-            double value = new Double(boundValue);
+            double value = Double.parseDouble(boundValue);
             double maxValue = range.maxValue.doubleValue();
             double minValue = range.minValue.doubleValue();
             return RangeResult.of(value < minValue, value < maxValue, value == minValue, value == maxValue);
@@ -971,7 +971,7 @@ public class StatsRulesProcFactory {
               }
             }
           } else if (colTypeLowerCase.equals(serdeConstants.SMALLINT_TYPE_NAME)) {
-            short value = new Short(boundValue);
+            short value = Short.parseShort(boundValue);
             short maxValue = cs.getRange().maxValue.shortValue();
             short minValue = cs.getRange().minValue.shortValue();
             if (upperBound) {
@@ -996,7 +996,7 @@ public class StatsRulesProcFactory {
               DateWritable writableVal = new DateWritable(java.sql.Date.valueOf(boundValue));
               value = writableVal.getDays();
             } else {
-              value = new Integer(boundValue);
+              value = Integer.parseInt(boundValue);
             }
             // Date is an integer internally
             int maxValue = cs.getRange().maxValue.intValue();
@@ -1017,7 +1017,7 @@ public class StatsRulesProcFactory {
               }
             }
           } else if (colTypeLowerCase.equals(serdeConstants.BIGINT_TYPE_NAME)) {
-            long value = new Long(boundValue);
+            long value = Long.parseLong(boundValue);
             long maxValue = cs.getRange().maxValue.longValue();
             long minValue = cs.getRange().minValue.longValue();
             if (upperBound) {
@@ -1036,7 +1036,7 @@ public class StatsRulesProcFactory {
               }
             }
           } else if (colTypeLowerCase.equals(serdeConstants.FLOAT_TYPE_NAME)) {
-            float value = new Float(boundValue);
+            float value = Float.parseFloat(boundValue);
             float maxValue = cs.getRange().maxValue.floatValue();
             float minValue = cs.getRange().minValue.floatValue();
             if (upperBound) {
@@ -1055,7 +1055,7 @@ public class StatsRulesProcFactory {
               }
             }
           } else if (colTypeLowerCase.equals(serdeConstants.DOUBLE_TYPE_NAME)) {
-            double value = new Double(boundValue);
+            double value = Double.parseDouble(boundValue);
             double maxValue = cs.getRange().maxValue.doubleValue();
             double minValue = cs.getRange().minValue.doubleValue();
             if (upperBound) {
index 47d6e7c..f5a1c74 100644 (file)
@@ -113,7 +113,6 @@ import org.apache.calcite.util.ImmutableBitSet;
 import org.apache.calcite.util.ImmutableIntList;
 import org.apache.calcite.util.Pair;
 import org.apache.hadoop.fs.Path;
-import org.apache.hadoop.hive.common.ObjectPair;
 import org.apache.hadoop.hive.conf.Constants;
 import org.apache.hadoop.hive.conf.HiveConf;
 import org.apache.hadoop.hive.conf.HiveConf.ConfVars;
@@ -3125,10 +3124,6 @@ public class CalcitePlanner extends SemanticAnalyzer {
 
         ASTNode subQueryAST = subQueries.get(i);
         //SubQueryUtils.rewriteParentQueryWhere(clonedSearchCond, subQueryAST);
-        Boolean orInSubquery = new Boolean(false);
-        Integer subqueryCount = new Integer(0);
-        ObjectPair<Boolean, Integer> subqInfo = new ObjectPair<Boolean, Integer>(false, 0);
-
         ASTNode outerQueryExpr = (ASTNode) subQueryAST.getChild(2);
 
         if (outerQueryExpr != null && outerQueryExpr.getType() == HiveParser.TOK_SUBQUERY_EXPR) {
@@ -4178,7 +4173,7 @@ public class CalcitePlanner extends SemanticAnalyzer {
         SqlCall sc = null;
 
         if (amt != null)
-          amtLiteral = cluster.getRexBuilder().makeLiteral(new Integer(bs.getAmt()),
+          amtLiteral = cluster.getRexBuilder().makeLiteral(Integer.valueOf(bs.getAmt()),
               cluster.getTypeFactory().createSqlType(SqlTypeName.INTEGER), true);
 
         switch (bs.getDirection()) {
index f2ba1ad..8dc5b34 100644 (file)
@@ -1761,11 +1761,9 @@ public class SemanticAnalyzer extends BaseSemanticAnalyzer {
       case HiveParser.TOK_LIMIT:
         if (ast.getChildCount() == 2) {
           qbp.setDestLimit(ctx_1.dest,
-              new Integer(ast.getChild(0).getText()),
-              new Integer(ast.getChild(1).getText()));
+              Integer.valueOf(ast.getChild(0).getText()), Integer.valueOf(ast.getChild(1).getText()));
         } else {
-          qbp.setDestLimit(ctx_1.dest, new Integer(0),
-              new Integer(ast.getChild(0).getText()));
+          qbp.setDestLimit(ctx_1.dest, Integer.valueOf(0), Integer.valueOf(ast.getChild(0).getText()));
         }
         break;
 
index 698af94..2728701 100644 (file)
@@ -52,7 +52,7 @@ public class LimitDesc extends AbstractOperatorDesc {
    */
   @Explain(displayName = "Offset of rows", explainLevels = { Level.USER, Level.DEFAULT, Level.EXTENDED })
   public Integer getOffset() {
-    return (offset == 0) ? null : new Integer(offset);
+    return (offset == 0) ? null : Integer.valueOf(offset);
   }
 
   public void setOffset(Integer offset) {
index d2a864a..77421b5 100644 (file)
@@ -125,7 +125,7 @@ public class CryptoProcessor implements CommandProcessor {
     String bitLength = args.getOptionValue("bitLength", Integer.toString(DEFAULT_BIT_LENGTH));
 
     try {
-      encryptionShim.createKey(keyName, new Integer(bitLength));
+      encryptionShim.createKey(keyName, Integer.parseInt(bitLength));
     } catch (Exception e) {
       throw new Exception("Cannot create encryption key: " + e.getMessage());
     }
@@ -143,11 +143,11 @@ public class CryptoProcessor implements CommandProcessor {
     CommandLine args = parseCommandArgs(CREATE_ZONE_OPTIONS, params);
 
     String keyName = args.getOptionValue("keyName");
-    Path cryptoZone = new Path(args.getOptionValue("path"));
-    if (cryptoZone == null) {
-      throw new Exception("Cannot create encryption zone: Invalid path '"
-          + args.getOptionValue("path") + "'");
+    String cryptoZoneStr = args.getOptionValue("path");
+    if (cryptoZoneStr == null) {
+      throw new Exception("Cannot create encryption zone: Invalid path 'null'");
     }
+    Path cryptoZone = new Path(cryptoZoneStr);
 
     try {
       encryptionShim.createEncryptionZone(cryptoZone, keyName);
index fde7647..9beec23 100644 (file)
@@ -79,7 +79,7 @@ public class GenericUDTFPosExplode extends GenericUDTF {
 
     for (int i = 0; i < list.size(); i++) {
       Object r = list.get(i);
-      forwardObj[0] = new Integer(i);
+      forwardObj[0] = Integer.valueOf(i);
       forwardObj[1] = r;
       forward(forwardObj);
     }
index 438107f..1fa268d 100644 (file)
@@ -440,7 +440,7 @@ public class TestVectorizationContext {
   @Test
   public void testFloatInExpressions() throws HiveException {
     ExprNodeColumnDesc col1Expr = new ExprNodeColumnDesc(Float.class, "col1", "table", false);
-    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(new Integer(10));
+    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(Integer.valueOf(10));
 
     GenericUDFOPPlus udf = new GenericUDFOPPlus();
 
@@ -462,7 +462,7 @@ public class TestVectorizationContext {
   @Test
   public void testVectorizeFilterAndOrExpression() throws HiveException {
     ExprNodeColumnDesc col1Expr = new ExprNodeColumnDesc(Integer.class, "col1", "table", false);
-    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(new Integer(10));
+    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(Integer.valueOf(10));
 
     GenericUDFOPGreaterThan udf = new GenericUDFOPGreaterThan();
     ExprNodeGenericFuncDesc greaterExprDesc = new ExprNodeGenericFuncDesc();
@@ -523,7 +523,7 @@ public class TestVectorizationContext {
   @Test
   public void testVectorizeFilterMultiAndOrExpression() throws HiveException {
     ExprNodeColumnDesc col1Expr = new ExprNodeColumnDesc(Integer.class, "col1", "table", false);
-    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(new Integer(10));
+    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(Integer.valueOf(10));
 
     GenericUDFOPGreaterThan udf = new GenericUDFOPGreaterThan();
     ExprNodeGenericFuncDesc greaterExprDesc = new ExprNodeGenericFuncDesc();
@@ -547,7 +547,7 @@ public class TestVectorizationContext {
     lessExprDesc.setChildren(children2);
 
     ExprNodeColumnDesc col3Expr = new ExprNodeColumnDesc(Integer.class, "col3", "table", false);
-    ExprNodeConstantDesc const3Desc = new ExprNodeConstantDesc(new Integer(10));
+    ExprNodeConstantDesc const3Desc = new ExprNodeConstantDesc(Integer.valueOf(10));
 
     GenericUDFOPGreaterThan udf3 = new GenericUDFOPGreaterThan();
     ExprNodeGenericFuncDesc greaterExprDesc3 = new ExprNodeGenericFuncDesc();
@@ -601,7 +601,7 @@ public class TestVectorizationContext {
   @Test
   public void testVectorizeAndOrProjectionExpression() throws HiveException {
     ExprNodeColumnDesc col1Expr = new ExprNodeColumnDesc(Integer.class, "col1", "table", false);
-    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(new Integer(10));
+    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(Integer.valueOf(10));
 
     GenericUDFOPGreaterThan udf = new GenericUDFOPGreaterThan();
     ExprNodeGenericFuncDesc greaterExprDesc = new ExprNodeGenericFuncDesc();
@@ -665,7 +665,7 @@ public class TestVectorizationContext {
   @Test
   public void testNotExpression() throws HiveException {
     ExprNodeColumnDesc col1Expr = new ExprNodeColumnDesc(Integer.class, "col1", "table", false);
-    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(new Integer(10));
+    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(Integer.valueOf(10));
 
     GenericUDFOPGreaterThan udf = new GenericUDFOPGreaterThan();
     ExprNodeGenericFuncDesc greaterExprDesc = new ExprNodeGenericFuncDesc();
@@ -703,7 +703,7 @@ public class TestVectorizationContext {
   @Test
   public void testNullExpressions() throws HiveException {
     ExprNodeColumnDesc col1Expr = new ExprNodeColumnDesc(Integer.class, "col1", "table", false);
-    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(new Integer(10));
+    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(Integer.valueOf(10));
 
     GenericUDFOPGreaterThan udf = new GenericUDFOPGreaterThan();
     ExprNodeGenericFuncDesc greaterExprDesc = new ExprNodeGenericFuncDesc();
@@ -744,7 +744,7 @@ public class TestVectorizationContext {
   @Test
   public void testNotNullExpressions() throws HiveException {
     ExprNodeColumnDesc col1Expr = new ExprNodeColumnDesc(Integer.class, "col1", "table", false);
-    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(new Integer(10));
+    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(Integer.valueOf(10));
 
     GenericUDFOPGreaterThan udf = new GenericUDFOPGreaterThan();
     ExprNodeGenericFuncDesc greaterExprDesc = new ExprNodeGenericFuncDesc();
@@ -802,7 +802,7 @@ public class TestVectorizationContext {
   @Test
   public void testFilterWithNegativeScalar() throws HiveException {
     ExprNodeColumnDesc col1Expr = new  ExprNodeColumnDesc(Integer.class, "col1", "table", false);
-    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(new Integer(-10));
+    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(Integer.valueOf(-10));
 
     GenericUDFOPGreaterThan udf = new GenericUDFOPGreaterThan();
     ExprNodeGenericFuncDesc exprDesc = new ExprNodeGenericFuncDesc();
@@ -1286,8 +1286,8 @@ public class TestVectorizationContext {
     ExprNodeColumnDesc col2Expr = new  ExprNodeColumnDesc(Long.class, "col2", "table", false);
     ExprNodeColumnDesc col3Expr = new  ExprNodeColumnDesc(Long.class, "col3", "table", false);
 
-    ExprNodeConstantDesc constDesc2 = new ExprNodeConstantDesc(new Integer(1));
-    ExprNodeConstantDesc constDesc3 = new ExprNodeConstantDesc(new Integer(2));
+    ExprNodeConstantDesc constDesc2 = new ExprNodeConstantDesc(Integer.valueOf(1));
+    ExprNodeConstantDesc constDesc3 = new ExprNodeConstantDesc(Integer.valueOf(2));
 
     // long column/column IF
     GenericUDFIf udf = new GenericUDFIf();
index a2febe4..ecd381d 100644 (file)
@@ -663,7 +663,7 @@ public class VectorRandomRowSource {
 
             typeNum = r.nextInt(maxTypeNum);
 
-            Integer typeNumInteger = new Integer(typeNum);
+            Integer typeNumInteger = Integer.valueOf(typeNum);
             if (!hashSet.contains(typeNumInteger)) {
               hashSet.add(typeNumInteger);
               break;
@@ -943,7 +943,7 @@ public class VectorRandomRowSource {
                 }
                 longWritable.set(
                     (Long) VectorRandomRowSource.randomPrimitiveObject(
-                        r, (PrimitiveTypeInfo) TypeInfoFactory.longTypeInfo));
+                        r, TypeInfoFactory.longTypeInfo));
               }
             }
             object = longWritable;
index 04695d3..7b4cf4d 100644 (file)
@@ -346,8 +346,7 @@ public class TestRCFile {
     Random rand = new Random();
     for (int recIdx = 0; recIdx < recCount; recIdx++) {
       for (int i = 0; i < record.length; i++) {
-        record[i] = new Integer(rand.nextInt()).toString()
-            .getBytes(StandardCharsets.UTF_8);
+        record[i] = String.valueOf(rand.nextInt()).getBytes(StandardCharsets.UTF_8);
       }
       for (int i = 0; i < record.length; i++) {
         BytesRefWritable cu = new BytesRefWritable(record[i], 0,
index 78cc432..ee45600 100644 (file)
@@ -17,9 +17,9 @@
  */
 package org.apache.hadoop.hive.ql.io.orc;
 
-import static junit.framework.Assert.assertEquals;
-import static junit.framework.Assert.assertTrue;
-import static junit.framework.Assert.assertFalse;
+import static org.junit.Assert.assertEquals;
+import static org.junit.Assert.assertFalse;
+import static org.junit.Assert.assertTrue;
 
 import java.io.BufferedReader;
 import java.io.File;
@@ -383,7 +383,7 @@ public class TestNewInputOutputFormat {
     assertEquals(6, ((List<Object>)list.get(0)).get(1));
     Map<String, Integer> map = (Map<String, Integer>)converted.get(3);
     assertEquals(map.size(), 1);
-    assertEquals(map.get("saving"), new Integer(1));
+    assertEquals(map.get("saving"), Integer.valueOf(1));
     
     row = rows.next(null);
     converted = (List<Object>)converter.convert(row);
@@ -395,7 +395,7 @@ public class TestNewInputOutputFormat {
     assertEquals(9, ((List<Object>)list.get(0)).get(1));
     map = (Map<String, Integer>)converted.get(3);
     assertEquals(map.size(), 11);
-    assertEquals(map.get("the"), new Integer(2));
+    assertEquals(map.get("the"), Integer.valueOf(2));
     
     row = rows.next(null);
     converted = (List<Object>)converter.convert(row);
@@ -407,7 +407,7 @@ public class TestNewInputOutputFormat {
     assertEquals(4, ((List<Object>)list.get(0)).get(1));
     map = (Map<String, Integer>)converted.get(3);
     assertEquals(map.size(), 13);
-    assertEquals(map.get("were"), new Integer(3));
+    assertEquals(map.get("were"), Integer.valueOf(3));
     
     assertFalse(rows.hasNext());
     
index 2a2bbe1..e0d292c 100644 (file)
@@ -24,7 +24,7 @@ import java.util.HashMap;
 import java.util.List;
 import java.util.Map;
 
-import junit.framework.Assert;
+import org.junit.Assert;
 
 import org.apache.hadoop.hive.ql.CompilationOpContext;
 import org.apache.hadoop.hive.ql.exec.*;
@@ -145,7 +145,7 @@ public class TestVectorizer {
   @Test
   public void testValidateNestedExpressions() {
     ExprNodeColumnDesc col1Expr = new ExprNodeColumnDesc(Integer.class, "col1", "table", false);
-    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(new Integer(10));
+    ExprNodeConstantDesc constDesc = new ExprNodeConstantDesc(Integer.valueOf(10));
 
     GenericUDFOPGreaterThan udf = new GenericUDFOPGreaterThan();
     ExprNodeGenericFuncDesc greaterExprDesc = new ExprNodeGenericFuncDesc();
index 1453029..8b45a62 100644 (file)
@@ -42,7 +42,7 @@ public class TestGenericUDFDateAdd extends TestCase {
 
     udf.initialize(arguments);
     DeferredObject valueObj1 = new DeferredJavaObject(new Text("2009-07-20 04:17:52"));
-    DeferredObject valueObj2 = new DeferredJavaObject(new Integer("2"));
+    DeferredObject valueObj2 = new DeferredJavaObject(Integer.valueOf("2"));
     DeferredObject[] args = {valueObj1, valueObj2};
     DateWritableV2 output = (DateWritableV2) udf.evaluate(args);
 
@@ -68,7 +68,7 @@ public class TestGenericUDFDateAdd extends TestCase {
     udf.initialize(arguments);
     DeferredObject valueObj1 = new DeferredJavaObject(new TimestampWritableV2(
         Timestamp.valueOf(LocalDateTime.of(109, 06, 20, 4, 17, 52, 0).toString())));
-    DeferredObject valueObj2 = new DeferredJavaObject(new Integer("3"));
+    DeferredObject valueObj2 = new DeferredJavaObject(Integer.valueOf("3"));
     DeferredObject[] args = {valueObj1, valueObj2};
     DateWritableV2 output = (DateWritableV2) udf.evaluate(args);
 
@@ -94,7 +94,7 @@ public class TestGenericUDFDateAdd extends TestCase {
 
     udf.initialize(arguments);
     DeferredObject valueObj1 = new DeferredJavaObject(new DateWritableV2(Date.of(109, 06, 20)));
-    DeferredObject valueObj2 = new DeferredJavaObject(new Integer("4"));
+    DeferredObject valueObj2 = new DeferredJavaObject(Integer.valueOf("4"));
     DeferredObject[] args = {valueObj1, valueObj2};
     DateWritableV2 output = (DateWritableV2) udf.evaluate(args);
 
@@ -134,7 +134,7 @@ public class TestGenericUDFDateAdd extends TestCase {
 
     udf.initialize(arguments);
     DeferredObject valueObj1 = new DeferredJavaObject(new DateWritableV2(Date.of(109, 06, 20)));
-    DeferredObject valueObj2 = new DeferredJavaObject(new Short("4"));
+    DeferredObject valueObj2 = new DeferredJavaObject(Short.valueOf("4"));
     DeferredObject[] args = {valueObj1, valueObj2};
     DateWritableV2 output = (DateWritableV2) udf.evaluate(args);
 
index 3705d99..b70a1dc 100644 (file)
@@ -42,7 +42,7 @@ public class TestGenericUDFDateSub extends TestCase {
 
     udf.initialize(arguments);
     DeferredObject valueObj1 = new DeferredJavaObject(new Text("2009-07-20 04:17:52"));
-    DeferredObject valueObj2 = new DeferredJavaObject(new Integer("2"));
+    DeferredObject valueObj2 = new DeferredJavaObject(Integer.valueOf(2));
     DeferredObject[] args = {valueObj1, valueObj2};
     DateWritableV2 output = (DateWritableV2) udf.evaluate(args);
 
@@ -68,7 +68,7 @@ public class TestGenericUDFDateSub extends TestCase {
     udf.initialize(arguments);
     DeferredObject valueObj1 = new DeferredJavaObject(new TimestampWritableV2(
         Timestamp.valueOf(LocalDateTime.of(109, 06, 20, 4, 17, 52, 0).toString())));
-    DeferredObject valueObj2 = new DeferredJavaObject(new Integer("3"));
+    DeferredObject valueObj2 = new DeferredJavaObject(Integer.valueOf(3));
     DeferredObject[] args = {valueObj1, valueObj2};
     DateWritableV2 output = (DateWritableV2) udf.evaluate(args);
 
@@ -94,7 +94,7 @@ public class TestGenericUDFDateSub extends TestCase {
 
     udf.initialize(arguments);
     DeferredObject valueObj1 = new DeferredJavaObject(new DateWritableV2(Date.of(109, 06, 20)));
-    DeferredObject valueObj2 = new DeferredJavaObject(new Integer("4"));
+    DeferredObject valueObj2 = new DeferredJavaObject(Integer.valueOf(4));
     DeferredObject[] args = {valueObj1, valueObj2};
     DateWritableV2 output = (DateWritableV2) udf.evaluate(args);
 
@@ -134,7 +134,7 @@ public class TestGenericUDFDateSub extends TestCase {
 
     udf.initialize(arguments);
     DeferredObject valueObj1 = new DeferredJavaObject(new DateWritableV2(Date.of(109, 06, 20)));
-    DeferredObject valueObj2 = new DeferredJavaObject(new Short("4"));
+    DeferredObject valueObj2 = new DeferredJavaObject(Short.valueOf("4"));
     DeferredObject[] args = {valueObj1, valueObj2};
     DateWritableV2 output = (DateWritableV2) udf.evaluate(args);
 
index c0f9726..e77083c 100644 (file)
@@ -22,6 +22,7 @@ import java.util.ArrayList;
 import java.util.HashSet;
 import java.util.List;
 import java.util.Random;
+import java.util.Set;
 
 import org.apache.hadoop.hive.common.type.Date;
 import org.apache.hadoop.hive.common.type.HiveChar;
@@ -32,13 +33,13 @@ import org.apache.hadoop.hive.common.type.HiveVarchar;
 import org.apache.hadoop.hive.common.type.Timestamp;
 import org.apache.hadoop.hive.serde2.io.HiveCharWritable;
 import org.apache.hadoop.hive.serde2.io.HiveVarcharWritable;
+import org.apache.hadoop.hive.serde2.objectinspector.ListObjectInspector;
+import org.apache.hadoop.hive.serde2.objectinspector.MapObjectInspector;
 import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
 import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector.Category;
 import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
 import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorUtils;
 import org.apache.hadoop.hive.serde2.objectinspector.PrimitiveObjectInspector.PrimitiveCategory;
-import org.apache.hadoop.hive.serde2.objectinspector.ListObjectInspector;
-import org.apache.hadoop.hive.serde2.objectinspector.MapObjectInspector;
 import org.apache.hadoop.hive.serde2.objectinspector.StandardListObjectInspector;
 import org.apache.hadoop.hive.serde2.objectinspector.StandardMapObjectInspector;
 import org.apache.hadoop.hive.serde2.objectinspector.StandardStructObjectInspector;
@@ -73,12 +74,12 @@ import org.apache.hadoop.hive.serde2.typeinfo.TypeInfo;
 import org.apache.hadoop.hive.serde2.typeinfo.TypeInfoUtils;
 import org.apache.hadoop.hive.serde2.typeinfo.UnionTypeInfo;
 import org.apache.hadoop.hive.serde2.typeinfo.VarcharTypeInfo;
-import org.apache.hive.common.util.DateUtils;
-import org.apache.hadoop.io.Text;
 import org.apache.hadoop.io.BytesWritable;
+import org.apache.hadoop.io.Text;
+import org.apache.hive.common.util.DateUtils;
 
-import com.google.common.base.Preconditions;
 import com.google.common.base.Charsets;
+import com.google.common.base.Preconditions;
 
 /**
  * Generate object inspector and random row object[].
@@ -341,7 +342,7 @@ public class SerdeRandomRowSource {
   }
 
   private void chooseSchema(SupportedTypes supportedTypes, int maxComplexDepth) {
-    HashSet hashSet = null;
+    Set<Integer> hashSet = null;
     final boolean allTypes;
     final boolean onlyOne = (r.nextInt(100) == 7);
     if (onlyOne) {
@@ -400,7 +401,7 @@ public class SerdeRandomRowSource {
 
             typeNum = r.nextInt(maxTypeNum);
 
-            final Integer typeNumInteger = new Integer(typeNum);
+            final Integer typeNumInteger = Integer.valueOf(typeNum);
             if (!hashSet.contains(typeNumInteger)) {
               hashSet.add(typeNumInteger);
               break;
index 2fe3e9a..aacd978 100644 (file)
@@ -136,7 +136,8 @@ public final class CreateSequenceFile {
       unionMap.put("key_" + i,  erMap);
 
       Complex complex = new Complex(rand.nextInt(), "record_"
-          + (new Integer(i)).toString(), alist, slist, islist, hash, unionMap, PropValueUnion.stringValue("test" + i), PropValueUnion.unionMStringString(hash), PropValueUnion.lString(slist));
+          + String.valueOf(i), alist, slist, islist, hash, unionMap, PropValueUnion.stringValue("test" + i),
+          PropValueUnion.unionMStringString(hash), PropValueUnion.lString(slist));
 
       Writable value = serializer.serialize(complex);
       writer.append(key, value);
index 4472f99..c0ba867 100644 (file)
@@ -4974,6 +4974,7 @@ public class HiveMetaStore extends ThriftHiveMetastore {
           null, null);
     }
 
+    @Override
     public RenamePartitionResponse rename_partition_req(
         RenamePartitionRequest req) throws InvalidOperationException ,MetaException ,TException {
       rename_partition(req.getCatName(), req.getDbName(), req.getTableName(), req.getPartVals(),
@@ -9379,7 +9380,7 @@ public class HiveMetaStore extends ThriftHiveMetastore {
             "This usage has been deprecated, consider using the new command "
                 + "line syntax (run with -h to see usage information)");
 
-        this.port = new Integer(args[0]);
+        this.port = Integer.parseInt(args[0]);
       }
 
       // notice that command line options take precedence over the