HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / join8.q.out
1 PREHOOK: query: CREATE TABLE dest1(c1 INT, c2 STRING, c3 INT, c4 STRING) STORED AS TEXTFILE
2 PREHOOK: type: CREATETABLE
3 PREHOOK: Output: database:default
4 PREHOOK: Output: default@dest1
5 POSTHOOK: query: CREATE TABLE dest1(c1 INT, c2 STRING, c3 INT, c4 STRING) STORED AS TEXTFILE
6 POSTHOOK: type: CREATETABLE
7 POSTHOOK: Output: database:default
8 POSTHOOK: Output: default@dest1
9 PREHOOK: query: EXPLAIN
10 FROM (
11  FROM 
12   (
13   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
14   ) a
15  LEFT OUTER JOIN 
16  (
17   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
18  ) b 
19  ON (a.c1 = b.c3)
20  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
21 ) c
22 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4 where c.c3 IS NULL AND c.c1 IS NOT NULL
23 PREHOOK: type: QUERY
24 POSTHOOK: query: EXPLAIN
25 FROM (
26  FROM 
27   (
28   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
29   ) a
30  LEFT OUTER JOIN 
31  (
32   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
33  ) b 
34  ON (a.c1 = b.c3)
35  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
36 ) c
37 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4 where c.c3 IS NULL AND c.c1 IS NOT NULL
38 POSTHOOK: type: QUERY
39 STAGE DEPENDENCIES:
40   Stage-1 is a root stage
41   Stage-0 depends on stages: Stage-1
42   Stage-2 depends on stages: Stage-0, Stage-3
43   Stage-3 depends on stages: Stage-1
44
45 STAGE PLANS:
46   Stage: Stage-1
47     Map Reduce
48       Map Operator Tree:
49           TableScan
50             alias: src1
51             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
52             Filter Operator
53               predicate: ((UDFToDouble(key) < 20.0D) and (UDFToDouble(key) > 10.0D)) (type: boolean)
54               Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
55               Select Operator
56                 expressions: key (type: string), value (type: string)
57                 outputColumnNames: _col0, _col1
58                 Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
59                 Reduce Output Operator
60                   key expressions: _col0 (type: string)
61                   sort order: +
62                   Map-reduce partition columns: _col0 (type: string)
63                   Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
64                   value expressions: _col1 (type: string)
65           TableScan
66             alias: src2
67             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
68             Filter Operator
69               predicate: ((UDFToDouble(key) < 20.0D) and (UDFToDouble(key) > 15.0D)) (type: boolean)
70               Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
71               Select Operator
72                 expressions: key (type: string), value (type: string)
73                 outputColumnNames: _col0, _col1
74                 Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
75                 Reduce Output Operator
76                   key expressions: _col0 (type: string)
77                   sort order: +
78                   Map-reduce partition columns: _col0 (type: string)
79                   Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
80                   value expressions: _col1 (type: string)
81       Reduce Operator Tree:
82         Join Operator
83           condition map:
84                Left Outer Join 0 to 1
85           keys:
86             0 _col0 (type: string)
87             1 _col0 (type: string)
88           outputColumnNames: _col0, _col1, _col2, _col3
89           Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
90           Filter Operator
91             predicate: _col2 is null (type: boolean)
92             Statistics: Num rows: 30 Data size: 321 Basic stats: COMPLETE Column stats: NONE
93             Select Operator
94               expressions: UDFToInteger(_col0) (type: int), _col1 (type: string), null (type: int), _col3 (type: string)
95               outputColumnNames: _col0, _col1, _col2, _col3
96               Statistics: Num rows: 30 Data size: 321 Basic stats: COMPLETE Column stats: NONE
97               File Output Operator
98                 compressed: false
99                 Statistics: Num rows: 30 Data size: 321 Basic stats: COMPLETE Column stats: NONE
100                 table:
101                     input format: org.apache.hadoop.mapred.TextInputFormat
102                     output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
103                     serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
104                     name: default.dest1
105               Select Operator
106                 expressions: _col0 (type: int), _col1 (type: string), _col2 (type: int), _col3 (type: string)
107                 outputColumnNames: c1, c2, c3, c4
108                 Statistics: Num rows: 30 Data size: 321 Basic stats: COMPLETE Column stats: NONE
109                 Group By Operator
110                   aggregations: compute_stats(c1, 'hll'), compute_stats(c2, 'hll'), compute_stats(c3, 'hll'), compute_stats(c4, 'hll')
111                   mode: hash
112                   outputColumnNames: _col0, _col1, _col2, _col3
113                   Statistics: Num rows: 1 Data size: 1728 Basic stats: COMPLETE Column stats: NONE
114                   File Output Operator
115                     compressed: false
116                     table:
117                         input format: org.apache.hadoop.mapred.SequenceFileInputFormat
118                         output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
119                         serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
120
121   Stage: Stage-0
122     Move Operator
123       tables:
124           replace: true
125           table:
126               input format: org.apache.hadoop.mapred.TextInputFormat
127               output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
128               serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
129               name: default.dest1
130
131   Stage: Stage-2
132     Stats Work
133       Basic Stats Work:
134       Column Stats Desc:
135           Columns: c1, c2, c3, c4
136           Column Types: int, string, int, string
137           Table: default.dest1
138
139   Stage: Stage-3
140     Map Reduce
141       Map Operator Tree:
142           TableScan
143             Reduce Output Operator
144               sort order: 
145               Statistics: Num rows: 1 Data size: 1728 Basic stats: COMPLETE Column stats: NONE
146               value expressions: _col0 (type: struct<columntype:string,min:bigint,max:bigint,countnulls:bigint,bitvector:binary>), _col1 (type: struct<columntype:string,maxlength:bigint,sumlength:bigint,count:bigint,countnulls:bigint,bitvector:binary>), _col2 (type: struct<columntype:string,min:bigint,max:bigint,countnulls:bigint,bitvector:binary>), _col3 (type: struct<columntype:string,maxlength:bigint,sumlength:bigint,count:bigint,countnulls:bigint,bitvector:binary>)
147       Reduce Operator Tree:
148         Group By Operator
149           aggregations: compute_stats(VALUE._col0), compute_stats(VALUE._col1), compute_stats(VALUE._col2), compute_stats(VALUE._col3)
150           mode: mergepartial
151           outputColumnNames: _col0, _col1, _col2, _col3
152           Statistics: Num rows: 1 Data size: 1760 Basic stats: COMPLETE Column stats: NONE
153           File Output Operator
154             compressed: false
155             Statistics: Num rows: 1 Data size: 1760 Basic stats: COMPLETE Column stats: NONE
156             table:
157                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
158                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
159                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
160
161 PREHOOK: query: FROM (
162  FROM 
163   (
164   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
165   ) a
166  LEFT OUTER JOIN 
167  (
168   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
169  ) b 
170  ON (a.c1 = b.c3)
171  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
172 ) c
173 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4 where c.c3 IS NULL AND c.c1 IS NOT NULL
174 PREHOOK: type: QUERY
175 PREHOOK: Input: default@src
176 PREHOOK: Output: default@dest1
177 POSTHOOK: query: FROM (
178  FROM 
179   (
180   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
181   ) a
182  LEFT OUTER JOIN 
183  (
184   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
185  ) b 
186  ON (a.c1 = b.c3)
187  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
188 ) c
189 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4 where c.c3 IS NULL AND c.c1 IS NOT NULL
190 POSTHOOK: type: QUERY
191 POSTHOOK: Input: default@src
192 POSTHOOK: Output: default@dest1
193 POSTHOOK: Lineage: dest1.c1 EXPRESSION [(src)src1.FieldSchema(name:key, type:string, comment:default), ]
194 POSTHOOK: Lineage: dest1.c2 SIMPLE [(src)src1.FieldSchema(name:value, type:string, comment:default), ]
195 POSTHOOK: Lineage: dest1.c3 EXPRESSION []
196 POSTHOOK: Lineage: dest1.c4 SIMPLE [(src)src2.FieldSchema(name:value, type:string, comment:default), ]
197 PREHOOK: query: SELECT dest1.* FROM dest1
198 PREHOOK: type: QUERY
199 PREHOOK: Input: default@dest1
200 #### A masked pattern was here ####
201 POSTHOOK: query: SELECT dest1.* FROM dest1
202 POSTHOOK: type: QUERY
203 POSTHOOK: Input: default@dest1
204 #### A masked pattern was here ####
205 11      val_11  NULL    NULL
206 12      val_12  NULL    NULL
207 12      val_12  NULL    NULL
208 15      val_15  NULL    NULL
209 15      val_15  NULL    NULL