HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / groupby_grouping_sets2.q.out
1 PREHOOK: query: CREATE TABLE T1(a STRING, b STRING, c STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY ' ' STORED AS TEXTFILE
2 PREHOOK: type: CREATETABLE
3 PREHOOK: Output: database:default
4 PREHOOK: Output: default@T1
5 POSTHOOK: query: CREATE TABLE T1(a STRING, b STRING, c STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY ' ' STORED AS TEXTFILE
6 POSTHOOK: type: CREATETABLE
7 POSTHOOK: Output: database:default
8 POSTHOOK: Output: default@T1
9 PREHOOK: query: LOAD DATA LOCAL INPATH '../../data/files/grouping_sets.txt' INTO TABLE T1
10 PREHOOK: type: LOAD
11 #### A masked pattern was here ####
12 PREHOOK: Output: default@t1
13 POSTHOOK: query: LOAD DATA LOCAL INPATH '../../data/files/grouping_sets.txt' INTO TABLE T1
14 POSTHOOK: type: LOAD
15 #### A masked pattern was here ####
16 POSTHOOK: Output: default@t1
17 PREHOOK: query: EXPLAIN
18 SELECT a, b, count(*) from T1 group by a, b with cube
19 PREHOOK: type: QUERY
20 POSTHOOK: query: EXPLAIN
21 SELECT a, b, count(*) from T1 group by a, b with cube
22 POSTHOOK: type: QUERY
23 Explain
24 STAGE DEPENDENCIES:
25   Stage-1 is a root stage
26   Stage-2 depends on stages: Stage-1
27   Stage-0 depends on stages: Stage-2
28
29 STAGE PLANS:
30   Stage: Stage-1
31     Map Reduce
32       Map Operator Tree:
33           TableScan
34             alias: t1
35             Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
36             Select Operator
37               expressions: a (type: string), b (type: string)
38               outputColumnNames: a, b
39               Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
40               Group By Operator
41                 aggregations: count()
42                 keys: a (type: string), b (type: string)
43                 mode: hash
44                 outputColumnNames: _col0, _col1, _col2
45                 Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
46                 Reduce Output Operator
47                   key expressions: _col0 (type: string), _col1 (type: string)
48                   sort order: ++
49                   Map-reduce partition columns: _col0 (type: string), _col1 (type: string)
50                   Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
51                   value expressions: _col2 (type: bigint)
52       Reduce Operator Tree:
53         Group By Operator
54           aggregations: count(VALUE._col0)
55           keys: KEY._col0 (type: string), KEY._col1 (type: string), 0L (type: bigint)
56           mode: partials
57           outputColumnNames: _col0, _col1, _col2, _col3
58           Statistics: Num rows: 4 Data size: 1440 Basic stats: COMPLETE Column stats: NONE
59           File Output Operator
60             compressed: false
61             table:
62                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
63                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
64                 serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
65
66   Stage: Stage-2
67     Map Reduce
68       Map Operator Tree:
69           TableScan
70             Reduce Output Operator
71               key expressions: _col0 (type: string), _col1 (type: string), _col2 (type: bigint)
72               sort order: +++
73               Map-reduce partition columns: _col0 (type: string), _col1 (type: string), _col2 (type: bigint)
74               Statistics: Num rows: 4 Data size: 1440 Basic stats: COMPLETE Column stats: NONE
75               value expressions: _col3 (type: bigint)
76       Reduce Operator Tree:
77         Group By Operator
78           aggregations: count(VALUE._col0)
79           keys: KEY._col0 (type: string), KEY._col1 (type: string), KEY._col2 (type: bigint)
80           mode: final
81           outputColumnNames: _col0, _col1, _col3
82           Statistics: Num rows: 2 Data size: 720 Basic stats: COMPLETE Column stats: NONE
83           pruneGroupingSetId: true
84           Select Operator
85             expressions: _col0 (type: string), _col1 (type: string), _col3 (type: bigint)
86             outputColumnNames: _col0, _col1, _col2
87             Statistics: Num rows: 2 Data size: 720 Basic stats: COMPLETE Column stats: NONE
88             File Output Operator
89               compressed: false
90               Statistics: Num rows: 2 Data size: 720 Basic stats: COMPLETE Column stats: NONE
91               table:
92                   input format: org.apache.hadoop.mapred.SequenceFileInputFormat
93                   output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
94                   serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
95
96   Stage: Stage-0
97     Fetch Operator
98       limit: -1
99       Processor Tree:
100         ListSink
101
102 PREHOOK: query: EXPLAIN
103 SELECT a, b, count(*) from T1 group by cube(a, b)
104 PREHOOK: type: QUERY
105 POSTHOOK: query: EXPLAIN
106 SELECT a, b, count(*) from T1 group by cube(a, b)
107 POSTHOOK: type: QUERY
108 Explain
109 STAGE DEPENDENCIES:
110   Stage-1 is a root stage
111   Stage-2 depends on stages: Stage-1
112   Stage-0 depends on stages: Stage-2
113
114 STAGE PLANS:
115   Stage: Stage-1
116     Map Reduce
117       Map Operator Tree:
118           TableScan
119             alias: t1
120             Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
121             Select Operator
122               expressions: a (type: string), b (type: string)
123               outputColumnNames: a, b
124               Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
125               Group By Operator
126                 aggregations: count()
127                 keys: a (type: string), b (type: string)
128                 mode: hash
129                 outputColumnNames: _col0, _col1, _col2
130                 Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
131                 Reduce Output Operator
132                   key expressions: _col0 (type: string), _col1 (type: string)
133                   sort order: ++
134                   Map-reduce partition columns: _col0 (type: string), _col1 (type: string)
135                   Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
136                   value expressions: _col2 (type: bigint)
137       Reduce Operator Tree:
138         Group By Operator
139           aggregations: count(VALUE._col0)
140           keys: KEY._col0 (type: string), KEY._col1 (type: string), 0L (type: bigint)
141           mode: partials
142           outputColumnNames: _col0, _col1, _col2, _col3
143           Statistics: Num rows: 4 Data size: 1440 Basic stats: COMPLETE Column stats: NONE
144           File Output Operator
145             compressed: false
146             table:
147                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
148                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
149                 serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
150
151   Stage: Stage-2
152     Map Reduce
153       Map Operator Tree:
154           TableScan
155             Reduce Output Operator
156               key expressions: _col0 (type: string), _col1 (type: string), _col2 (type: bigint)
157               sort order: +++
158               Map-reduce partition columns: _col0 (type: string), _col1 (type: string), _col2 (type: bigint)
159               Statistics: Num rows: 4 Data size: 1440 Basic stats: COMPLETE Column stats: NONE
160               value expressions: _col3 (type: bigint)
161       Reduce Operator Tree:
162         Group By Operator
163           aggregations: count(VALUE._col0)
164           keys: KEY._col0 (type: string), KEY._col1 (type: string), KEY._col2 (type: bigint)
165           mode: final
166           outputColumnNames: _col0, _col1, _col3
167           Statistics: Num rows: 2 Data size: 720 Basic stats: COMPLETE Column stats: NONE
168           pruneGroupingSetId: true
169           Select Operator
170             expressions: _col0 (type: string), _col1 (type: string), _col3 (type: bigint)
171             outputColumnNames: _col0, _col1, _col2
172             Statistics: Num rows: 2 Data size: 720 Basic stats: COMPLETE Column stats: NONE
173             File Output Operator
174               compressed: false
175               Statistics: Num rows: 2 Data size: 720 Basic stats: COMPLETE Column stats: NONE
176               table:
177                   input format: org.apache.hadoop.mapred.SequenceFileInputFormat
178                   output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
179                   serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
180
181   Stage: Stage-0
182     Fetch Operator
183       limit: -1
184       Processor Tree:
185         ListSink
186
187 PREHOOK: query: SELECT a, b, count(*) from T1 group by a, b with cube
188 PREHOOK: type: QUERY
189 PREHOOK: Input: default@t1
190 #### A masked pattern was here ####
191 POSTHOOK: query: SELECT a, b, count(*) from T1 group by a, b with cube
192 POSTHOOK: type: QUERY
193 POSTHOOK: Input: default@t1
194 #### A masked pattern was here ####
195 a       b       _c2
196 1       1       1
197 1       NULL    1
198 2       2       1
199 2       3       1
200 2       NULL    2
201 3       2       1
202 3       NULL    1
203 5       2       1
204 5       NULL    1
205 8       1       1
206 8       NULL    1
207 NULL    1       2
208 NULL    2       3
209 NULL    3       1
210 NULL    NULL    6
211 PREHOOK: query: EXPLAIN
212 SELECT a, b, sum(c) from T1 group by a, b with cube
213 PREHOOK: type: QUERY
214 POSTHOOK: query: EXPLAIN
215 SELECT a, b, sum(c) from T1 group by a, b with cube
216 POSTHOOK: type: QUERY
217 Explain
218 STAGE DEPENDENCIES:
219   Stage-1 is a root stage
220   Stage-2 depends on stages: Stage-1
221   Stage-0 depends on stages: Stage-2
222
223 STAGE PLANS:
224   Stage: Stage-1
225     Map Reduce
226       Map Operator Tree:
227           TableScan
228             alias: t1
229             Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
230             Select Operator
231               expressions: a (type: string), b (type: string), c (type: string)
232               outputColumnNames: a, b, c
233               Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
234               Group By Operator
235                 aggregations: sum(c)
236                 keys: a (type: string), b (type: string)
237                 mode: hash
238                 outputColumnNames: _col0, _col1, _col2
239                 Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
240                 Reduce Output Operator
241                   key expressions: _col0 (type: string), _col1 (type: string)
242                   sort order: ++
243                   Map-reduce partition columns: _col0 (type: string), _col1 (type: string)
244                   Statistics: Num rows: 1 Data size: 360 Basic stats: COMPLETE Column stats: NONE
245                   value expressions: _col2 (type: double)
246       Reduce Operator Tree:
247         Group By Operator
248           aggregations: sum(VALUE._col0)
249           keys: KEY._col0 (type: string), KEY._col1 (type: string), 0L (type: bigint)
250           mode: partials
251           outputColumnNames: _col0, _col1, _col2, _col3
252           Statistics: Num rows: 4 Data size: 1440 Basic stats: COMPLETE Column stats: NONE
253           File Output Operator
254             compressed: false
255             table:
256                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
257                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
258                 serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
259
260   Stage: Stage-2
261     Map Reduce
262       Map Operator Tree:
263           TableScan
264             Reduce Output Operator
265               key expressions: _col0 (type: string), _col1 (type: string), _col2 (type: bigint)
266               sort order: +++
267               Map-reduce partition columns: _col0 (type: string), _col1 (type: string), _col2 (type: bigint)
268               Statistics: Num rows: 4 Data size: 1440 Basic stats: COMPLETE Column stats: NONE
269               value expressions: _col3 (type: double)
270       Reduce Operator Tree:
271         Group By Operator
272           aggregations: sum(VALUE._col0)
273           keys: KEY._col0 (type: string), KEY._col1 (type: string), KEY._col2 (type: bigint)
274           mode: final
275           outputColumnNames: _col0, _col1, _col3
276           Statistics: Num rows: 2 Data size: 720 Basic stats: COMPLETE Column stats: NONE
277           pruneGroupingSetId: true
278           Select Operator
279             expressions: _col0 (type: string), _col1 (type: string), _col3 (type: double)
280             outputColumnNames: _col0, _col1, _col2
281             Statistics: Num rows: 2 Data size: 720 Basic stats: COMPLETE Column stats: NONE
282             File Output Operator
283               compressed: false
284               Statistics: Num rows: 2 Data size: 720 Basic stats: COMPLETE Column stats: NONE
285               table:
286                   input format: org.apache.hadoop.mapred.SequenceFileInputFormat
287                   output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
288                   serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
289
290   Stage: Stage-0
291     Fetch Operator
292       limit: -1
293       Processor Tree:
294         ListSink
295
296 PREHOOK: query: SELECT a, b, sum(c) from T1 group by a, b with cube
297 PREHOOK: type: QUERY
298 PREHOOK: Input: default@t1
299 #### A masked pattern was here ####
300 POSTHOOK: query: SELECT a, b, sum(c) from T1 group by a, b with cube
301 POSTHOOK: type: QUERY
302 POSTHOOK: Input: default@t1
303 #### A masked pattern was here ####
304 a       b       _c2
305 1       1       3.0
306 1       NULL    3.0
307 2       2       4.0
308 2       3       5.0
309 2       NULL    9.0
310 3       2       8.0
311 3       NULL    8.0
312 5       2       2.0
313 5       NULL    2.0
314 8       1       1.0
315 8       NULL    1.0
316 NULL    1       4.0
317 NULL    2       14.0
318 NULL    3       5.0
319 NULL    NULL    23.0
320 PREHOOK: query: CREATE TABLE T2(a STRING, b STRING, c int, d int)
321 PREHOOK: type: CREATETABLE
322 PREHOOK: Output: database:default
323 PREHOOK: Output: default@T2
324 POSTHOOK: query: CREATE TABLE T2(a STRING, b STRING, c int, d int)
325 POSTHOOK: type: CREATETABLE
326 POSTHOOK: Output: database:default
327 POSTHOOK: Output: default@T2
328 PREHOOK: query: INSERT OVERWRITE TABLE T2
329 SELECT a, b, c, c from T1
330 PREHOOK: type: QUERY
331 PREHOOK: Input: default@t1
332 PREHOOK: Output: default@t2
333 POSTHOOK: query: INSERT OVERWRITE TABLE T2
334 SELECT a, b, c, c from T1
335 POSTHOOK: type: QUERY
336 POSTHOOK: Input: default@t1
337 POSTHOOK: Output: default@t2
338 POSTHOOK: Lineage: t2.a SIMPLE [(t1)t1.FieldSchema(name:a, type:string, comment:null), ]
339 POSTHOOK: Lineage: t2.b SIMPLE [(t1)t1.FieldSchema(name:b, type:string, comment:null), ]
340 POSTHOOK: Lineage: t2.c EXPRESSION [(t1)t1.FieldSchema(name:c, type:string, comment:null), ]
341 POSTHOOK: Lineage: t2.d EXPRESSION [(t1)t1.FieldSchema(name:c, type:string, comment:null), ]
342 _col0   _col1   _col2   _col3
343 PREHOOK: query: EXPLAIN
344 SELECT a, b, sum(c+d) from T2 group by a, b with cube
345 PREHOOK: type: QUERY
346 POSTHOOK: query: EXPLAIN
347 SELECT a, b, sum(c+d) from T2 group by a, b with cube
348 POSTHOOK: type: QUERY
349 Explain
350 STAGE DEPENDENCIES:
351   Stage-1 is a root stage
352   Stage-2 depends on stages: Stage-1
353   Stage-0 depends on stages: Stage-2
354
355 STAGE PLANS:
356   Stage: Stage-1
357     Map Reduce
358       Map Operator Tree:
359           TableScan
360             alias: t2
361             Statistics: Num rows: 6 Data size: 42 Basic stats: COMPLETE Column stats: NONE
362             Select Operator
363               expressions: a (type: string), b (type: string), (c + d) (type: int)
364               outputColumnNames: _col0, _col1, _col2
365               Statistics: Num rows: 6 Data size: 42 Basic stats: COMPLETE Column stats: NONE
366               Group By Operator
367                 aggregations: sum(_col2)
368                 keys: _col0 (type: string), _col1 (type: string)
369                 mode: hash
370                 outputColumnNames: _col0, _col1, _col2
371                 Statistics: Num rows: 6 Data size: 42 Basic stats: COMPLETE Column stats: NONE
372                 Reduce Output Operator
373                   key expressions: _col0 (type: string), _col1 (type: string)
374                   sort order: ++
375                   Map-reduce partition columns: _col0 (type: string), _col1 (type: string)
376                   Statistics: Num rows: 6 Data size: 42 Basic stats: COMPLETE Column stats: NONE
377                   value expressions: _col2 (type: bigint)
378       Reduce Operator Tree:
379         Group By Operator
380           aggregations: sum(VALUE._col0)
381           keys: KEY._col0 (type: string), KEY._col1 (type: string), 0L (type: bigint)
382           mode: partials
383           outputColumnNames: _col0, _col1, _col2, _col3
384           Statistics: Num rows: 24 Data size: 168 Basic stats: COMPLETE Column stats: NONE
385           File Output Operator
386             compressed: false
387             table:
388                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
389                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
390                 serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
391
392   Stage: Stage-2
393     Map Reduce
394       Map Operator Tree:
395           TableScan
396             Reduce Output Operator
397               key expressions: _col0 (type: string), _col1 (type: string), _col2 (type: bigint)
398               sort order: +++
399               Map-reduce partition columns: _col0 (type: string), _col1 (type: string), _col2 (type: bigint)
400               Statistics: Num rows: 24 Data size: 168 Basic stats: COMPLETE Column stats: NONE
401               value expressions: _col3 (type: bigint)
402       Reduce Operator Tree:
403         Group By Operator
404           aggregations: sum(VALUE._col0)
405           keys: KEY._col0 (type: string), KEY._col1 (type: string), KEY._col2 (type: bigint)
406           mode: final
407           outputColumnNames: _col0, _col1, _col3
408           Statistics: Num rows: 12 Data size: 84 Basic stats: COMPLETE Column stats: NONE
409           pruneGroupingSetId: true
410           Select Operator
411             expressions: _col0 (type: string), _col1 (type: string), _col3 (type: bigint)
412             outputColumnNames: _col0, _col1, _col2
413             Statistics: Num rows: 12 Data size: 84 Basic stats: COMPLETE Column stats: NONE
414             File Output Operator
415               compressed: false
416               Statistics: Num rows: 12 Data size: 84 Basic stats: COMPLETE Column stats: NONE
417               table:
418                   input format: org.apache.hadoop.mapred.SequenceFileInputFormat
419                   output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
420                   serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
421
422   Stage: Stage-0
423     Fetch Operator
424       limit: -1
425       Processor Tree:
426         ListSink
427
428 PREHOOK: query: SELECT a, b, sum(c+d) from T2 group by a, b with cube
429 PREHOOK: type: QUERY
430 PREHOOK: Input: default@t2
431 #### A masked pattern was here ####
432 POSTHOOK: query: SELECT a, b, sum(c+d) from T2 group by a, b with cube
433 POSTHOOK: type: QUERY
434 POSTHOOK: Input: default@t2
435 #### A masked pattern was here ####
436 a       b       _c2
437 1       1       6
438 1       NULL    6
439 2       2       8
440 2       3       10
441 2       NULL    18
442 3       2       16
443 3       NULL    16
444 5       2       4
445 5       NULL    4
446 8       1       2
447 8       NULL    2
448 NULL    1       8
449 NULL    2       28
450 NULL    3       10
451 NULL    NULL    46