HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / notable_alias1.q.out
1 PREHOOK: query: CREATE TABLE dest1(dummy STRING, key INT, value DOUBLE) STORED AS TEXTFILE
2 PREHOOK: type: CREATETABLE
3 PREHOOK: Output: database:default
4 PREHOOK: Output: default@dest1
5 POSTHOOK: query: CREATE TABLE dest1(dummy STRING, key INT, value DOUBLE) STORED AS TEXTFILE
6 POSTHOOK: type: CREATETABLE
7 POSTHOOK: Output: database:default
8 POSTHOOK: Output: default@dest1
9 PREHOOK: query: EXPLAIN
10 FROM src
11 INSERT OVERWRITE TABLE dest1 SELECT '1234', key, count(1) WHERE src.key < 100 group by key
12 PREHOOK: type: QUERY
13 POSTHOOK: query: EXPLAIN
14 FROM src
15 INSERT OVERWRITE TABLE dest1 SELECT '1234', key, count(1) WHERE src.key < 100 group by key
16 POSTHOOK: type: QUERY
17 STAGE DEPENDENCIES:
18   Stage-1 is a root stage
19   Stage-0 depends on stages: Stage-1
20   Stage-2 depends on stages: Stage-0, Stage-3
21   Stage-3 depends on stages: Stage-1
22
23 STAGE PLANS:
24   Stage: Stage-1
25     Map Reduce
26       Map Operator Tree:
27           TableScan
28             alias: src
29             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
30             Filter Operator
31               predicate: (UDFToDouble(key) < 100.0D) (type: boolean)
32               Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
33               Group By Operator
34                 aggregations: count()
35                 keys: key (type: string)
36                 mode: hash
37                 outputColumnNames: _col0, _col1
38                 Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
39                 Reduce Output Operator
40                   key expressions: _col0 (type: string)
41                   sort order: +
42                   Map-reduce partition columns: _col0 (type: string)
43                   Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
44                   value expressions: _col1 (type: bigint)
45       Reduce Operator Tree:
46         Group By Operator
47           aggregations: count(VALUE._col0)
48           keys: KEY._col0 (type: string)
49           mode: mergepartial
50           outputColumnNames: _col0, _col1
51           Statistics: Num rows: 83 Data size: 881 Basic stats: COMPLETE Column stats: NONE
52           Select Operator
53             expressions: '1234' (type: string), UDFToInteger(_col0) (type: int), UDFToDouble(_col1) (type: double)
54             outputColumnNames: _col0, _col1, _col2
55             Statistics: Num rows: 83 Data size: 881 Basic stats: COMPLETE Column stats: NONE
56             File Output Operator
57               compressed: false
58               Statistics: Num rows: 83 Data size: 881 Basic stats: COMPLETE Column stats: NONE
59               table:
60                   input format: org.apache.hadoop.mapred.TextInputFormat
61                   output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
62                   serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
63                   name: default.dest1
64             Select Operator
65               expressions: _col0 (type: string), _col1 (type: int), _col2 (type: double)
66               outputColumnNames: dummy, key, value
67               Statistics: Num rows: 83 Data size: 881 Basic stats: COMPLETE Column stats: NONE
68               Group By Operator
69                 aggregations: compute_stats(dummy, 'hll'), compute_stats(key, 'hll'), compute_stats(value, 'hll')
70                 mode: hash
71                 outputColumnNames: _col0, _col1, _col2
72                 Statistics: Num rows: 1 Data size: 1288 Basic stats: COMPLETE Column stats: NONE
73                 File Output Operator
74                   compressed: false
75                   table:
76                       input format: org.apache.hadoop.mapred.SequenceFileInputFormat
77                       output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
78                       serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
79
80   Stage: Stage-0
81     Move Operator
82       tables:
83           replace: true
84           table:
85               input format: org.apache.hadoop.mapred.TextInputFormat
86               output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
87               serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
88               name: default.dest1
89
90   Stage: Stage-2
91     Stats Work
92       Basic Stats Work:
93       Column Stats Desc:
94           Columns: dummy, key, value
95           Column Types: string, int, double
96           Table: default.dest1
97
98   Stage: Stage-3
99     Map Reduce
100       Map Operator Tree:
101           TableScan
102             Reduce Output Operator
103               sort order: 
104               Statistics: Num rows: 1 Data size: 1288 Basic stats: COMPLETE Column stats: NONE
105               value expressions: _col0 (type: struct<columntype:string,maxlength:bigint,sumlength:bigint,count:bigint,countnulls:bigint,bitvector:binary>), _col1 (type: struct<columntype:string,min:bigint,max:bigint,countnulls:bigint,bitvector:binary>), _col2 (type: struct<columntype:string,min:double,max:double,countnulls:bigint,bitvector:binary>)
106       Reduce Operator Tree:
107         Group By Operator
108           aggregations: compute_stats(VALUE._col0), compute_stats(VALUE._col1), compute_stats(VALUE._col2)
109           mode: mergepartial
110           outputColumnNames: _col0, _col1, _col2
111           Statistics: Num rows: 1 Data size: 1320 Basic stats: COMPLETE Column stats: NONE
112           File Output Operator
113             compressed: false
114             Statistics: Num rows: 1 Data size: 1320 Basic stats: COMPLETE Column stats: NONE
115             table:
116                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
117                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
118                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
119
120 PREHOOK: query: FROM src
121 INSERT OVERWRITE TABLE dest1 SELECT '1234', key, count(1) WHERE src.key < 100 group by key
122 PREHOOK: type: QUERY
123 PREHOOK: Input: default@src
124 PREHOOK: Output: default@dest1
125 POSTHOOK: query: FROM src
126 INSERT OVERWRITE TABLE dest1 SELECT '1234', key, count(1) WHERE src.key < 100 group by key
127 POSTHOOK: type: QUERY
128 POSTHOOK: Input: default@src
129 POSTHOOK: Output: default@dest1
130 POSTHOOK: Lineage: dest1.dummy SIMPLE []
131 POSTHOOK: Lineage: dest1.key EXPRESSION [(src)src.FieldSchema(name:key, type:string, comment:default), ]
132 POSTHOOK: Lineage: dest1.value EXPRESSION [(src)src.null, ]
133 PREHOOK: query: SELECT dest1.* FROM dest1
134 PREHOOK: type: QUERY
135 PREHOOK: Input: default@dest1
136 #### A masked pattern was here ####
137 POSTHOOK: query: SELECT dest1.* FROM dest1
138 POSTHOOK: type: QUERY
139 POSTHOOK: Input: default@dest1
140 #### A masked pattern was here ####
141 1234    0       3.0
142 1234    10      1.0
143 1234    11      1.0
144 1234    12      2.0
145 1234    15      2.0
146 1234    17      1.0
147 1234    18      2.0
148 1234    19      1.0
149 1234    2       1.0
150 1234    20      1.0
151 1234    24      2.0
152 1234    26      2.0
153 1234    27      1.0
154 1234    28      1.0
155 1234    30      1.0
156 1234    33      1.0
157 1234    34      1.0
158 1234    35      3.0
159 1234    37      2.0
160 1234    4       1.0
161 1234    41      1.0
162 1234    42      2.0
163 1234    43      1.0
164 1234    44      1.0
165 1234    47      1.0
166 1234    5       3.0
167 1234    51      2.0
168 1234    53      1.0
169 1234    54      1.0
170 1234    57      1.0
171 1234    58      2.0
172 1234    64      1.0
173 1234    65      1.0
174 1234    66      1.0
175 1234    67      2.0
176 1234    69      1.0
177 1234    70      3.0
178 1234    72      2.0
179 1234    74      1.0
180 1234    76      2.0
181 1234    77      1.0
182 1234    78      1.0
183 1234    8       1.0
184 1234    80      1.0
185 1234    82      1.0
186 1234    83      2.0
187 1234    84      2.0
188 1234    85      1.0
189 1234    86      1.0
190 1234    87      1.0
191 1234    9       1.0
192 1234    90      3.0
193 1234    92      1.0
194 1234    95      2.0
195 1234    96      1.0
196 1234    97      2.0
197 1234    98      2.0