HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / spark / union_remove_8.q.out
1 PREHOOK: query: create table inputTbl1(key string, val string) stored as textfile
2 PREHOOK: type: CREATETABLE
3 PREHOOK: Output: database:default
4 PREHOOK: Output: default@inputTbl1
5 POSTHOOK: query: create table inputTbl1(key string, val string) stored as textfile
6 POSTHOOK: type: CREATETABLE
7 POSTHOOK: Output: database:default
8 POSTHOOK: Output: default@inputTbl1
9 PREHOOK: query: create table outputTbl1(key string, `values` bigint) stored as rcfile
10 PREHOOK: type: CREATETABLE
11 PREHOOK: Output: database:default
12 PREHOOK: Output: default@outputTbl1
13 POSTHOOK: query: create table outputTbl1(key string, `values` bigint) stored as rcfile
14 POSTHOOK: type: CREATETABLE
15 POSTHOOK: Output: database:default
16 POSTHOOK: Output: default@outputTbl1
17 PREHOOK: query: load data local inpath '../../data/files/T1.txt' into table inputTbl1
18 PREHOOK: type: LOAD
19 #### A masked pattern was here ####
20 PREHOOK: Output: default@inputtbl1
21 POSTHOOK: query: load data local inpath '../../data/files/T1.txt' into table inputTbl1
22 POSTHOOK: type: LOAD
23 #### A masked pattern was here ####
24 POSTHOOK: Output: default@inputtbl1
25 PREHOOK: query: explain
26 insert overwrite table outputTbl1
27 SELECT *
28 FROM (
29   SELECT key, count(1) as `values` from inputTbl1 group by key
30   UNION ALL
31   SELECT key, 1 as `values` from inputTbl1
32   UNION ALL
33   SELECT key, 2 as `values` from inputTbl1
34 ) a
35 PREHOOK: type: QUERY
36 POSTHOOK: query: explain
37 insert overwrite table outputTbl1
38 SELECT *
39 FROM (
40   SELECT key, count(1) as `values` from inputTbl1 group by key
41   UNION ALL
42   SELECT key, 1 as `values` from inputTbl1
43   UNION ALL
44   SELECT key, 2 as `values` from inputTbl1
45 ) a
46 POSTHOOK: type: QUERY
47 STAGE DEPENDENCIES:
48   Stage-1 is a root stage
49   Stage-0 depends on stages: Stage-1
50
51 STAGE PLANS:
52   Stage: Stage-1
53     Spark
54       Edges:
55         Reducer 2 <- Map 1 (GROUP, 2)
56 #### A masked pattern was here ####
57       Vertices:
58         Map 1 
59             Map Operator Tree:
60                 TableScan
61                   alias: inputtbl1
62                   Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
63                   Select Operator
64                     expressions: key (type: string)
65                     outputColumnNames: key
66                     Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
67                     Group By Operator
68                       aggregations: count()
69                       keys: key (type: string)
70                       mode: hash
71                       outputColumnNames: _col0, _col1
72                       Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
73                       Reduce Output Operator
74                         key expressions: _col0 (type: string)
75                         sort order: +
76                         Map-reduce partition columns: _col0 (type: string)
77                         Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
78                         value expressions: _col1 (type: bigint)
79         Map 3 
80             Map Operator Tree:
81                 TableScan
82                   alias: inputtbl1
83                   Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
84                   Select Operator
85                     expressions: key (type: string), 1L (type: bigint)
86                     outputColumnNames: _col0, _col1
87                     Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
88                     File Output Operator
89                       compressed: false
90                       Statistics: Num rows: 3 Data size: 900 Basic stats: COMPLETE Column stats: NONE
91                       table:
92                           input format: org.apache.hadoop.hive.ql.io.RCFileInputFormat
93                           output format: org.apache.hadoop.hive.ql.io.RCFileOutputFormat
94                           serde: org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe
95                           name: default.outputtbl1
96         Map 4 
97             Map Operator Tree:
98                 TableScan
99                   alias: inputtbl1
100                   Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
101                   Select Operator
102                     expressions: key (type: string), 2L (type: bigint)
103                     outputColumnNames: _col0, _col1
104                     Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
105                     File Output Operator
106                       compressed: false
107                       Statistics: Num rows: 3 Data size: 900 Basic stats: COMPLETE Column stats: NONE
108                       table:
109                           input format: org.apache.hadoop.hive.ql.io.RCFileInputFormat
110                           output format: org.apache.hadoop.hive.ql.io.RCFileOutputFormat
111                           serde: org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe
112                           name: default.outputtbl1
113         Reducer 2 
114             Reduce Operator Tree:
115               Group By Operator
116                 aggregations: count(VALUE._col0)
117                 keys: KEY._col0 (type: string)
118                 mode: mergepartial
119                 outputColumnNames: _col0, _col1
120                 Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
121                 File Output Operator
122                   compressed: false
123                   Statistics: Num rows: 3 Data size: 900 Basic stats: COMPLETE Column stats: NONE
124                   table:
125                       input format: org.apache.hadoop.hive.ql.io.RCFileInputFormat
126                       output format: org.apache.hadoop.hive.ql.io.RCFileOutputFormat
127                       serde: org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe
128                       name: default.outputtbl1
129
130   Stage: Stage-0
131     Move Operator
132       tables:
133           replace: true
134           table:
135               input format: org.apache.hadoop.hive.ql.io.RCFileInputFormat
136               output format: org.apache.hadoop.hive.ql.io.RCFileOutputFormat
137               serde: org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe
138               name: default.outputtbl1
139
140 PREHOOK: query: insert overwrite table outputTbl1
141 SELECT *
142 FROM (
143   SELECT key, count(1) as `values` from inputTbl1 group by key
144   UNION ALL
145   SELECT key, 1 as `values` from inputTbl1
146   UNION ALL
147   SELECT key, 2 as `values` from inputTbl1
148 ) a
149 PREHOOK: type: QUERY
150 PREHOOK: Input: default@inputtbl1
151 PREHOOK: Output: default@outputtbl1
152 POSTHOOK: query: insert overwrite table outputTbl1
153 SELECT *
154 FROM (
155   SELECT key, count(1) as `values` from inputTbl1 group by key
156   UNION ALL
157   SELECT key, 1 as `values` from inputTbl1
158   UNION ALL
159   SELECT key, 2 as `values` from inputTbl1
160 ) a
161 POSTHOOK: type: QUERY
162 POSTHOOK: Input: default@inputtbl1
163 POSTHOOK: Output: default@outputtbl1
164 POSTHOOK: Lineage: outputtbl1.key EXPRESSION [(inputtbl1)inputtbl1.FieldSchema(name:key, type:string, comment:null), ]
165 POSTHOOK: Lineage: outputtbl1.values EXPRESSION [(inputtbl1)inputtbl1.null, ]
166 PREHOOK: query: desc formatted outputTbl1
167 PREHOOK: type: DESCTABLE
168 PREHOOK: Input: default@outputtbl1
169 POSTHOOK: query: desc formatted outputTbl1
170 POSTHOOK: type: DESCTABLE
171 POSTHOOK: Input: default@outputtbl1
172 # col_name              data_type               comment             
173 key                     string                                      
174 values                  bigint                                      
175                  
176 # Detailed Table Information             
177 Database:               default                  
178 #### A masked pattern was here ####
179 Retention:              0                        
180 #### A masked pattern was here ####
181 Table Type:             MANAGED_TABLE            
182 Table Parameters:                
183         numFiles                4                   
184         totalSize               348                 
185 #### A masked pattern was here ####
186                  
187 # Storage Information            
188 SerDe Library:          org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe     
189 InputFormat:            org.apache.hadoop.hive.ql.io.RCFileInputFormat   
190 OutputFormat:           org.apache.hadoop.hive.ql.io.RCFileOutputFormat  
191 Compressed:             No                       
192 Num Buckets:            -1                       
193 Bucket Columns:         []                       
194 Sort Columns:           []                       
195 Storage Desc Params:             
196         serialization.format    1                   
197 PREHOOK: query: select * from outputTbl1
198 PREHOOK: type: QUERY
199 PREHOOK: Input: default@outputtbl1
200 #### A masked pattern was here ####
201 POSTHOOK: query: select * from outputTbl1
202 POSTHOOK: type: QUERY
203 POSTHOOK: Input: default@outputtbl1
204 #### A masked pattern was here ####
205 1       1
206 1       1
207 1       2
208 2       1
209 2       1
210 2       2
211 3       1
212 3       1
213 3       2
214 7       1
215 7       1
216 7       2
217 8       1
218 8       1
219 8       2
220 8       2
221 8       2