HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / spark / union_remove_14.q.out
1 PREHOOK: query: create table inputTbl1(key string, val string) stored as textfile
2 PREHOOK: type: CREATETABLE
3 PREHOOK: Output: database:default
4 PREHOOK: Output: default@inputTbl1
5 POSTHOOK: query: create table inputTbl1(key string, val string) stored as textfile
6 POSTHOOK: type: CREATETABLE
7 POSTHOOK: Output: database:default
8 POSTHOOK: Output: default@inputTbl1
9 PREHOOK: query: create table outputTbl1(key string, `values` bigint) stored as rcfile
10 PREHOOK: type: CREATETABLE
11 PREHOOK: Output: database:default
12 PREHOOK: Output: default@outputTbl1
13 POSTHOOK: query: create table outputTbl1(key string, `values` bigint) stored as rcfile
14 POSTHOOK: type: CREATETABLE
15 POSTHOOK: Output: database:default
16 POSTHOOK: Output: default@outputTbl1
17 PREHOOK: query: load data local inpath '../../data/files/T1.txt' into table inputTbl1
18 PREHOOK: type: LOAD
19 #### A masked pattern was here ####
20 PREHOOK: Output: default@inputtbl1
21 POSTHOOK: query: load data local inpath '../../data/files/T1.txt' into table inputTbl1
22 POSTHOOK: type: LOAD
23 #### A masked pattern was here ####
24 POSTHOOK: Output: default@inputtbl1
25 PREHOOK: query: explain
26 insert overwrite table outputTbl1
27 SELECT * FROM
28 (
29 select key, 1 as `values` from inputTbl1
30 union all
31 select a.key as key, cast(b.val as bigint) as `values`
32 FROM inputTbl1 a join inputTbl1 b on a.key=b.key
33 )c
34 PREHOOK: type: QUERY
35 POSTHOOK: query: explain
36 insert overwrite table outputTbl1
37 SELECT * FROM
38 (
39 select key, 1 as `values` from inputTbl1
40 union all
41 select a.key as key, cast(b.val as bigint) as `values`
42 FROM inputTbl1 a join inputTbl1 b on a.key=b.key
43 )c
44 POSTHOOK: type: QUERY
45 STAGE DEPENDENCIES:
46   Stage-7 is a root stage
47   Stage-1 depends on stages: Stage-7
48   Stage-6 depends on stages: Stage-1 , consists of Stage-3, Stage-2, Stage-4
49   Stage-3
50   Stage-0 depends on stages: Stage-3, Stage-2, Stage-5
51   Stage-2
52   Stage-4
53   Stage-5 depends on stages: Stage-4
54
55 STAGE PLANS:
56   Stage: Stage-7
57     Spark
58 #### A masked pattern was here ####
59       Vertices:
60         Map 3 
61             Map Operator Tree:
62                 TableScan
63                   alias: b
64                   Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
65                   Filter Operator
66                     predicate: key is not null (type: boolean)
67                     Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
68                     Select Operator
69                       expressions: key (type: string), val (type: string)
70                       outputColumnNames: _col0, _col1
71                       Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
72                       Spark HashTable Sink Operator
73                         keys:
74                           0 _col0 (type: string)
75                           1 _col0 (type: string)
76             Local Work:
77               Map Reduce Local Work
78
79   Stage: Stage-1
80     Spark
81 #### A masked pattern was here ####
82       Vertices:
83         Map 1 
84             Map Operator Tree:
85                 TableScan
86                   alias: inputtbl1
87                   Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
88                   Select Operator
89                     expressions: key (type: string), 1L (type: bigint)
90                     outputColumnNames: _col0, _col1
91                     Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
92                     File Output Operator
93                       compressed: false
94                       Statistics: Num rows: 2 Data size: 630 Basic stats: COMPLETE Column stats: NONE
95                       table:
96                           input format: org.apache.hadoop.hive.ql.io.RCFileInputFormat
97                           output format: org.apache.hadoop.hive.ql.io.RCFileOutputFormat
98                           serde: org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe
99                           name: default.outputtbl1
100         Map 2 
101             Map Operator Tree:
102                 TableScan
103                   alias: a
104                   Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
105                   Filter Operator
106                     predicate: key is not null (type: boolean)
107                     Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
108                     Select Operator
109                       expressions: key (type: string)
110                       outputColumnNames: _col0
111                       Statistics: Num rows: 1 Data size: 300 Basic stats: COMPLETE Column stats: NONE
112                       Map Join Operator
113                         condition map:
114                              Inner Join 0 to 1
115                         keys:
116                           0 _col0 (type: string)
117                           1 _col0 (type: string)
118                         outputColumnNames: _col0, _col2
119                         input vertices:
120                           1 Map 3
121                         Statistics: Num rows: 1 Data size: 330 Basic stats: COMPLETE Column stats: NONE
122                         Select Operator
123                           expressions: _col0 (type: string), UDFToLong(_col2) (type: bigint)
124                           outputColumnNames: _col0, _col1
125                           Statistics: Num rows: 1 Data size: 330 Basic stats: COMPLETE Column stats: NONE
126                           File Output Operator
127                             compressed: false
128                             Statistics: Num rows: 2 Data size: 630 Basic stats: COMPLETE Column stats: NONE
129                             table:
130                                 input format: org.apache.hadoop.hive.ql.io.RCFileInputFormat
131                                 output format: org.apache.hadoop.hive.ql.io.RCFileOutputFormat
132                                 serde: org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe
133                                 name: default.outputtbl1
134             Local Work:
135               Map Reduce Local Work
136
137   Stage: Stage-6
138     Conditional Operator
139
140   Stage: Stage-3
141     Move Operator
142       files:
143           hdfs directory: true
144 #### A masked pattern was here ####
145
146   Stage: Stage-0
147     Move Operator
148       tables:
149           replace: true
150           table:
151               input format: org.apache.hadoop.hive.ql.io.RCFileInputFormat
152               output format: org.apache.hadoop.hive.ql.io.RCFileOutputFormat
153               serde: org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe
154               name: default.outputtbl1
155
156   Stage: Stage-2
157     Spark
158 #### A masked pattern was here ####
159       Vertices:
160         Spark Merge File Work 
161           Merge File Operator
162             Map Operator Tree:
163                 RCFile Merge Operator
164             merge level: block
165             input format: org.apache.hadoop.hive.ql.io.RCFileInputFormat
166
167   Stage: Stage-4
168     Spark
169 #### A masked pattern was here ####
170       Vertices:
171         Spark Merge File Work 
172           Merge File Operator
173             Map Operator Tree:
174                 RCFile Merge Operator
175             merge level: block
176             input format: org.apache.hadoop.hive.ql.io.RCFileInputFormat
177
178   Stage: Stage-5
179     Move Operator
180       files:
181           hdfs directory: true
182 #### A masked pattern was here ####
183
184 PREHOOK: query: insert overwrite table outputTbl1
185 SELECT * FROM
186 (
187 select key, 1 as `values` from inputTbl1
188 union all
189 select a.key as key, cast(b.val as bigint) as `values`
190 FROM inputTbl1 a join inputTbl1 b on a.key=b.key
191 )c
192 PREHOOK: type: QUERY
193 PREHOOK: Input: default@inputtbl1
194 PREHOOK: Output: default@outputtbl1
195 POSTHOOK: query: insert overwrite table outputTbl1
196 SELECT * FROM
197 (
198 select key, 1 as `values` from inputTbl1
199 union all
200 select a.key as key, cast(b.val as bigint) as `values`
201 FROM inputTbl1 a join inputTbl1 b on a.key=b.key
202 )c
203 POSTHOOK: type: QUERY
204 POSTHOOK: Input: default@inputtbl1
205 POSTHOOK: Output: default@outputtbl1
206 POSTHOOK: Lineage: outputtbl1.key EXPRESSION [(inputtbl1)inputtbl1.FieldSchema(name:key, type:string, comment:null), (inputtbl1)a.FieldSchema(name:key, type:string, comment:null), ]
207 POSTHOOK: Lineage: outputtbl1.values EXPRESSION [(inputtbl1)b.FieldSchema(name:val, type:string, comment:null), ]
208 PREHOOK: query: desc formatted outputTbl1
209 PREHOOK: type: DESCTABLE
210 PREHOOK: Input: default@outputtbl1
211 POSTHOOK: query: desc formatted outputTbl1
212 POSTHOOK: type: DESCTABLE
213 POSTHOOK: Input: default@outputtbl1
214 # col_name              data_type               comment             
215 key                     string                                      
216 values                  bigint                                      
217                  
218 # Detailed Table Information             
219 Database:               default                  
220 #### A masked pattern was here ####
221 Retention:              0                        
222 #### A masked pattern was here ####
223 Table Type:             MANAGED_TABLE            
224 Table Parameters:                
225         numFiles                2                   
226         totalSize               194                 
227 #### A masked pattern was here ####
228                  
229 # Storage Information            
230 SerDe Library:          org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe     
231 InputFormat:            org.apache.hadoop.hive.ql.io.RCFileInputFormat   
232 OutputFormat:           org.apache.hadoop.hive.ql.io.RCFileOutputFormat  
233 Compressed:             No                       
234 Num Buckets:            -1                       
235 Bucket Columns:         []                       
236 Sort Columns:           []                       
237 Storage Desc Params:             
238         serialization.format    1                   
239 PREHOOK: query: select * from outputTbl1
240 PREHOOK: type: QUERY
241 PREHOOK: Input: default@outputtbl1
242 #### A masked pattern was here ####
243 POSTHOOK: query: select * from outputTbl1
244 POSTHOOK: type: QUERY
245 POSTHOOK: Input: default@outputtbl1
246 #### A masked pattern was here ####
247 1       1
248 1       11
249 2       1
250 2       12
251 3       1
252 3       13
253 7       1
254 7       17
255 8       1
256 8       1
257 8       18
258 8       18
259 8       28
260 8       28