HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / auto_join8.q.out
1 PREHOOK: query: CREATE TABLE dest1(c1 INT, c2 STRING, c3 INT, c4 STRING) STORED AS TEXTFILE
2 PREHOOK: type: CREATETABLE
3 PREHOOK: Output: database:default
4 PREHOOK: Output: default@dest1
5 POSTHOOK: query: CREATE TABLE dest1(c1 INT, c2 STRING, c3 INT, c4 STRING) STORED AS TEXTFILE
6 POSTHOOK: type: CREATETABLE
7 POSTHOOK: Output: database:default
8 POSTHOOK: Output: default@dest1
9 PREHOOK: query: explain
10 FROM (
11  FROM 
12   (
13   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
14   ) a
15  LEFT OUTER JOIN 
16  (
17   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
18  ) b 
19  ON (a.c1 = b.c3)
20  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
21 ) c
22 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4 where c.c3 IS NULL AND c.c1 IS NOT NULL
23 PREHOOK: type: QUERY
24 POSTHOOK: query: explain
25 FROM (
26  FROM 
27   (
28   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
29   ) a
30  LEFT OUTER JOIN 
31  (
32   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
33  ) b 
34  ON (a.c1 = b.c3)
35  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
36 ) c
37 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4 where c.c3 IS NULL AND c.c1 IS NOT NULL
38 POSTHOOK: type: QUERY
39 STAGE DEPENDENCIES:
40   Stage-6 is a root stage
41   Stage-5 depends on stages: Stage-6
42   Stage-0 depends on stages: Stage-5
43   Stage-2 depends on stages: Stage-0, Stage-3
44   Stage-3 depends on stages: Stage-5
45
46 STAGE PLANS:
47   Stage: Stage-6
48     Map Reduce Local Work
49       Alias -> Map Local Tables:
50         $hdt$_1:src2 
51           Fetch Operator
52             limit: -1
53       Alias -> Map Local Operator Tree:
54         $hdt$_1:src2 
55           TableScan
56             alias: src2
57             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
58             Filter Operator
59               predicate: ((UDFToDouble(key) < 20.0D) and (UDFToDouble(key) > 15.0D)) (type: boolean)
60               Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
61               Select Operator
62                 expressions: key (type: string), value (type: string)
63                 outputColumnNames: _col0, _col1
64                 Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
65                 HashTable Sink Operator
66                   keys:
67                     0 _col0 (type: string)
68                     1 _col0 (type: string)
69
70   Stage: Stage-5
71     Map Reduce
72       Map Operator Tree:
73           TableScan
74             alias: src1
75             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
76             Filter Operator
77               predicate: ((UDFToDouble(key) < 20.0D) and (UDFToDouble(key) > 10.0D)) (type: boolean)
78               Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
79               Select Operator
80                 expressions: key (type: string), value (type: string)
81                 outputColumnNames: _col0, _col1
82                 Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
83                 Map Join Operator
84                   condition map:
85                        Left Outer Join 0 to 1
86                   keys:
87                     0 _col0 (type: string)
88                     1 _col0 (type: string)
89                   outputColumnNames: _col0, _col1, _col2, _col3
90                   Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
91                   Filter Operator
92                     predicate: _col2 is null (type: boolean)
93                     Statistics: Num rows: 30 Data size: 321 Basic stats: COMPLETE Column stats: NONE
94                     Select Operator
95                       expressions: UDFToInteger(_col0) (type: int), _col1 (type: string), null (type: int), _col3 (type: string)
96                       outputColumnNames: _col0, _col1, _col2, _col3
97                       Statistics: Num rows: 30 Data size: 321 Basic stats: COMPLETE Column stats: NONE
98                       File Output Operator
99                         compressed: false
100                         Statistics: Num rows: 30 Data size: 321 Basic stats: COMPLETE Column stats: NONE
101                         table:
102                             input format: org.apache.hadoop.mapred.TextInputFormat
103                             output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
104                             serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
105                             name: default.dest1
106                       Select Operator
107                         expressions: _col0 (type: int), _col1 (type: string), _col2 (type: int), _col3 (type: string)
108                         outputColumnNames: c1, c2, c3, c4
109                         Statistics: Num rows: 30 Data size: 321 Basic stats: COMPLETE Column stats: NONE
110                         Group By Operator
111                           aggregations: compute_stats(c1, 'hll'), compute_stats(c2, 'hll'), compute_stats(c3, 'hll'), compute_stats(c4, 'hll')
112                           mode: hash
113                           outputColumnNames: _col0, _col1, _col2, _col3
114                           Statistics: Num rows: 1 Data size: 1728 Basic stats: COMPLETE Column stats: NONE
115                           File Output Operator
116                             compressed: false
117                             table:
118                                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
119                                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
120                                 serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
121       Local Work:
122         Map Reduce Local Work
123
124   Stage: Stage-0
125     Move Operator
126       tables:
127           replace: true
128           table:
129               input format: org.apache.hadoop.mapred.TextInputFormat
130               output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
131               serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
132               name: default.dest1
133
134   Stage: Stage-2
135     Stats Work
136       Basic Stats Work:
137       Column Stats Desc:
138           Columns: c1, c2, c3, c4
139           Column Types: int, string, int, string
140           Table: default.dest1
141
142   Stage: Stage-3
143     Map Reduce
144       Map Operator Tree:
145           TableScan
146             Reduce Output Operator
147               sort order: 
148               Statistics: Num rows: 1 Data size: 1728 Basic stats: COMPLETE Column stats: NONE
149               value expressions: _col0 (type: struct<columntype:string,min:bigint,max:bigint,countnulls:bigint,bitvector:binary>), _col1 (type: struct<columntype:string,maxlength:bigint,sumlength:bigint,count:bigint,countnulls:bigint,bitvector:binary>), _col2 (type: struct<columntype:string,min:bigint,max:bigint,countnulls:bigint,bitvector:binary>), _col3 (type: struct<columntype:string,maxlength:bigint,sumlength:bigint,count:bigint,countnulls:bigint,bitvector:binary>)
150       Reduce Operator Tree:
151         Group By Operator
152           aggregations: compute_stats(VALUE._col0), compute_stats(VALUE._col1), compute_stats(VALUE._col2), compute_stats(VALUE._col3)
153           mode: mergepartial
154           outputColumnNames: _col0, _col1, _col2, _col3
155           Statistics: Num rows: 1 Data size: 1760 Basic stats: COMPLETE Column stats: NONE
156           File Output Operator
157             compressed: false
158             Statistics: Num rows: 1 Data size: 1760 Basic stats: COMPLETE Column stats: NONE
159             table:
160                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
161                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
162                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
163
164 PREHOOK: query: FROM (
165  FROM 
166   (
167   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
168   ) a
169  LEFT OUTER JOIN 
170  (
171   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
172  ) b 
173  ON (a.c1 = b.c3)
174  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
175 ) c
176 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4 where c.c3 IS NULL AND c.c1 IS NOT NULL
177 PREHOOK: type: QUERY
178 PREHOOK: Input: default@src
179 PREHOOK: Output: default@dest1
180 POSTHOOK: query: FROM (
181  FROM 
182   (
183   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
184   ) a
185  LEFT OUTER JOIN 
186  (
187   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
188  ) b 
189  ON (a.c1 = b.c3)
190  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
191 ) c
192 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4 where c.c3 IS NULL AND c.c1 IS NOT NULL
193 POSTHOOK: type: QUERY
194 POSTHOOK: Input: default@src
195 POSTHOOK: Output: default@dest1
196 POSTHOOK: Lineage: dest1.c1 EXPRESSION [(src)src1.FieldSchema(name:key, type:string, comment:default), ]
197 POSTHOOK: Lineage: dest1.c2 SIMPLE [(src)src1.FieldSchema(name:value, type:string, comment:default), ]
198 POSTHOOK: Lineage: dest1.c3 EXPRESSION []
199 POSTHOOK: Lineage: dest1.c4 SIMPLE [(src)src2.FieldSchema(name:value, type:string, comment:default), ]
200 PREHOOK: query: SELECT sum(hash(dest1.c1,dest1.c2,dest1.c3,dest1.c4)) FROM dest1
201 PREHOOK: type: QUERY
202 PREHOOK: Input: default@dest1
203 #### A masked pattern was here ####
204 POSTHOOK: query: SELECT sum(hash(dest1.c1,dest1.c2,dest1.c3,dest1.c4)) FROM dest1
205 POSTHOOK: type: QUERY
206 POSTHOOK: Input: default@dest1
207 #### A masked pattern was here ####
208 -7158439905