HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / auto_join5.q.out
1 PREHOOK: query: CREATE TABLE dest1(c1 INT, c2 STRING, c3 INT, c4 STRING) STORED AS TEXTFILE
2 PREHOOK: type: CREATETABLE
3 PREHOOK: Output: database:default
4 PREHOOK: Output: default@dest1
5 POSTHOOK: query: CREATE TABLE dest1(c1 INT, c2 STRING, c3 INT, c4 STRING) STORED AS TEXTFILE
6 POSTHOOK: type: CREATETABLE
7 POSTHOOK: Output: database:default
8 POSTHOOK: Output: default@dest1
9 PREHOOK: query: explain
10 FROM (
11  FROM 
12   (
13   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
14   ) a
15  RIGHT OUTER JOIN 
16  (
17   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
18  ) b 
19  ON (a.c1 = b.c3)
20  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
21 ) c
22 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4
23 PREHOOK: type: QUERY
24 POSTHOOK: query: explain
25 FROM (
26  FROM 
27   (
28   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
29   ) a
30  RIGHT OUTER JOIN 
31  (
32   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
33  ) b 
34  ON (a.c1 = b.c3)
35  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
36 ) c
37 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4
38 POSTHOOK: type: QUERY
39 STAGE DEPENDENCIES:
40   Stage-6 is a root stage
41   Stage-5 depends on stages: Stage-6
42   Stage-0 depends on stages: Stage-5
43   Stage-2 depends on stages: Stage-0, Stage-3
44   Stage-3 depends on stages: Stage-5
45
46 STAGE PLANS:
47   Stage: Stage-6
48     Map Reduce Local Work
49       Alias -> Map Local Tables:
50         $hdt$_0:src1 
51           Fetch Operator
52             limit: -1
53       Alias -> Map Local Operator Tree:
54         $hdt$_0:src1 
55           TableScan
56             alias: src1
57             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
58             Filter Operator
59               predicate: ((UDFToDouble(key) < 20.0D) and (UDFToDouble(key) > 15.0D)) (type: boolean)
60               Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
61               Select Operator
62                 expressions: key (type: string), value (type: string)
63                 outputColumnNames: _col0, _col1
64                 Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
65                 HashTable Sink Operator
66                   keys:
67                     0 _col0 (type: string)
68                     1 _col0 (type: string)
69
70   Stage: Stage-5
71     Map Reduce
72       Map Operator Tree:
73           TableScan
74             alias: src2
75             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
76             Filter Operator
77               predicate: ((UDFToDouble(key) < 25.0D) and (UDFToDouble(key) > 15.0D)) (type: boolean)
78               Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
79               Select Operator
80                 expressions: key (type: string), value (type: string)
81                 outputColumnNames: _col0, _col1
82                 Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
83                 Map Join Operator
84                   condition map:
85                        Right Outer Join 0 to 1
86                   keys:
87                     0 _col0 (type: string)
88                     1 _col0 (type: string)
89                   outputColumnNames: _col0, _col1, _col2, _col3
90                   Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
91                   Select Operator
92                     expressions: UDFToInteger(_col0) (type: int), _col1 (type: string), UDFToInteger(_col2) (type: int), _col3 (type: string)
93                     outputColumnNames: _col0, _col1, _col2, _col3
94                     Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
95                     File Output Operator
96                       compressed: false
97                       Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
98                       table:
99                           input format: org.apache.hadoop.mapred.TextInputFormat
100                           output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
101                           serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
102                           name: default.dest1
103                     Select Operator
104                       expressions: _col0 (type: int), _col1 (type: string), _col2 (type: int), _col3 (type: string)
105                       outputColumnNames: c1, c2, c3, c4
106                       Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
107                       Group By Operator
108                         aggregations: compute_stats(c1, 'hll'), compute_stats(c2, 'hll'), compute_stats(c3, 'hll'), compute_stats(c4, 'hll')
109                         mode: hash
110                         outputColumnNames: _col0, _col1, _col2, _col3
111                         Statistics: Num rows: 1 Data size: 1728 Basic stats: COMPLETE Column stats: NONE
112                         File Output Operator
113                           compressed: false
114                           table:
115                               input format: org.apache.hadoop.mapred.SequenceFileInputFormat
116                               output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
117                               serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
118       Local Work:
119         Map Reduce Local Work
120
121   Stage: Stage-0
122     Move Operator
123       tables:
124           replace: true
125           table:
126               input format: org.apache.hadoop.mapred.TextInputFormat
127               output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
128               serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
129               name: default.dest1
130
131   Stage: Stage-2
132     Stats Work
133       Basic Stats Work:
134       Column Stats Desc:
135           Columns: c1, c2, c3, c4
136           Column Types: int, string, int, string
137           Table: default.dest1
138
139   Stage: Stage-3
140     Map Reduce
141       Map Operator Tree:
142           TableScan
143             Reduce Output Operator
144               sort order: 
145               Statistics: Num rows: 1 Data size: 1728 Basic stats: COMPLETE Column stats: NONE
146               value expressions: _col0 (type: struct<columntype:string,min:bigint,max:bigint,countnulls:bigint,bitvector:binary>), _col1 (type: struct<columntype:string,maxlength:bigint,sumlength:bigint,count:bigint,countnulls:bigint,bitvector:binary>), _col2 (type: struct<columntype:string,min:bigint,max:bigint,countnulls:bigint,bitvector:binary>), _col3 (type: struct<columntype:string,maxlength:bigint,sumlength:bigint,count:bigint,countnulls:bigint,bitvector:binary>)
147       Reduce Operator Tree:
148         Group By Operator
149           aggregations: compute_stats(VALUE._col0), compute_stats(VALUE._col1), compute_stats(VALUE._col2), compute_stats(VALUE._col3)
150           mode: mergepartial
151           outputColumnNames: _col0, _col1, _col2, _col3
152           Statistics: Num rows: 1 Data size: 1760 Basic stats: COMPLETE Column stats: NONE
153           File Output Operator
154             compressed: false
155             Statistics: Num rows: 1 Data size: 1760 Basic stats: COMPLETE Column stats: NONE
156             table:
157                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
158                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
159                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
160
161 PREHOOK: query: FROM (
162  FROM 
163   (
164   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
165   ) a
166  RIGHT OUTER JOIN 
167  (
168   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
169  ) b 
170  ON (a.c1 = b.c3)
171  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
172 ) c
173 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4
174 PREHOOK: type: QUERY
175 PREHOOK: Input: default@src
176 PREHOOK: Output: default@dest1
177 POSTHOOK: query: FROM (
178  FROM 
179   (
180   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
181   ) a
182  RIGHT OUTER JOIN 
183  (
184   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
185  ) b 
186  ON (a.c1 = b.c3)
187  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
188 ) c
189 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4
190 POSTHOOK: type: QUERY
191 POSTHOOK: Input: default@src
192 POSTHOOK: Output: default@dest1
193 POSTHOOK: Lineage: dest1.c1 EXPRESSION [(src)src1.FieldSchema(name:key, type:string, comment:default), ]
194 POSTHOOK: Lineage: dest1.c2 SIMPLE [(src)src1.FieldSchema(name:value, type:string, comment:default), ]
195 POSTHOOK: Lineage: dest1.c3 EXPRESSION [(src)src2.FieldSchema(name:key, type:string, comment:default), ]
196 POSTHOOK: Lineage: dest1.c4 SIMPLE [(src)src2.FieldSchema(name:value, type:string, comment:default), ]
197 PREHOOK: query: SELECT sum(hash(dest1.c1,dest1.c2,dest1.c3,dest1.c4)) FROM dest1
198 PREHOOK: type: QUERY
199 PREHOOK: Input: default@dest1
200 #### A masked pattern was here ####
201 POSTHOOK: query: SELECT sum(hash(dest1.c1,dest1.c2,dest1.c3,dest1.c4)) FROM dest1
202 POSTHOOK: type: QUERY
203 POSTHOOK: Input: default@dest1
204 #### A masked pattern was here ####
205 9766083196