d8c58d44f93ba52c084069d65c277b4ba3956255
[hive.git] / ql / src / test / results / clientpositive / auto_join6.q.out
1 PREHOOK: query: CREATE TABLE dest1(c1 INT, c2 STRING, c3 INT, c4 STRING) STORED AS TEXTFILE
2 PREHOOK: type: CREATETABLE
3 PREHOOK: Output: database:default
4 PREHOOK: Output: default@dest1
5 POSTHOOK: query: CREATE TABLE dest1(c1 INT, c2 STRING, c3 INT, c4 STRING) STORED AS TEXTFILE
6 POSTHOOK: type: CREATETABLE
7 POSTHOOK: Output: database:default
8 POSTHOOK: Output: default@dest1
9 PREHOOK: query: explain
10 FROM (
11  FROM 
12   (
13   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
14   ) a
15  FULL OUTER JOIN 
16  (
17   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
18  ) b 
19  ON (a.c1 = b.c3)
20  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
21 ) c
22 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4
23 PREHOOK: type: QUERY
24 POSTHOOK: query: explain
25 FROM (
26  FROM 
27   (
28   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
29   ) a
30  FULL OUTER JOIN 
31  (
32   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
33  ) b 
34  ON (a.c1 = b.c3)
35  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
36 ) c
37 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4
38 POSTHOOK: type: QUERY
39 STAGE DEPENDENCIES:
40   Stage-1 is a root stage
41   Stage-0 depends on stages: Stage-1
42   Stage-2 depends on stages: Stage-0, Stage-3
43   Stage-3 depends on stages: Stage-1
44
45 STAGE PLANS:
46   Stage: Stage-1
47     Map Reduce
48       Map Operator Tree:
49           TableScan
50             alias: src1
51             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
52             Filter Operator
53               predicate: ((UDFToDouble(key) < 20.0) and (UDFToDouble(key) > 10.0)) (type: boolean)
54               Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
55               Select Operator
56                 expressions: key (type: string), value (type: string)
57                 outputColumnNames: _col0, _col1
58                 Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
59                 Reduce Output Operator
60                   key expressions: _col0 (type: string)
61                   sort order: +
62                   Map-reduce partition columns: _col0 (type: string)
63                   Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
64                   value expressions: _col1 (type: string)
65           TableScan
66             alias: src2
67             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
68             Filter Operator
69               predicate: ((UDFToDouble(key) < 25.0) and (UDFToDouble(key) > 15.0)) (type: boolean)
70               Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
71               Select Operator
72                 expressions: key (type: string), value (type: string)
73                 outputColumnNames: _col0, _col1
74                 Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
75                 Reduce Output Operator
76                   key expressions: _col0 (type: string)
77                   sort order: +
78                   Map-reduce partition columns: _col0 (type: string)
79                   Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
80                   value expressions: _col1 (type: string)
81       Reduce Operator Tree:
82         Join Operator
83           condition map:
84                Outer Join 0 to 1
85           keys:
86             0 _col0 (type: string)
87             1 _col0 (type: string)
88           outputColumnNames: _col0, _col1, _col2, _col3
89           Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
90           Select Operator
91             expressions: UDFToInteger(_col0) (type: int), _col1 (type: string), UDFToInteger(_col2) (type: int), _col3 (type: string)
92             outputColumnNames: _col0, _col1, _col2, _col3
93             Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
94             File Output Operator
95               compressed: false
96               Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
97               table:
98                   input format: org.apache.hadoop.mapred.TextInputFormat
99                   output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
100                   serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
101                   name: default.dest1
102             Select Operator
103               expressions: _col0 (type: int), _col1 (type: string), _col2 (type: int), _col3 (type: string)
104               outputColumnNames: c1, c2, c3, c4
105               Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
106               Group By Operator
107                 aggregations: compute_stats(c1, 'hll'), compute_stats(c2, 'hll'), compute_stats(c3, 'hll'), compute_stats(c4, 'hll')
108                 mode: hash
109                 outputColumnNames: _col0, _col1, _col2, _col3
110                 Statistics: Num rows: 1 Data size: 1728 Basic stats: COMPLETE Column stats: NONE
111                 File Output Operator
112                   compressed: false
113                   table:
114                       input format: org.apache.hadoop.mapred.SequenceFileInputFormat
115                       output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
116                       serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
117
118   Stage: Stage-0
119     Move Operator
120       tables:
121           replace: true
122           table:
123               input format: org.apache.hadoop.mapred.TextInputFormat
124               output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
125               serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
126               name: default.dest1
127
128   Stage: Stage-2
129     Stats Work
130       Basic Stats Work:
131       Column Stats Desc:
132           Columns: c1, c2, c3, c4
133           Column Types: int, string, int, string
134           Table: default.dest1
135
136   Stage: Stage-3
137     Map Reduce
138       Map Operator Tree:
139           TableScan
140             Reduce Output Operator
141               sort order: 
142               Statistics: Num rows: 1 Data size: 1728 Basic stats: COMPLETE Column stats: NONE
143               value expressions: _col0 (type: struct<columntype:string,min:bigint,max:bigint,countnulls:bigint,bitvector:binary>), _col1 (type: struct<columntype:string,maxlength:bigint,sumlength:bigint,count:bigint,countnulls:bigint,bitvector:binary>), _col2 (type: struct<columntype:string,min:bigint,max:bigint,countnulls:bigint,bitvector:binary>), _col3 (type: struct<columntype:string,maxlength:bigint,sumlength:bigint,count:bigint,countnulls:bigint,bitvector:binary>)
144       Reduce Operator Tree:
145         Group By Operator
146           aggregations: compute_stats(VALUE._col0), compute_stats(VALUE._col1), compute_stats(VALUE._col2), compute_stats(VALUE._col3)
147           mode: mergepartial
148           outputColumnNames: _col0, _col1, _col2, _col3
149           Statistics: Num rows: 1 Data size: 1760 Basic stats: COMPLETE Column stats: NONE
150           File Output Operator
151             compressed: false
152             Statistics: Num rows: 1 Data size: 1760 Basic stats: COMPLETE Column stats: NONE
153             table:
154                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
155                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
156                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
157
158 PREHOOK: query: FROM (
159  FROM 
160   (
161   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
162   ) a
163  FULL OUTER JOIN 
164  (
165   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
166  ) b 
167  ON (a.c1 = b.c3)
168  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
169 ) c
170 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4
171 PREHOOK: type: QUERY
172 PREHOOK: Input: default@src
173 PREHOOK: Output: default@dest1
174 POSTHOOK: query: FROM (
175  FROM 
176   (
177   FROM src src1 SELECT src1.key AS c1, src1.value AS c2 WHERE src1.key > 10 and src1.key < 20
178   ) a
179  FULL OUTER JOIN 
180  (
181   FROM src src2 SELECT src2.key AS c3, src2.value AS c4 WHERE src2.key > 15 and src2.key < 25
182  ) b 
183  ON (a.c1 = b.c3)
184  SELECT a.c1 AS c1, a.c2 AS c2, b.c3 AS c3, b.c4 AS c4
185 ) c
186 INSERT OVERWRITE TABLE dest1 SELECT c.c1, c.c2, c.c3, c.c4
187 POSTHOOK: type: QUERY
188 POSTHOOK: Input: default@src
189 POSTHOOK: Output: default@dest1
190 POSTHOOK: Lineage: dest1.c1 EXPRESSION [(src)src1.FieldSchema(name:key, type:string, comment:default), ]
191 POSTHOOK: Lineage: dest1.c2 SIMPLE [(src)src1.FieldSchema(name:value, type:string, comment:default), ]
192 POSTHOOK: Lineage: dest1.c3 EXPRESSION [(src)src2.FieldSchema(name:key, type:string, comment:default), ]
193 POSTHOOK: Lineage: dest1.c4 SIMPLE [(src)src2.FieldSchema(name:value, type:string, comment:default), ]
194 PREHOOK: query: SELECT sum(hash(dest1.c1,dest1.c2,dest1.c3,dest1.c4)) FROM dest1
195 PREHOOK: type: QUERY
196 PREHOOK: Input: default@dest1
197 #### A masked pattern was here ####
198 POSTHOOK: query: SELECT sum(hash(dest1.c1,dest1.c2,dest1.c3,dest1.c4)) FROM dest1
199 POSTHOOK: type: QUERY
200 POSTHOOK: Input: default@dest1
201 #### A masked pattern was here ####
202 2607643291