HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / spark / auto_join12.q.out
1 PREHOOK: query: explain
2 SELECT sum(hash(src1.c1, src2.c4)) 
3 FROM
4 (SELECT src.key as c1, src.value as c2 from src) src1
5 JOIN
6 (SELECT src.key as c3, src.value as c4 from src) src2
7 ON src1.c1 = src2.c3 AND src1.c1 < 100
8 JOIN
9 (SELECT src.key as c5, src.value as c6 from src) src3
10 ON src1.c1 = src3.c5 AND src3.c5 < 80
11 PREHOOK: type: QUERY
12 POSTHOOK: query: explain
13 SELECT sum(hash(src1.c1, src2.c4)) 
14 FROM
15 (SELECT src.key as c1, src.value as c2 from src) src1
16 JOIN
17 (SELECT src.key as c3, src.value as c4 from src) src2
18 ON src1.c1 = src2.c3 AND src1.c1 < 100
19 JOIN
20 (SELECT src.key as c5, src.value as c6 from src) src3
21 ON src1.c1 = src3.c5 AND src3.c5 < 80
22 POSTHOOK: type: QUERY
23 STAGE DEPENDENCIES:
24   Stage-2 is a root stage
25   Stage-1 depends on stages: Stage-2
26   Stage-0 depends on stages: Stage-1
27
28 STAGE PLANS:
29   Stage: Stage-2
30     Spark
31 #### A masked pattern was here ####
32       Vertices:
33         Map 3 
34             Map Operator Tree:
35                 TableScan
36                   alias: src
37                   Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
38                   Filter Operator
39                     predicate: (UDFToDouble(key) < 80.0D) (type: boolean)
40                     Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
41                     Select Operator
42                       expressions: key (type: string)
43                       outputColumnNames: _col0
44                       Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
45                       Spark HashTable Sink Operator
46                         keys:
47                           0 _col0 (type: string)
48                           1 _col0 (type: string)
49                           2 _col0 (type: string)
50             Local Work:
51               Map Reduce Local Work
52         Map 4 
53             Map Operator Tree:
54                 TableScan
55                   alias: src
56                   Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
57                   Filter Operator
58                     predicate: (UDFToDouble(key) < 80.0D) (type: boolean)
59                     Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
60                     Select Operator
61                       expressions: key (type: string), value (type: string)
62                       outputColumnNames: _col0, _col1
63                       Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
64                       Spark HashTable Sink Operator
65                         keys:
66                           0 _col0 (type: string)
67                           1 _col0 (type: string)
68                           2 _col0 (type: string)
69             Local Work:
70               Map Reduce Local Work
71
72   Stage: Stage-1
73     Spark
74       Edges:
75         Reducer 2 <- Map 1 (GROUP, 1)
76 #### A masked pattern was here ####
77       Vertices:
78         Map 1 
79             Map Operator Tree:
80                 TableScan
81                   alias: src
82                   Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
83                   Filter Operator
84                     predicate: (UDFToDouble(key) < 80.0D) (type: boolean)
85                     Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
86                     Select Operator
87                       expressions: key (type: string)
88                       outputColumnNames: _col0
89                       Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
90                       Map Join Operator
91                         condition map:
92                              Inner Join 0 to 1
93                              Inner Join 0 to 2
94                         keys:
95                           0 _col0 (type: string)
96                           1 _col0 (type: string)
97                           2 _col0 (type: string)
98                         outputColumnNames: _col0, _col3
99                         input vertices:
100                           1 Map 3
101                           2 Map 4
102                         Statistics: Num rows: 365 Data size: 3878 Basic stats: COMPLETE Column stats: NONE
103                         Select Operator
104                           expressions: hash(_col0,_col3) (type: int)
105                           outputColumnNames: _col0
106                           Statistics: Num rows: 365 Data size: 3878 Basic stats: COMPLETE Column stats: NONE
107                           Group By Operator
108                             aggregations: sum(_col0)
109                             mode: hash
110                             outputColumnNames: _col0
111                             Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE
112                             Reduce Output Operator
113                               sort order: 
114                               Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE
115                               value expressions: _col0 (type: bigint)
116             Local Work:
117               Map Reduce Local Work
118         Reducer 2 
119             Reduce Operator Tree:
120               Group By Operator
121                 aggregations: sum(VALUE._col0)
122                 mode: mergepartial
123                 outputColumnNames: _col0
124                 Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE
125                 File Output Operator
126                   compressed: false
127                   Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE
128                   table:
129                       input format: org.apache.hadoop.mapred.SequenceFileInputFormat
130                       output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
131                       serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
132
133   Stage: Stage-0
134     Fetch Operator
135       limit: -1
136       Processor Tree:
137         ListSink
138
139 PREHOOK: query: SELECT sum(hash(src1.c1, src2.c4)) 
140 FROM
141 (SELECT src.key as c1, src.value as c2 from src) src1
142 JOIN
143 (SELECT src.key as c3, src.value as c4 from src) src2
144 ON src1.c1 = src2.c3 AND src1.c1 < 100
145 JOIN
146 (SELECT src.key as c5, src.value as c6 from src) src3
147 ON src1.c1 = src3.c5 AND src3.c5 < 80
148 PREHOOK: type: QUERY
149 PREHOOK: Input: default@src
150 #### A masked pattern was here ####
151 POSTHOOK: query: SELECT sum(hash(src1.c1, src2.c4)) 
152 FROM
153 (SELECT src.key as c1, src.value as c2 from src) src1
154 JOIN
155 (SELECT src.key as c3, src.value as c4 from src) src2
156 ON src1.c1 = src2.c3 AND src1.c1 < 100
157 JOIN
158 (SELECT src.key as c5, src.value as c6 from src) src3
159 ON src1.c1 = src3.c5 AND src3.c5 < 80
160 POSTHOOK: type: QUERY
161 POSTHOOK: Input: default@src
162 #### A masked pattern was here ####
163 -136843922952