HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / spark / auto_join16.q.out
1 PREHOOK: query: explain
2 SELECT sum(hash(subq.key, tab.value)) 
3 FROM 
4 (select a.key, a.value from src a where a.key > 10 ) subq 
5 JOIN src tab 
6 ON (subq.key = tab.key and subq.key > 20 and subq.value = tab.value) 
7 where tab.value < 200
8 PREHOOK: type: QUERY
9 POSTHOOK: query: explain
10 SELECT sum(hash(subq.key, tab.value)) 
11 FROM 
12 (select a.key, a.value from src a where a.key > 10 ) subq 
13 JOIN src tab 
14 ON (subq.key = tab.key and subq.key > 20 and subq.value = tab.value) 
15 where tab.value < 200
16 POSTHOOK: type: QUERY
17 STAGE DEPENDENCIES:
18   Stage-2 is a root stage
19   Stage-1 depends on stages: Stage-2
20   Stage-0 depends on stages: Stage-1
21
22 STAGE PLANS:
23   Stage: Stage-2
24     Spark
25 #### A masked pattern was here ####
26       Vertices:
27         Map 3 
28             Map Operator Tree:
29                 TableScan
30                   alias: tab
31                   Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
32                   Filter Operator
33                     predicate: ((UDFToDouble(key) > 20.0D) and (UDFToDouble(value) < 200.0D)) (type: boolean)
34                     Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
35                     Select Operator
36                       expressions: key (type: string), value (type: string)
37                       outputColumnNames: _col0, _col1
38                       Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
39                       Spark HashTable Sink Operator
40                         keys:
41                           0 _col0 (type: string), _col1 (type: string)
42                           1 _col0 (type: string), _col1 (type: string)
43             Local Work:
44               Map Reduce Local Work
45
46   Stage: Stage-1
47     Spark
48       Edges:
49         Reducer 2 <- Map 1 (GROUP, 1)
50 #### A masked pattern was here ####
51       Vertices:
52         Map 1 
53             Map Operator Tree:
54                 TableScan
55                   alias: a
56                   Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
57                   Filter Operator
58                     predicate: ((UDFToDouble(key) > 20.0D) and (UDFToDouble(value) < 200.0D)) (type: boolean)
59                     Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
60                     Select Operator
61                       expressions: key (type: string), value (type: string)
62                       outputColumnNames: _col0, _col1
63                       Statistics: Num rows: 55 Data size: 584 Basic stats: COMPLETE Column stats: NONE
64                       Map Join Operator
65                         condition map:
66                              Inner Join 0 to 1
67                         keys:
68                           0 _col0 (type: string), _col1 (type: string)
69                           1 _col0 (type: string), _col1 (type: string)
70                         outputColumnNames: _col0, _col3
71                         input vertices:
72                           1 Map 3
73                         Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
74                         Select Operator
75                           expressions: hash(_col0,_col3) (type: int)
76                           outputColumnNames: _col0
77                           Statistics: Num rows: 60 Data size: 642 Basic stats: COMPLETE Column stats: NONE
78                           Group By Operator
79                             aggregations: sum(_col0)
80                             mode: hash
81                             outputColumnNames: _col0
82                             Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE
83                             Reduce Output Operator
84                               sort order: 
85                               Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE
86                               value expressions: _col0 (type: bigint)
87             Local Work:
88               Map Reduce Local Work
89         Reducer 2 
90             Reduce Operator Tree:
91               Group By Operator
92                 aggregations: sum(VALUE._col0)
93                 mode: mergepartial
94                 outputColumnNames: _col0
95                 Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE
96                 File Output Operator
97                   compressed: false
98                   Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE
99                   table:
100                       input format: org.apache.hadoop.mapred.SequenceFileInputFormat
101                       output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
102                       serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
103
104   Stage: Stage-0
105     Fetch Operator
106       limit: -1
107       Processor Tree:
108         ListSink
109
110 PREHOOK: query: SELECT sum(hash(subq.key, tab.value)) 
111 FROM 
112 (select a.key, a.value from src a where a.key > 10 ) subq 
113 JOIN src tab 
114 ON (subq.key = tab.key and subq.key > 20 and subq.value = tab.value) 
115 where tab.value < 200
116 PREHOOK: type: QUERY
117 PREHOOK: Input: default@src
118 #### A masked pattern was here ####
119 POSTHOOK: query: SELECT sum(hash(subq.key, tab.value)) 
120 FROM 
121 (select a.key, a.value from src a where a.key > 10 ) subq 
122 JOIN src tab 
123 ON (subq.key = tab.key and subq.key > 20 and subq.value = tab.value) 
124 where tab.value < 200
125 POSTHOOK: type: QUERY
126 POSTHOOK: Input: default@src
127 #### A masked pattern was here ####
128 NULL