8b72cafd598ca922c012e742b8d90a55960bad2e
[hive.git] / ql / src / test / results / clientpositive / allcolref_in_udf.q.out
1 PREHOOK: query: explain
2 select concat(*),array(*) from src where key < 100 limit 10
3 PREHOOK: type: QUERY
4 POSTHOOK: query: explain
5 select concat(*),array(*) from src where key < 100 limit 10
6 POSTHOOK: type: QUERY
7 STAGE DEPENDENCIES:
8   Stage-1 is a root stage
9   Stage-0 depends on stages: Stage-1
10
11 STAGE PLANS:
12   Stage: Stage-1
13     Map Reduce
14       Map Operator Tree:
15           TableScan
16             alias: src
17             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
18             Filter Operator
19               predicate: (UDFToDouble(key) < 100.0) (type: boolean)
20               Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
21               Select Operator
22                 expressions: concat(key, value) (type: string), array(key,value) (type: array<string>)
23                 outputColumnNames: _col0, _col1
24                 Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
25                 Limit
26                   Number of rows: 10
27                   Statistics: Num rows: 10 Data size: 100 Basic stats: COMPLETE Column stats: NONE
28                   File Output Operator
29                     compressed: false
30                     Statistics: Num rows: 10 Data size: 100 Basic stats: COMPLETE Column stats: NONE
31                     table:
32                         input format: org.apache.hadoop.mapred.SequenceFileInputFormat
33                         output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
34                         serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
35
36   Stage: Stage-0
37     Fetch Operator
38       limit: 10
39       Processor Tree:
40         ListSink
41
42 PREHOOK: query: select concat(*),array(*) from src where key < 100 limit 10
43 PREHOOK: type: QUERY
44 PREHOOK: Input: default@src
45 #### A masked pattern was here ####
46 POSTHOOK: query: select concat(*),array(*) from src where key < 100 limit 10
47 POSTHOOK: type: QUERY
48 POSTHOOK: Input: default@src
49 #### A masked pattern was here ####
50 86val_86        ["86","val_86"]
51 27val_27        ["27","val_27"]
52 98val_98        ["98","val_98"]
53 66val_66        ["66","val_66"]
54 37val_37        ["37","val_37"]
55 15val_15        ["15","val_15"]
56 82val_82        ["82","val_82"]
57 17val_17        ["17","val_17"]
58 0val_0  ["0","val_0"]
59 57val_57        ["57","val_57"]
60 PREHOOK: query: explain
61 select stack(2, *) as (e1,e2,e3) from (
62   select concat(*), concat(a.*), concat(b.*), concat(a.*, b.key), concat(a.key, b.*)
63   from src a join src b on a.key+1=b.key where a.key < 100) x limit 10
64 PREHOOK: type: QUERY
65 POSTHOOK: query: explain
66 select stack(2, *) as (e1,e2,e3) from (
67   select concat(*), concat(a.*), concat(b.*), concat(a.*, b.key), concat(a.key, b.*)
68   from src a join src b on a.key+1=b.key where a.key < 100) x limit 10
69 POSTHOOK: type: QUERY
70 STAGE DEPENDENCIES:
71   Stage-1 is a root stage
72   Stage-0 depends on stages: Stage-1
73
74 STAGE PLANS:
75   Stage: Stage-1
76     Map Reduce
77       Map Operator Tree:
78           TableScan
79             alias: a
80             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
81             Filter Operator
82               predicate: (UDFToDouble(key) < 100.0) (type: boolean)
83               Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
84               Select Operator
85                 expressions: key (type: string), value (type: string)
86                 outputColumnNames: _col0, _col1
87                 Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
88                 Reduce Output Operator
89                   key expressions: (UDFToDouble(_col0) + 1.0) (type: double)
90                   sort order: +
91                   Map-reduce partition columns: (UDFToDouble(_col0) + 1.0) (type: double)
92                   Statistics: Num rows: 166 Data size: 1763 Basic stats: COMPLETE Column stats: NONE
93                   value expressions: _col0 (type: string), _col1 (type: string)
94           TableScan
95             alias: b
96             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
97             Filter Operator
98               predicate: key is not null (type: boolean)
99               Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
100               Select Operator
101                 expressions: key (type: string), value (type: string)
102                 outputColumnNames: _col0, _col1
103                 Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
104                 Reduce Output Operator
105                   key expressions: UDFToDouble(_col0) (type: double)
106                   sort order: +
107                   Map-reduce partition columns: UDFToDouble(_col0) (type: double)
108                   Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
109                   value expressions: _col0 (type: string), _col1 (type: string)
110       Reduce Operator Tree:
111         Join Operator
112           condition map:
113                Inner Join 0 to 1
114           keys:
115             0 (UDFToDouble(_col0) + 1.0) (type: double)
116             1 UDFToDouble(_col0) (type: double)
117           outputColumnNames: _col0, _col1, _col5, _col6
118           Statistics: Num rows: 550 Data size: 5843 Basic stats: COMPLETE Column stats: NONE
119           Select Operator
120             expressions: 2 (type: int), concat(_col0, _col1, _col5, _col6) (type: string), concat(_col0, _col1) (type: string), concat(_col5, _col6) (type: string), concat(_col0, _col1, _col5) (type: string), concat(_col0, _col5, _col6) (type: string)
121             outputColumnNames: _col0, _col1, _col2, _col3, _col4, _col5
122             Statistics: Num rows: 550 Data size: 5843 Basic stats: COMPLETE Column stats: NONE
123             UDTF Operator
124               Statistics: Num rows: 550 Data size: 5843 Basic stats: COMPLETE Column stats: NONE
125               function name: stack
126               Select Operator
127                 expressions: col0 (type: string), col1 (type: string), col2 (type: string)
128                 outputColumnNames: _col0, _col1, _col2
129                 Statistics: Num rows: 550 Data size: 5843 Basic stats: COMPLETE Column stats: NONE
130                 Limit
131                   Number of rows: 10
132                   Statistics: Num rows: 10 Data size: 100 Basic stats: COMPLETE Column stats: NONE
133                   File Output Operator
134                     compressed: false
135                     Statistics: Num rows: 10 Data size: 100 Basic stats: COMPLETE Column stats: NONE
136                     table:
137                         input format: org.apache.hadoop.mapred.SequenceFileInputFormat
138                         output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
139                         serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
140
141   Stage: Stage-0
142     Fetch Operator
143       limit: 10
144       Processor Tree:
145         ListSink
146
147 PREHOOK: query: select stack(2, *) as (e1,e2,e3) from (
148   select concat(*), concat(a.*), concat(b.*), concat(a.*, b.key), concat(a.key, b.*)
149   from src a join src b on a.key+1=b.key where a.key < 100) x limit 10
150 PREHOOK: type: QUERY
151 PREHOOK: Input: default@src
152 #### A masked pattern was here ####
153 POSTHOOK: query: select stack(2, *) as (e1,e2,e3) from (
154   select concat(*), concat(a.*), concat(b.*), concat(a.*, b.key), concat(a.key, b.*)
155   from src a join src b on a.key+1=b.key where a.key < 100) x limit 10
156 POSTHOOK: type: QUERY
157 POSTHOOK: Input: default@src
158 #### A masked pattern was here ####
159 4val_45val_5    4val_4  5val_5
160 4val_45 NULL    5val_5
161 4val_45val_5    4val_4  5val_5
162 4val_45 NULL    5val_5
163 4val_45val_5    4val_4  5val_5
164 4val_45 NULL    5val_5
165 8val_89val_9    8val_8  9val_9
166 8val_89 NULL    9val_9
167 9val_910val_10  9val_9  10val_10
168 9val_910        NULL    10val_10
169 PREHOOK: query: create table allcolref as select array(key, value) from src
170 PREHOOK: type: CREATETABLE_AS_SELECT
171 PREHOOK: Input: default@src
172 PREHOOK: Output: database:default
173 PREHOOK: Output: default@allcolref
174 POSTHOOK: query: create table allcolref as select array(key, value) from src
175 POSTHOOK: type: CREATETABLE_AS_SELECT
176 POSTHOOK: Input: default@src
177 POSTHOOK: Output: database:default
178 POSTHOOK: Output: default@allcolref
179 POSTHOOK: Lineage: allcolref._c0 EXPRESSION [(src)src.FieldSchema(name:key, type:string, comment:default), (src)src.FieldSchema(name:value, type:string, comment:default), ]
180 PREHOOK: query: explain select explode(*) as x from allcolref limit 10
181 PREHOOK: type: QUERY
182 POSTHOOK: query: explain select explode(*) as x from allcolref limit 10
183 POSTHOOK: type: QUERY
184 STAGE DEPENDENCIES:
185   Stage-1 is a root stage
186   Stage-0 depends on stages: Stage-1
187
188 STAGE PLANS:
189   Stage: Stage-1
190     Map Reduce
191       Map Operator Tree:
192           TableScan
193             alias: allcolref
194             Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
195             Select Operator
196               expressions: _c0 (type: array<string>)
197               outputColumnNames: _col0
198               Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
199               UDTF Operator
200                 Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
201                 function name: explode
202                 Select Operator
203                   expressions: col (type: string)
204                   outputColumnNames: _col0
205                   Statistics: Num rows: 500 Data size: 5312 Basic stats: COMPLETE Column stats: NONE
206                   Limit
207                     Number of rows: 10
208                     Statistics: Num rows: 10 Data size: 100 Basic stats: COMPLETE Column stats: NONE
209                     File Output Operator
210                       compressed: false
211                       Statistics: Num rows: 10 Data size: 100 Basic stats: COMPLETE Column stats: NONE
212                       table:
213                           input format: org.apache.hadoop.mapred.SequenceFileInputFormat
214                           output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
215                           serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
216
217   Stage: Stage-0
218     Fetch Operator
219       limit: 10
220       Processor Tree:
221         ListSink
222
223 PREHOOK: query: select explode(*) as x from allcolref limit 10
224 PREHOOK: type: QUERY
225 PREHOOK: Input: default@allcolref
226 #### A masked pattern was here ####
227 POSTHOOK: query: select explode(*) as x from allcolref limit 10
228 POSTHOOK: type: QUERY
229 POSTHOOK: Input: default@allcolref
230 #### A masked pattern was here ####
231 238
232 val_238
233 86
234 val_86
235 311
236 val_311
237 27
238 val_27
239 165
240 val_165