HIVE-18797 : ExprConstNodeDesc's getExprString should put appropriate qualifier with...
[hive.git] / ql / src / test / results / clientpositive / vector_string_concat.q.out
1 PREHOOK: query: DROP TABLE over1k
2 PREHOOK: type: DROPTABLE
3 POSTHOOK: query: DROP TABLE over1k
4 POSTHOOK: type: DROPTABLE
5 PREHOOK: query: DROP TABLE over1korc
6 PREHOOK: type: DROPTABLE
7 POSTHOOK: query: DROP TABLE over1korc
8 POSTHOOK: type: DROPTABLE
9 PREHOOK: query: CREATE TABLE over1k(t tinyint,
10            si smallint,
11            i int,
12            b bigint,
13            f float,
14            d double,
15            bo boolean,
16            s string,
17            ts timestamp,
18            `dec` decimal(4,2),
19            bin binary)
20 ROW FORMAT DELIMITED FIELDS TERMINATED BY '|'
21 STORED AS TEXTFILE
22 PREHOOK: type: CREATETABLE
23 PREHOOK: Output: database:default
24 PREHOOK: Output: default@over1k
25 POSTHOOK: query: CREATE TABLE over1k(t tinyint,
26            si smallint,
27            i int,
28            b bigint,
29            f float,
30            d double,
31            bo boolean,
32            s string,
33            ts timestamp,
34            `dec` decimal(4,2),
35            bin binary)
36 ROW FORMAT DELIMITED FIELDS TERMINATED BY '|'
37 STORED AS TEXTFILE
38 POSTHOOK: type: CREATETABLE
39 POSTHOOK: Output: database:default
40 POSTHOOK: Output: default@over1k
41 PREHOOK: query: LOAD DATA LOCAL INPATH '../../data/files/over1k' OVERWRITE INTO TABLE over1k
42 PREHOOK: type: LOAD
43 #### A masked pattern was here ####
44 PREHOOK: Output: default@over1k
45 POSTHOOK: query: LOAD DATA LOCAL INPATH '../../data/files/over1k' OVERWRITE INTO TABLE over1k
46 POSTHOOK: type: LOAD
47 #### A masked pattern was here ####
48 POSTHOOK: Output: default@over1k
49 PREHOOK: query: CREATE TABLE over1korc(t tinyint,
50            si smallint,
51            i int,
52            b bigint,
53            f float,
54            d double,
55            bo boolean,
56            s string,
57            ts timestamp,
58            `dec` decimal(4,2),
59            bin binary)
60 STORED AS ORC
61 PREHOOK: type: CREATETABLE
62 PREHOOK: Output: database:default
63 PREHOOK: Output: default@over1korc
64 POSTHOOK: query: CREATE TABLE over1korc(t tinyint,
65            si smallint,
66            i int,
67            b bigint,
68            f float,
69            d double,
70            bo boolean,
71            s string,
72            ts timestamp,
73            `dec` decimal(4,2),
74            bin binary)
75 STORED AS ORC
76 POSTHOOK: type: CREATETABLE
77 POSTHOOK: Output: database:default
78 POSTHOOK: Output: default@over1korc
79 PREHOOK: query: INSERT INTO TABLE over1korc SELECT * FROM over1k
80 PREHOOK: type: QUERY
81 PREHOOK: Input: default@over1k
82 PREHOOK: Output: default@over1korc
83 POSTHOOK: query: INSERT INTO TABLE over1korc SELECT * FROM over1k
84 POSTHOOK: type: QUERY
85 POSTHOOK: Input: default@over1k
86 POSTHOOK: Output: default@over1korc
87 POSTHOOK: Lineage: over1korc.b SIMPLE [(over1k)over1k.FieldSchema(name:b, type:bigint, comment:null), ]
88 POSTHOOK: Lineage: over1korc.bin SIMPLE [(over1k)over1k.FieldSchema(name:bin, type:binary, comment:null), ]
89 POSTHOOK: Lineage: over1korc.bo SIMPLE [(over1k)over1k.FieldSchema(name:bo, type:boolean, comment:null), ]
90 POSTHOOK: Lineage: over1korc.d SIMPLE [(over1k)over1k.FieldSchema(name:d, type:double, comment:null), ]
91 POSTHOOK: Lineage: over1korc.dec SIMPLE [(over1k)over1k.FieldSchema(name:dec, type:decimal(4,2), comment:null), ]
92 POSTHOOK: Lineage: over1korc.f SIMPLE [(over1k)over1k.FieldSchema(name:f, type:float, comment:null), ]
93 POSTHOOK: Lineage: over1korc.i SIMPLE [(over1k)over1k.FieldSchema(name:i, type:int, comment:null), ]
94 POSTHOOK: Lineage: over1korc.s SIMPLE [(over1k)over1k.FieldSchema(name:s, type:string, comment:null), ]
95 POSTHOOK: Lineage: over1korc.si SIMPLE [(over1k)over1k.FieldSchema(name:si, type:smallint, comment:null), ]
96 POSTHOOK: Lineage: over1korc.t SIMPLE [(over1k)over1k.FieldSchema(name:t, type:tinyint, comment:null), ]
97 POSTHOOK: Lineage: over1korc.ts SIMPLE [(over1k)over1k.FieldSchema(name:ts, type:timestamp, comment:null), ]
98 PREHOOK: query: EXPLAIN VECTORIZATION EXPRESSION SELECT s AS `string`,
99        CONCAT(CONCAT('      ',s),'      ') AS `none_padded_str`,
100        CONCAT(CONCAT('|',RTRIM(CONCAT(CONCAT('      ',s),'      '))),'|') AS `none_z_rtrim_str`
101        FROM over1korc LIMIT 20
102 PREHOOK: type: QUERY
103 POSTHOOK: query: EXPLAIN VECTORIZATION EXPRESSION SELECT s AS `string`,
104        CONCAT(CONCAT('      ',s),'      ') AS `none_padded_str`,
105        CONCAT(CONCAT('|',RTRIM(CONCAT(CONCAT('      ',s),'      '))),'|') AS `none_z_rtrim_str`
106        FROM over1korc LIMIT 20
107 POSTHOOK: type: QUERY
108 PLAN VECTORIZATION:
109   enabled: true
110   enabledConditionsMet: [hive.vectorized.execution.enabled IS true]
111
112 STAGE DEPENDENCIES:
113   Stage-1 is a root stage
114   Stage-0 depends on stages: Stage-1
115
116 STAGE PLANS:
117   Stage: Stage-1
118     Map Reduce
119       Map Operator Tree:
120           TableScan
121             alias: over1korc
122             Statistics: Num rows: 1049 Data size: 311170 Basic stats: COMPLETE Column stats: NONE
123             TableScan Vectorization:
124                 native: true
125             Select Operator
126               expressions: s (type: string), concat(concat('      ', s), '      ') (type: string), concat(concat('|', rtrim(concat(concat('      ', s), '      '))), '|') (type: string)
127               outputColumnNames: _col0, _col1, _col2
128               Select Vectorization:
129                   className: VectorSelectOperator
130                   native: true
131                   projectedOutputColumnNums: [7, 13, 12]
132                   selectExpressions: StringGroupColConcatStringScalar(col 12:string, val       )(children: StringScalarConcatStringGroupCol(val       , col 7:string) -> 12:string) -> 13:string, StringGroupColConcatStringScalar(col 14:string, val |)(children: StringScalarConcatStringGroupCol(val |, col 12:string)(children: StringRTrim(col 14:string)(children: StringGroupColConcatStringScalar(col 12:string, val       )(children: StringScalarConcatStringGroupCol(val       , col 7:string) -> 12:string) -> 14:string) -> 12:string) -> 14:string) -> 12:string
133               Statistics: Num rows: 1049 Data size: 311170 Basic stats: COMPLETE Column stats: NONE
134               Limit
135                 Number of rows: 20
136                 Limit Vectorization:
137                     className: VectorLimitOperator
138                     native: true
139                 Statistics: Num rows: 20 Data size: 5920 Basic stats: COMPLETE Column stats: NONE
140                 File Output Operator
141                   compressed: false
142                   File Sink Vectorization:
143                       className: VectorFileSinkOperator
144                       native: false
145                   Statistics: Num rows: 20 Data size: 5920 Basic stats: COMPLETE Column stats: NONE
146                   table:
147                       input format: org.apache.hadoop.mapred.SequenceFileInputFormat
148                       output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
149                       serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
150       Execution mode: vectorized
151       Map Vectorization:
152           enabled: true
153           enabledConditionsMet: hive.vectorized.use.vectorized.input.format IS true
154           inputFormatFeatureSupport: []
155           featureSupportInUse: []
156           inputFileFormats: org.apache.hadoop.hive.ql.io.orc.OrcInputFormat
157           allNative: false
158           usesVectorUDFAdaptor: false
159           vectorized: true
160
161   Stage: Stage-0
162     Fetch Operator
163       limit: 20
164       Processor Tree:
165         ListSink
166
167 PREHOOK: query: SELECT s AS `string`,
168        CONCAT(CONCAT('      ',s),'      ') AS `none_padded_str`,
169        CONCAT(CONCAT('|',RTRIM(CONCAT(CONCAT('      ',s),'      '))),'|') AS `none_z_rtrim_str`
170        FROM over1korc LIMIT 20
171 PREHOOK: type: QUERY
172 PREHOOK: Input: default@over1korc
173 #### A masked pattern was here ####
174 POSTHOOK: query: SELECT s AS `string`,
175        CONCAT(CONCAT('      ',s),'      ') AS `none_padded_str`,
176        CONCAT(CONCAT('|',RTRIM(CONCAT(CONCAT('      ',s),'      '))),'|') AS `none_z_rtrim_str`
177        FROM over1korc LIMIT 20
178 POSTHOOK: type: QUERY
179 POSTHOOK: Input: default@over1korc
180 #### A masked pattern was here ####
181 bob davidson          bob davidson              |      bob davidson|
182 alice zipper          alice zipper              |      alice zipper|
183 katie davidson        katie davidson            |      katie davidson|
184 xavier quirinius              xavier quirinius          |      xavier quirinius|
185 nick robinson         nick robinson             |      nick robinson|
186 tom hernandez         tom hernandez             |      tom hernandez|
187 ulysses hernandez             ulysses hernandez         |      ulysses hernandez|
188 priscilla ichabod             priscilla ichabod         |      priscilla ichabod|
189 quinn van buren       quinn van buren           |      quinn van buren|
190 luke laertes          luke laertes              |      luke laertes|
191 xavier polk           xavier polk       |      xavier polk|
192 zach falkner          zach falkner              |      zach falkner|
193 quinn davidson        quinn davidson            |      quinn davidson|
194 priscilla van buren           priscilla van buren       |      priscilla van buren|
195 fred king             fred king         |      fred king|
196 calvin ellison        calvin ellison            |      calvin ellison|
197 sarah garcia          sarah garcia              |      sarah garcia|
198 zach young            zach young        |      zach young|
199 david underhill       david underhill           |      david underhill|
200 yuri carson           yuri carson       |      yuri carson|
201 PREHOOK: query: create table vectortab2k(
202             t tinyint,
203             si smallint,
204             i int,
205             b bigint,
206             f float,
207             d double,
208             dc decimal(38,18),
209             bo boolean,
210             s string,
211             s2 string,
212             ts timestamp,
213             ts2 timestamp,
214             dt date)
215 ROW FORMAT DELIMITED FIELDS TERMINATED BY '|'
216 STORED AS TEXTFILE
217 PREHOOK: type: CREATETABLE
218 PREHOOK: Output: database:default
219 PREHOOK: Output: default@vectortab2k
220 POSTHOOK: query: create table vectortab2k(
221             t tinyint,
222             si smallint,
223             i int,
224             b bigint,
225             f float,
226             d double,
227             dc decimal(38,18),
228             bo boolean,
229             s string,
230             s2 string,
231             ts timestamp,
232             ts2 timestamp,
233             dt date)
234 ROW FORMAT DELIMITED FIELDS TERMINATED BY '|'
235 STORED AS TEXTFILE
236 POSTHOOK: type: CREATETABLE
237 POSTHOOK: Output: database:default
238 POSTHOOK: Output: default@vectortab2k
239 PREHOOK: query: LOAD DATA LOCAL INPATH '../../data/files/vectortab2k' OVERWRITE INTO TABLE vectortab2k
240 PREHOOK: type: LOAD
241 #### A masked pattern was here ####
242 PREHOOK: Output: default@vectortab2k
243 POSTHOOK: query: LOAD DATA LOCAL INPATH '../../data/files/vectortab2k' OVERWRITE INTO TABLE vectortab2k
244 POSTHOOK: type: LOAD
245 #### A masked pattern was here ####
246 POSTHOOK: Output: default@vectortab2k
247 PREHOOK: query: create table vectortab2korc(
248             t tinyint,
249             si smallint,
250             i int,
251             b bigint,
252             f float,
253             d double,
254             dc decimal(38,18),
255             bo boolean,
256             s string,
257             s2 string,
258             ts timestamp,
259             ts2 timestamp,
260             dt date)
261 STORED AS ORC
262 PREHOOK: type: CREATETABLE
263 PREHOOK: Output: database:default
264 PREHOOK: Output: default@vectortab2korc
265 POSTHOOK: query: create table vectortab2korc(
266             t tinyint,
267             si smallint,
268             i int,
269             b bigint,
270             f float,
271             d double,
272             dc decimal(38,18),
273             bo boolean,
274             s string,
275             s2 string,
276             ts timestamp,
277             ts2 timestamp,
278             dt date)
279 STORED AS ORC
280 POSTHOOK: type: CREATETABLE
281 POSTHOOK: Output: database:default
282 POSTHOOK: Output: default@vectortab2korc
283 PREHOOK: query: INSERT INTO TABLE vectortab2korc SELECT * FROM vectortab2k
284 PREHOOK: type: QUERY
285 PREHOOK: Input: default@vectortab2k
286 PREHOOK: Output: default@vectortab2korc
287 POSTHOOK: query: INSERT INTO TABLE vectortab2korc SELECT * FROM vectortab2k
288 POSTHOOK: type: QUERY
289 POSTHOOK: Input: default@vectortab2k
290 POSTHOOK: Output: default@vectortab2korc
291 POSTHOOK: Lineage: vectortab2korc.b SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:b, type:bigint, comment:null), ]
292 POSTHOOK: Lineage: vectortab2korc.bo SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:bo, type:boolean, comment:null), ]
293 POSTHOOK: Lineage: vectortab2korc.d SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:d, type:double, comment:null), ]
294 POSTHOOK: Lineage: vectortab2korc.dc SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:dc, type:decimal(38,18), comment:null), ]
295 POSTHOOK: Lineage: vectortab2korc.dt SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:dt, type:date, comment:null), ]
296 POSTHOOK: Lineage: vectortab2korc.f SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:f, type:float, comment:null), ]
297 POSTHOOK: Lineage: vectortab2korc.i SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:i, type:int, comment:null), ]
298 POSTHOOK: Lineage: vectortab2korc.s SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:s, type:string, comment:null), ]
299 POSTHOOK: Lineage: vectortab2korc.s2 SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:s2, type:string, comment:null), ]
300 POSTHOOK: Lineage: vectortab2korc.si SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:si, type:smallint, comment:null), ]
301 POSTHOOK: Lineage: vectortab2korc.t SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:t, type:tinyint, comment:null), ]
302 POSTHOOK: Lineage: vectortab2korc.ts SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:ts, type:timestamp, comment:null), ]
303 POSTHOOK: Lineage: vectortab2korc.ts2 SIMPLE [(vectortab2k)vectortab2k.FieldSchema(name:ts2, type:timestamp, comment:null), ]
304 PREHOOK: query: EXPLAIN VECTORIZATION EXPRESSION
305 SELECT CONCAT(CONCAT(CONCAT('Quarter ',CAST(CAST((MONTH(dt) - 1) / 3 + 1 AS INT) AS STRING)),'-'),CAST(YEAR(dt) AS STRING)) AS `field`
306     FROM vectortab2korc 
307     GROUP BY CONCAT(CONCAT(CONCAT('Quarter ',CAST(CAST((MONTH(dt) - 1) / 3 + 1 AS INT) AS STRING)),'-'),CAST(YEAR(dt) AS STRING))
308     ORDER BY `field`
309     LIMIT 50
310 PREHOOK: type: QUERY
311 POSTHOOK: query: EXPLAIN VECTORIZATION EXPRESSION
312 SELECT CONCAT(CONCAT(CONCAT('Quarter ',CAST(CAST((MONTH(dt) - 1) / 3 + 1 AS INT) AS STRING)),'-'),CAST(YEAR(dt) AS STRING)) AS `field`
313     FROM vectortab2korc 
314     GROUP BY CONCAT(CONCAT(CONCAT('Quarter ',CAST(CAST((MONTH(dt) - 1) / 3 + 1 AS INT) AS STRING)),'-'),CAST(YEAR(dt) AS STRING))
315     ORDER BY `field`
316     LIMIT 50
317 POSTHOOK: type: QUERY
318 PLAN VECTORIZATION:
319   enabled: true
320   enabledConditionsMet: [hive.vectorized.execution.enabled IS true]
321
322 STAGE DEPENDENCIES:
323   Stage-1 is a root stage
324   Stage-2 depends on stages: Stage-1
325   Stage-0 depends on stages: Stage-2
326
327 STAGE PLANS:
328   Stage: Stage-1
329     Map Reduce
330       Map Operator Tree:
331           TableScan
332             alias: vectortab2korc
333             Statistics: Num rows: 2000 Data size: 918712 Basic stats: COMPLETE Column stats: NONE
334             TableScan Vectorization:
335                 native: true
336             Select Operator
337               expressions: concat(concat(concat('Quarter ', UDFToString(UDFToInteger(((UDFToDouble((month(dt) - 1)) / 3.0D) + 1.0D)))), '-'), UDFToString(year(dt))) (type: string)
338               outputColumnNames: _col0
339               Select Vectorization:
340                   className: VectorSelectOperator
341                   native: true
342                   projectedOutputColumnNums: [20]
343                   selectExpressions: StringGroupConcatColCol(col 18:string, col 19:string)(children: StringGroupColConcatStringScalar(col 19:string, val -)(children: StringScalarConcatStringGroupCol(val Quarter , col 18:string)(children: CastLongToString(col 14:int)(children: CastDoubleToLong(col 16:double)(children: DoubleColAddDoubleScalar(col 17:double, val 1.0)(children: DoubleColDivideDoubleScalar(col 16:double, val 3.0)(children: CastLongToDouble(col 15:int)(children: LongColSubtractLongScalar(col 14:int, val 1)(children: VectorUDFMonthDate(col 12, field MONTH) -> 14:int) -> 15:int) -> 16:double) -> 17:double) -> 16:double) -> 14:int) -> 18:string) -> 19:string) -> 18:string, CastLongToString(col 14:int)(children: VectorUDFYearDate(col 12, field YEAR) -> 14:int) -> 19:string) -> 20:string
344               Statistics: Num rows: 2000 Data size: 918712 Basic stats: COMPLETE Column stats: NONE
345               Group By Operator
346                 Group By Vectorization:
347                     className: VectorGroupByOperator
348                     groupByMode: HASH
349                     keyExpressions: col 20:string
350                     native: false
351                     vectorProcessingMode: HASH
352                     projectedOutputColumnNums: []
353                 keys: _col0 (type: string)
354                 mode: hash
355                 outputColumnNames: _col0
356                 Statistics: Num rows: 2000 Data size: 918712 Basic stats: COMPLETE Column stats: NONE
357                 Reduce Output Operator
358                   key expressions: _col0 (type: string)
359                   sort order: +
360                   Map-reduce partition columns: _col0 (type: string)
361                   Reduce Sink Vectorization:
362                       className: VectorReduceSinkOperator
363                       native: false
364                       nativeConditionsMet: hive.vectorized.execution.reducesink.new.enabled IS true, No PTF TopN IS true, No DISTINCT columns IS true, BinarySortableSerDe for keys IS true, LazyBinarySerDe for values IS true
365                       nativeConditionsNotMet: hive.execution.engine mr IN [tez, spark] IS false
366                   Statistics: Num rows: 2000 Data size: 918712 Basic stats: COMPLETE Column stats: NONE
367                   TopN Hash Memory Usage: 0.1
368       Execution mode: vectorized
369       Map Vectorization:
370           enabled: true
371           enabledConditionsMet: hive.vectorized.use.vectorized.input.format IS true
372           inputFormatFeatureSupport: []
373           featureSupportInUse: []
374           inputFileFormats: org.apache.hadoop.hive.ql.io.orc.OrcInputFormat
375           allNative: false
376           usesVectorUDFAdaptor: false
377           vectorized: true
378       Reduce Vectorization:
379           enabled: false
380           enableConditionsMet: hive.vectorized.execution.reduce.enabled IS true
381           enableConditionsNotMet: hive.execution.engine mr IN [tez, spark] IS false
382       Reduce Operator Tree:
383         Group By Operator
384           keys: KEY._col0 (type: string)
385           mode: mergepartial
386           outputColumnNames: _col0
387           Statistics: Num rows: 1000 Data size: 459356 Basic stats: COMPLETE Column stats: NONE
388           File Output Operator
389             compressed: false
390             table:
391                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
392                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
393                 serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
394
395   Stage: Stage-2
396     Map Reduce
397       Map Operator Tree:
398           TableScan
399             TableScan Vectorization:
400                 native: true
401             Reduce Output Operator
402               key expressions: _col0 (type: string)
403               sort order: +
404               Reduce Sink Vectorization:
405                   className: VectorReduceSinkOperator
406                   native: false
407                   nativeConditionsMet: hive.vectorized.execution.reducesink.new.enabled IS true, No PTF TopN IS true, No DISTINCT columns IS true, BinarySortableSerDe for keys IS true, LazyBinarySerDe for values IS true
408                   nativeConditionsNotMet: hive.execution.engine mr IN [tez, spark] IS false
409               Statistics: Num rows: 1000 Data size: 459356 Basic stats: COMPLETE Column stats: NONE
410               TopN Hash Memory Usage: 0.1
411       Execution mode: vectorized
412       Map Vectorization:
413           enabled: true
414           enabledConditionsMet: hive.vectorized.use.vector.serde.deserialize IS true
415           inputFormatFeatureSupport: []
416           featureSupportInUse: []
417           inputFileFormats: org.apache.hadoop.mapred.SequenceFileInputFormat
418           allNative: false
419           usesVectorUDFAdaptor: false
420           vectorized: true
421       Reduce Vectorization:
422           enabled: false
423           enableConditionsMet: hive.vectorized.execution.reduce.enabled IS true
424           enableConditionsNotMet: hive.execution.engine mr IN [tez, spark] IS false
425       Reduce Operator Tree:
426         Select Operator
427           expressions: KEY.reducesinkkey0 (type: string)
428           outputColumnNames: _col0
429           Statistics: Num rows: 1000 Data size: 459356 Basic stats: COMPLETE Column stats: NONE
430           Limit
431             Number of rows: 50
432             Statistics: Num rows: 50 Data size: 22950 Basic stats: COMPLETE Column stats: NONE
433             File Output Operator
434               compressed: false
435               Statistics: Num rows: 50 Data size: 22950 Basic stats: COMPLETE Column stats: NONE
436               table:
437                   input format: org.apache.hadoop.mapred.SequenceFileInputFormat
438                   output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
439                   serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
440
441   Stage: Stage-0
442     Fetch Operator
443       limit: 50
444       Processor Tree:
445         ListSink
446
447 PREHOOK: query: SELECT CONCAT(CONCAT(CONCAT('Quarter ',CAST(CAST((MONTH(dt) - 1) / 3 + 1 AS INT) AS STRING)),'-'),CAST(YEAR(dt) AS STRING)) AS `field`
448     FROM vectortab2korc 
449     GROUP BY CONCAT(CONCAT(CONCAT('Quarter ',CAST(CAST((MONTH(dt) - 1) / 3 + 1 AS INT) AS STRING)),'-'),CAST(YEAR(dt) AS STRING))
450     ORDER BY `field`
451     LIMIT 50
452 PREHOOK: type: QUERY
453 PREHOOK: Input: default@vectortab2korc
454 #### A masked pattern was here ####
455 POSTHOOK: query: SELECT CONCAT(CONCAT(CONCAT('Quarter ',CAST(CAST((MONTH(dt) - 1) / 3 + 1 AS INT) AS STRING)),'-'),CAST(YEAR(dt) AS STRING)) AS `field`
456     FROM vectortab2korc 
457     GROUP BY CONCAT(CONCAT(CONCAT('Quarter ',CAST(CAST((MONTH(dt) - 1) / 3 + 1 AS INT) AS STRING)),'-'),CAST(YEAR(dt) AS STRING))
458     ORDER BY `field`
459     LIMIT 50
460 POSTHOOK: type: QUERY
461 POSTHOOK: Input: default@vectortab2korc
462 #### A masked pattern was here ####
463 NULL
464 Quarter 1-1970
465 Quarter 1-1971
466 Quarter 1-1972
467 Quarter 1-1973
468 Quarter 1-1974
469 Quarter 1-1975
470 Quarter 1-1976
471 Quarter 1-1977
472 Quarter 1-1978
473 Quarter 1-1979
474 Quarter 1-1980
475 Quarter 1-1981
476 Quarter 1-1982
477 Quarter 1-1983
478 Quarter 1-1984
479 Quarter 1-1985
480 Quarter 1-1986
481 Quarter 1-1987
482 Quarter 1-1988
483 Quarter 1-1989
484 Quarter 1-1990
485 Quarter 1-1991
486 Quarter 1-1992
487 Quarter 1-1993
488 Quarter 1-1994
489 Quarter 1-1995
490 Quarter 1-1996
491 Quarter 1-1997
492 Quarter 1-1998
493 Quarter 1-1999
494 Quarter 1-2000
495 Quarter 1-2001
496 Quarter 1-2002
497 Quarter 1-2003
498 Quarter 1-2004
499 Quarter 1-2005
500 Quarter 1-2006
501 Quarter 1-2007
502 Quarter 1-2008
503 Quarter 1-2009
504 Quarter 1-2010
505 Quarter 1-2011
506 Quarter 1-2012
507 Quarter 1-2013
508 Quarter 1-2014
509 Quarter 1-2015
510 Quarter 1-2016
511 Quarter 1-2017
512 Quarter 1-2018