资讯专栏INFORMATION COLUMN

postgresql 自定义aggregate function实现reduce

YancyYe / 871人阅读

create or replace function lmy(first INTEGER, item INTEGER) returns INTEGER as $$
BEGIN
  return first * item;
END;
$$
LANGUAGE plpgsql;

create aggregate yml(INTEGER) (
  sfunc = lmy,
  stype = INTEGER,
  initcond = 1
);

isnp=# select i, yml(i) over (order by i) from generate_series(1,10) i;

i yml
1 1
2 2
3 6
4 24
5 120
6 720
7 5040
8 40320
9 362880
10 3628800

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/38950.html

相关文章

  • 【Flink实时计算 UFlink】UFlink SQL 开发指南

    摘要:开发指南是为简化计算模型,降低用户使用实时计算的门槛而设计的一套符合标准语义的开发套件。随后,将为该表生成字段,用于记录并表示事件时间。UFlink SQL 开发指南UFlink SQL 是 UCloud 为简化计算模型,降低用户使用实时计算的门槛而设计的一套符合标准 SQL 语义的开发套件。接下来,开发者可以根据如下内容,逐渐熟悉并使用 UFlink SQL 组件所提供的便捷功能。1 ...

    Tecode 评论0 收藏0
  • Hadoop Streaming

    摘要:任务运行时,它把输入切分成行并把每一行提供给可执行文件进程的标准输入。默认情况,返回非零时表示失败。其中,指定了这次切分使用的的分隔符。利用适当的聚合器聚合这些可聚合项。选取规则和选取规则由分割。 Hadoop streaming是Hadoop的一个工具, 它帮助用户创建和运行一类特殊的map/reduce作业, 这些特殊的map/reduce作业是由一些可执行文件或脚本文件充当mapper...

    NotFound 评论0 收藏0
  • Spark SQL学习笔记

    摘要:是中处理结构化数据的模块。可以从很多数据源加载数据并构造得到,如结构化数据文件,中的表,外部数据库,或者已有的。使用反射机制,推导包含指定类型对象的。这一功能应该优先于使用。随后,将会扫描必要的列,并自动调整压缩比例,以减少内存占用和压力。 Spark SQL是Spark中处理结构化数据的模块。与基础的Spark RDD API不同,Spark SQL的接口提供了更多关于数据的结构信息...

    qieangel2013 评论0 收藏0
  • Hadoop Streaming 编程

    摘要:用户自定义的程序用户自定义的程序必须用实现作业的一些属性以前用的是,具体有数目数目输入输出数据的分隔符默认均为。指定输出记录中所占的域数目输入输出数据的分隔符,默认均为。利用适当的聚合器聚合这些可聚合项。 1、概述 Hadoop Streaming是Hadoop提供的一个编程工具,它允许用户使用任何可执行文件或者脚本文件作为Mapper和Reducer,例如: 采用shell脚本语言中...

    sf190404 评论0 收藏0
  • 《从0到1学习Flink》—— Flink Data transformation(转换)

    摘要:这些切片称为窗口。函数允许对常规数据流进行分组。通常,这是非并行数据转换,因为它在非分区数据流上运行。 showImg(https://segmentfault.com/img/remote/1460000017874226?w=1920&h=1271); 前言 在第一篇介绍 Flink 的文章 《《从0到1学习Flink》—— Apache Flink 介绍》 中就说过 Flink ...

    oujie 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<