第24题:
需求列表
编写一个脚本,代码可用python或pyspark或scala(40分)
需求:cust_pft是客户(cust_if)每天(date)的资产净值(pft),现在需要获得每个客户近1年的最大回撤:
最大回撤定义:在该客户的净值曲线中,当出现最大的净值的时点记为m1,这之后出现的净值比m1那天净值相差最大的净值记为m2,最大回撤就是(m2-m1)/m1.(注意是出现最大净值之后的最小净值,两者的差)
create or replace temporary view cust_pft (cust_id,date,pft) as values (1,‘2021-01-01’,10000), (1,‘2021-01-02’,10010), (1,‘2021-01-03’,10020), (1,‘2021-01-04’,9999), (1,‘2021-01-05’,9998), (1,‘2021-01-06’,10020), (1,‘2021-12-27’,6000), (1,‘2021-12-28’,6001), (1,‘2021-12-29’,6002);
思路分析
- 使用MAX()函数计算最大回撤;
- 使用子查询计算每个日期的价格、最高价格和回撤率;
- 使用MAX() OVER()函数计算每个日期之前的最高价格;
- 计算回撤率,并使用MAX()函数找到最大回撤。
答案获取
建议你先动脑思考,动手写一写再对照看下答案,如果实在不懂可以点击下方卡片,回复:大厂sql
即可。
参考答案适用HQL,SparkSQL,FlinkSQL,即大数据组件,其他SQL需自行修改。
加技术群讨论
点击下方卡片关注 联系我进群
或者直接私信我进群
文末SQL小技巧
提高SQL功底的思路。
1、造数据。因为有数据支撑,会方便我们根据数据结果去不断调整SQL的写法。
造数据语法既可以create table再insert into,也可以用下面的create temporary view xx as values语句,更简单。
其中create temporary view xx as values语句,SparkSQL语法支持,hive不支持。
2、先将结果表画出来,包括结果字段名有哪些,数据量也画几条。这是分析他要什么。
从源表到结果表,一路可能要走多个步骤,其实就是可能需要多个子查询,过程多就用with as来重构提高可读性。
3、要由简单过度到复杂,不要一下子就写一个很复杂的。
先写简单的select from table…,每个中间步骤都执行打印结果,看是否符合预期, 根据中间结果,进一步调整修饰SQL语句,再执行,直到接近结果表。
4、数据量要小,工具要快,如果用hive,就设置set hive.exec.mode.local.auto=true;如果是SparkSQL,就设置合适的shuffle并行度,set spark.sql.shuffle.partitions=4;