SQL 的后计算脚本
作者:互联网
大多数情况下,我们用SQL(存储过程)就可以完成数据库计算,但如果遇到SQL不擅长的某些复杂运算,就只能用其他程序语言把数据读出库外,然后在数据库外完成计算,这样的程序语言经常是以简单脚本的形式出现,我们在这里称为SQL的后计算脚本。
SQL不擅长的运算主要包括复杂的集合计算、有序计算、关联计算、多步骤计算等。SQL集合化不够彻底,没有显式的集合数据类型,导致计算过程中产生的集合难以复用,比如分组后必须强制汇总,而基于分组后的子集无法再计算;SQL基于无序集合理论设计,处理跨行组及排名等有序运算非常麻烦,经常用JOIN或子查询临时生成序号,不仅难写而且运算效率很低。SQL还不支持记录的引用,只能用子查询或JOIN语句描述关联关系,一旦遇到层级较多或自关联的情况,代码就会异常复杂;SQL本身也不提倡多步骤代码,经常迫使程序员写出嵌套很多层的长语句,虽然用存储过程可以一定程度解决这个问题,但有时实际环境不允许我们使用存储过程,比如DBA严格控制存储过程的权限、旧数据库和小型数据库不支持存储过程等,而且存储过程的调试也很不方便,并不是很适合写出有过程的计算。
除了上述复杂运算,还有一些情况也会用到SQL的后计算脚本。比如,计算逻辑需要在不同种类的数据库间迁移,涉及到非关系数据库;输入源或输出目标不止数据库,而是Excel、文本等文件;还可能在多个数据库之间进行混合计算。这些都会涉及库外计算,用到SQL的后计算脚本。
对SQL的后计算脚本而言,最重要的功能当然还是实现SQL不擅长的那些复杂运算。除此之外,最好还能具备一些更高级的特性,比如计算文件、非关系数据库等多样性数据、能处理较大的数据量、运算性能 不能太慢等。当然,最基本的是要方便地支持读写数据库,这样才能实现SQL的后计算。
常见的用于SQL后计算脚本有JAVA、Python pandas、esProc,下面就让我们深入了解这些脚本,看看它们进行SQL后计算时的能力差异。
JAVA
C++、JAVA等高级语言理论上无所不能,自然也能实现SQL不擅长的运算。JAVA支持泛型,集合化比较彻底,可以实现复杂的集合运算。JAVA的数组本来就有序号,可以实现有序运算。JAVA支持对象引用,可用引用来表示关系,关联运算也没什么问题。JAVA支持分支、循环等过程性语法,可轻松实现多步骤复杂运算。
但是,JAVA缺乏结构化类库,连最简单的结构化计算都必须硬编码实现,最基本的结构化数据类型也要手工建立,这会导致代码冗长繁琐。
举个有序计算的例子:求某支股票最长连续上涨天数。库表AAPL存储某支股票的股价信息,主要字段有交易日期、收盘价,请计算该股票最长的连续上涨天数。
按自然思路实现这个任务:对日期有序的股票记录进行循环,如果本条记录与上一条记录相比是上涨的,则将连续上涨天数(初始为0)加1,如果是下跌的,则将连续上涨天数和当前最大连续上涨天数(初始为0)相比,选出新的当前最大连续上涨天数,再将连续上涨天数清0。如此循环直到结束,当前最大连续上涨天数即最终的最大连续上涨天数。
SQL不擅长有序计算,无法用上述自然思路实现,只能用一些古怪难懂的技巧:把按日期有序的股票记录分成若干组,连续上涨的记录分成同一组,也就是说,某天的股价比上一天是上涨的,则和上一天记录分到同一组,如果下跌了,则开始一个新组。最后看所有分组中最大的成员数量,也就是最多连续上涨的天数。
具体SQL如下:
select max(continue_inc_days)
from (select count(*) continue_inc_days
from (select sum(inc_de_flag) over(order by transDate) continue_de_days
from (select transDate,
case when
price>LAG(price) over(order by transDate)
then 0 else 1 end inc_de_flag
from AAPL) )
group by continue_de_days)
这段SQL并不算很长,但嵌套了四层,所用技巧古怪难懂,一般人很难想出这样的代码。
用JAVA实现时,就可以回归自然思路:
package stock;
import java.sql.*;
public class APP {
public static void main(String[] args) throws SQLException,
ClassNotFoundException {
Connection con = null;
Class.forName("com.mysql.cj.jdbc.Driver");
con = DriverManager .getConnection( "jdbc:mysql://127.0.0.1:3306/mysql?&useSSL=false&serverTimezone=UTC","root", "");
String dql = "select * from AAPL order by transDate";
PreparedStatement stmt = con.prepareStatement(dql, ResultSet.TYPE_SCROLL_INSENSITIVE, ResultSet.CONCUR_READ_ONLY);
ResultSet aapl = stmt.executeQuery();
int continue_inc_days = 0;
int max_continue_inc_days = 0;
float last_Price = 0;
while (aapl.next()) {
float price = aapl.getFloat("price");
if (price >= last_Price) {
continue_inc_days++;
} else {
if (continue_inc_days >= max_continue_inc_days) {
max_continue_inc_days = continue_inc_days;
}
continue_inc_days = 0;
}
last_Price = price;
}
System.out.println("max_continue_inc_days=" + max_continue_inc_days);
if (con != null)
con.close();
}}
后面那段代码就是前面讲述的思路,只要一层循环就可以完成了。
然而,我们也发现,Java写出的这段代码,虽然思路简单,难度不大,但显然代码很冗长。
这个问题的复杂度并不高,还没涉及到常见的分组、连接等结构化数据计算,否则代码量将更为惊人,限于篇幅,就不再用JAVA举例了。
在多样性数据、优化性能、处理大数据等高级功能方面,JAVA的特点同样是“能实现,但太繁琐”,这里也不再赘述。
JAVA是个优秀的企业级通用语言,但通用的另一层意思往往是不专业,换句话说,JAVA缺乏专业的结构化计算类库,代码冗长繁琐,算不上理想的SQL后计算脚本。
Python pandas
Python有简捷的语法,还拥有众多的第三方函数库,其中就有服务于结构化计算的Pandas。也正因为如此,Pandas常被用作SQL的后计算脚本。
作为结构化计算函数库,Pandas简化SQL复杂运算的能力要比JAVA强很多。
比如,同样的有序运算 “求最长连续上涨天数”,Pandas代码是这样的:
import pymysql
import pandas as pd
conn = pymysql.connect(
host = "127.0.0.1",
port = 3306,
user = "root",
password = "",
database = "mysql",
)
aapl = pd.read_sql_query("select price from AAPL order by transDate", conn)
continue_inc_days=0 ; max_continue_inc_days=0
for i in aapl['price'].shift(0)>aapl['price'].shift(1):
continue_inc_days =0 if i==False else continue_inc_days +1
max_continue_inc_days = continue_inc_days if max_continue_inc_days < continue_inc_days else max_continue_inc_days
print(max_continue_inc_days)
conn.close()
上述代码中,Pandas提供了用于结构化计算的数据结构dataFrame,这种数据结构天然带序号,在有序运算中可以简化代码,比JAVA更容易进行跨行取数。此外,Pandas对SQL取数的封装也很紧凑,比JAVA代码更加简短。
再比如集合计算例子:一行拆分为多行。库表tb有2个字段,其中ANOMALIES存储以空格为分隔符的字符串,需将ANOMALIES按空格拆分,使每个ID字段对应一个成员。
处理前的数据
处理后的数据:
Pandas核心代码如下(省略数据库输入输出,下同):
split_dict = pd.read_sql_query("select * from tb", conn)
split_list = []
for key,value in split_dict.items():
anomalies = value[0].split(' ')
key_array = np.tile(key,len(anomalies))
split_df = pd.DataFrame(np.array([key_array,anomalies]).T,columns=['ID','ANOMALIES'])
split_list.append(split_df)
df = pd.concat(split_list,ignore_index=True)
上述代码中,Pandas用集合函数将字符串直接拆分为dataFrame,再用集合函数将多个dataFrame直接合并,代码非常简练。JAVA虽然可以实现类似的功能,但都要手工实现,代码要繁琐得多。
作为结构化计算函数库,Pandas代码的确比JAVA简练,但这仅限于复杂度有限的情况下,如果复杂度进一步提高,Pandas代码也会变得冗长难懂。
比如这个涉及集合计算+有序计算的例子:连续值班情况。库表duty记录着每日值班情况,一个人通常会持续值班几个工作日,之后再换人,现在请根据duty依次计算出每个人连续的值班情况。数据结构示意如下:
处理前(duty)
处理后
核心的pandas代码如下:
duty = pd.read_sql_query("select date,name from duty order by date", conn)
name_rec = ''
start = 0
duty_list = []
for i in range(len(duty)):
if name_rec == '':
name_rec = duty['name'][i]
if name_rec != duty['name'][i]:
begin = duty['date'].loc[start:i-1].values[0]
end = duty['date'].loc[start:i-1].values[-1]
duty_list.append([name_rec,begin,end])
start = i
name_rec = duty['name'][i]
begin = duty['date'].loc[start:i].values[0]
end = duty['date'].loc[start:i].values[-1]
duty_list.append([name_rec,begin,end])
duty_b_e = pd.DataFrame(duty_list,columns=['name','begin','end'])
上面已经省略了数据库输出输出的过程,可以看到代码还是有点繁琐。
再比如集合计算+多步骤运算的例子:计算分期贷款明细。库表loan记录着贷款信息,包括贷款 ID,贷款总额、期数、年利率,示意如下:
需要计算出各期明细,包括:当期还款额、当期利息、当期本金、剩余本金。计算结果如下:
实现上述运算的Pandas核心代码如下:
loan_data = pd.read_sql_query("select loanID,LoanAmt,Term,Rate from loan", conn)
loan_data['mrate'] = loan_data['Rate']/(100*12)
loan_data['mpayment'] = loan_data['LoanAmt']*loan_data['mrate']*np.power(1+loan_data['mrate'],loan_data['Term']) \ /(np.power(1+loan_data['mrate'],loan_data['Term'])-1)
loan_term_list = []
for i in range(len(loan_data)):
loanid = np.tile(loan_data.loc[i]['LoanID'],loan_data.loc[i]['Term'])
loanamt = np.tile(loan_data.loc[i]['LoanAmt'],loan_data.loc[i]['Term'])
term = np.tile(loan_data.loc[i]['Term'],loan_data.loc[i]['Term'])
rate = np.tile(loan_data.loc[i]['Rate'],loan_data.loc[i]['Term'])
payment = np.tile(np.array(loan_data.loc[i]['mpayment']),loan_data.loc[i]['Term'])
interest = np.zeros(len(loanamt))
principal = np.zeros(len(loanamt))
principalbalance = np.zeros(len(loanamt))
loan_amt = loanamt[0]
for j in range(len(loanamt)):
interest[j] = loan_amt*loan_data.loc[i]['mrate']
principal[j] = payment[j] - interest[j]
principalbalance[j] = loan_amt - principal[j]
loan_amt = principalbalance[j]
loan_data_df = pd.DataFrame(np.transpose(np.array([loanid,loanamt,term,rate,payment,interest,principal,principalbalance])),
columns = ['loanid','loanamt','term','rate','payment','interest','principal','principalbalance'])
loan_term_list.append(loan_data_df)
loan_term_pay = pd.concat(loan_term_list,ignore_index=True)
print(loan_term_pay)
可以看到,在简化SQL复杂运算方面Python虽然比JAVA强很多,但只限于简单情况,如果需求再复杂些,代码也会变得冗长难懂。之所以出现这种现象,可能因为Pandas只是第三方函数库,不能得到Python从语法层面的底层支撑,设计的专业性也不足。
Pandas的专业性不足,还体现在多样性数据上。Pandas没有为各类数据源开发统一接口,只支持常见的本地文件,但不支持复杂的数据源,比如Hadoop、MongoDB,用户还要自己寻找第三方(实际是第四方)函数库,并编写复杂的访问代码。Pandas甚至没有统一数据库接口,比如MySQL就有好几种第三方函数库,常见的有PyMySQL、sqlalchemy、MySQLdb。不过,这个问题对于大多数桌面应用场景还不严重,常见的数据库Python 基本上都能简单地支持。
对于多源混合关联问题,只要能读出各种数据源的数据,基本上也就能实现了,Pandas在这方面的表现基本令人满意。不过,还是上面的说法,对于简单的混合关联关系,Pandas都容易实现,而一旦出现较复杂的关联运算,实现过程就会变得困难起来。
在大数据量方面,Pandas的表现就不尽如人意了。Pandas没有游标数据类型,这导致解决较大数据量的计算时,必须硬编码实现循环取数,而不能自动进行内外存交换,代码因此异常繁琐。详情可参考《How Python Handles Big Files》
Pandas的运算性能也一般,但基本够用。令人经常诟病的主要是多线程并行,Python下很难实现此类运算。比如数据库IO一般都较慢,但可以在数据库不忙时使用并行取数的办法来提高取数性能。而Python要借助其他第三方函数库才能实现并行,代码异常繁琐,且在表达效率、执行效率、稳定性等方便均缺乏保障。
Pandas虽然是结构化计算函数库,但仍不够好用。
esProc
与Pandas类似,esProc也具有丰富的结构化计算函数,与Pandas不同的是, esProc是由商业公司支持的产品,是专业的结构化计算语言,而不是开源社区的第三方库函数,也不存在一个松散的上级组织。esProc可以从全局角度设计一致的结构化计算语法,可以自底向上设计统一的结构化数据类型,使函数之间以最大的灵活度搭配组合,从而快捷方便地解决SQL后计算中遇到的问题。
作为专业的结构化计算语言,esProc擅长简化SQL复杂运算,比如,求最长连续上涨天数,实现前面说过的自然思路,esProc只需短短2行:
上述代码使用了序表和循环函数,序表是专用于结构化计算的数据结构,可以比Pandas更容易进行跨行取数,可以更方便地实现有序计算,循环函数可以避免大部分的for语句(复杂情况下还是应该用for),可以大幅简化代码。此外,esProc对SQL取数的封装更紧凑,比Pandas代码更加简短。
再比如一行拆分为多行,esProc代码依然简短:
即使需求复杂度进一步提高,esProc仍然可以轻松实现。
比如连续值班情况,esProc代码要比Pandas简短很多:
再比如计算分期贷款明细,esProc同样比Pandas简短:
对于Pandas很难实现的复杂运算,esProc通常也能轻松实现,而且代码不难。比如涉及多步骤算法+集合运算+动态表结构的任务:将子表横向插入子表。
源表关系
目标结果
esProc可以大幅简化这段代码:
作为专业的结构化计算语言,esProc不仅可以大幅简化SQL不擅长的复杂运算,还具备更高级的能力去解决一些特殊情况。
在多样性数据方面,esProc支持多种文件格式和复杂的数据源,比如Hadoop、MongoDB等。更进一步,只需使用相同的代码,数据分析师就能计算来源各异的数据,既包括数据库,也包括非数据库。
在大数据量方面,esProc从底层提供了游标机制,对上层隐藏了内外存交换细节,允许数据分析师用类似处理小数据量的语法,直观地处理较大的数据量。
比如,库表orders记录着电商的大量订单,全部读出会超出内存,现在需要在库外计算每个销售员销售额最大的3笔订单。esProc代码如下:
esProc也提供了很多简单易用的方法进行性能优化。比如:orders表每月的数据大致相等,请按月份进行多线程并行查询,从而大幅提高查询性能。esProc只需如下代码:
经过前面的比较我们可以发现,esProc具备丰富的结构化函数,是专业的结构化计算语言,可以大幅简化SQL不擅长的复杂运算逻辑,是更加理想的SQL后计算脚本。
标签:脚本,loan,days,计算,SQL,data,Pandas 来源: https://blog.csdn.net/RUNQIAN_RAQSOFT/article/details/111035661