一种基于制造技术

技术编号:39642130 阅读:12 留言:0更新日期:2023-12-09 11:09
发明专利技术涉及数据处理技术领域,提供了一种基于

【技术实现步骤摘要】
一种基于AI的分布式智能分案引擎的实现方法


[0001]本专利技术涉及数据处理
,提供了一种基于
AI
的分布式智能分案引擎的实现方法


技术介绍

[0002]目前在金融领域经常需要对用户的逾期案件进行分案,以达到利用最合理的处置手段获取最好的成功率

关于案件的分案目前业界使用的方法主要是基于代码的方式或者基于简单的规则配置,基于属于硬编码实现案件分案,分案逻辑并不能实时动态调整

随着经济下行,逾期案件越来越多,处置手段也越来越多,有机器人处置

人工处置

诉前调解

法诉

债务重组等手段,不同处置手段处理的案件难度不同,同时逾期案件越来越多,也亟需一种智能化

实时化的分案引擎

[0003]现有的分案引擎存在以下问题:
1、
分案处理的案件量较少,基于简单的规则逻辑,无法处理海量案件数据,也无法实时返回分案结果

[0004]2、
分案无法进行规则分案

策略分案和智能分案并存,分案逻辑不支持复杂逻辑,分案无法自定义,只能使用已有的分案逻辑

[0005]3、
不支持多种处置手段分案,无法实现从原始案件分案到各种处置手段上,如:机器人处置

人工处置

诉前调解

法诉

债务重组等


技术实现思路

[0006]本专利技术的目的在于解决在处理海量案件时,因数据量大,基于简单的规则逻辑,无法实时返回分案结果的问题

[0007]为了实现上述目的本专利技术采用以下技术手段:本专利技术提了一种基于
AI
的分布式智能分案引擎的实现方法,包括分案
DAG
图,由起始节点导入
Excel
分案数据,每个结点作为案件池,结点和结点之间的边配置了分案规则,所述分案规则为规则分案

策略分案

智能分案中的任一种规则,满足条件的案件会流向箭头指向的结点,每个结点配置了处置手段,采用配置的处置手段进行处置

[0008]上述计算方案中,规则分案,通过以下步骤实现:步骤
1、
将开始结点对应的边所指向的第一层级结点都放入队列
Q
,对队列
Q
执行步骤2;步骤
2、
从队列
Q
取出第一个结点判断该结点的前置结点是否已经经过计算,如果是,则取出该结点和前置结点的边上配置的分案规则,进行分案规则过滤
;
步骤
3、
循环对队列
Q
中其他结点执行上述步骤2,同时每执行一个结点,则将该结点对应的下游结点依次接入队列
Q
的末尾,直到所有结点都执行完成

[0009]上述计算方案中,规则分案实现包括以下步骤:对
Spark RDD
数据设置
partition
,以分钟级分案为目标,将
25M

Spark RDD
数据
设置一个分区,在每个分区内,用
Spark RDD
对应的
filter/mapAPI
算子进行分案规则过滤,在
filter/map API
算子内,首先利用
DSL
对分案规则进行编译,将自然语言表达的公式解析成计算机代码能识别的表达式,其次对
Spark RDD
分区中的每一条数据根据表达式需要的变量送入解析后的表达式完成计算

[0010]上述计算方案中,
DSL
的定义使用
Antlr、Scala
的解析组合子实现,实现方式为:步骤
a1、
定义自然语言的表达式规则,表达式规则包括表达式
=
表达式“与
|
或”表达式,表达式
=“字符串
|
数字
|
整数
|
浮点数”;步骤
a2、
使用
Antlr、Scala
语言实现表达式规则的语法,将自然语言的描述转成计算机可以理解的语言
;
步骤
a3、
对表达式规则实现编译和计算功能

[0011]上述计算方案中,策略分案实现包括以下步骤:依据用户配置,如果用户配置只有金额均分,则执行金额均分算法,如果用户配置只有案件均分,则执行案件的均分算法,如果用户配置案件的均分和金额的均分则先执行案件的均分算法,接着金额均分算法

[0012]上述计算方案中,案件的均分算法包括以下步骤:利用
Spark new Hadoop API
读取
Excel
数据,将数据组织成
Spark RDD
数据,有
M
个逾期客户,
N
个办案员,则每个办案员分配
M/N
的数量的案件

[0013]上述计算方案中,案件的金额均分算法包括以下步骤:利用
Spark new Hadoop API
读取
Excel
数据,将数据组织成
Spark RDD
数据,有
M
个逾期客户,
N
个办案员,对
M
个逾期客户按照金额从大到小排序;对
M
个逾期客户按照金额从大到小排序具体实现包括以下步骤:步骤
b1、
排序时使用
Spark RDD
中的
Map
算子,对
SparkRDD
数据进行
partition
分区提升排序效率,在
partition
分区内使用
map
算子,使用堆排序算法,对
P

partition
分区分别排序,最后再排序,从而完成整体排序;步骤
b2、
排序后,如果逾期客户个数
M
小于办案员的个数
N
,则随机将
M
个逾期客户分配到
N
个办案员中完成金额分案,否则转步骤
b3
;步骤
b3、
从按照金额排序后的
M
个逾期客户中取出
TopN
个依次分给
N
个办案员,转步骤
b4
,其中
TopN
的含义是,排序最前的
N
个;
Top
的获取方法为:基于排序后的
partit本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种基于
AI
的分布式智能分案引擎的实现方法,其特征在于,包括分案
DAG
图,由起始节点导入
Excel
分案数据,每个结点作为案件池,结点和结点之间的边配置了分案规则,所述分案规则为规则分案

策略分案

智能分案中的任一种规则,满足条件的案件会流向箭头指向的结点,每个结点配置了处置手段,采用配置的处置手段进行处置
。2.
根据权利要求1所述的一种基于
AI
的分布式智能分案引擎的实现方法,其特征在于,规则分案,通过以下步骤实现:步骤
1、
将开始结点对应的边所指向的第一层级结点都放入队列
Q
,对队列
Q
执行步骤2;步骤
2、
从队列
Q
取出第一个结点判断该结点的前置结点是否已经经过计算,如果是,则取出该结点和前置结点的边上配置的分案规则,进行分案规则过滤
;
步骤
3、
循环对队列
Q
中其他结点执行上述步骤2,同时每执行一个结点,则将该结点对应的下游结点依次接入队列
Q
的末尾,直到所有结点都执行完成
。3.
根据权利要求2所述的一种基于
AI
的分布式智能分案引擎的实现方法,其特征在于,规则分案实现包括以下步骤:对
Spark RDD
数据设置
partition
,以分钟级分案为目标,将
25M

Spark RDD
数据设置一个分区,在每个分区内,用
Spark RDD
对应的
filter/map API
算子进行分案规则过滤,在
filter/map API
算子内,首先利用
DSL
对分案规则进行编译,将自然语言表达的公式解析成计算机代码能识别的表达式,其次对
Spark RDD
分区中的每一条数据根据表达式需要的变量送入解析后的表达式完成计算
。4.
根据权利要求3所述的一种基于
AI
的分布式智能分案引擎的实现方法,其特征在于,
DSL
的定义使用
Antlr、Scala
的解析组合子实现,实现方式为:步骤
a1、
定义自然语言的表达式规则,表达式规则包括表达式
=
表达式“与
|
或”表达式,表达式
=“字符串
|
数字
|
整数
|
浮点数”;步骤
a2、
使用
Antlr、Scala
语言实现表达式规则的语法,将自然语言的描述转成计算机能够理解的语言
;
步骤
a3、
对表达式规则实现编译和计算功能
。5.
根据权利要求1所述的一种基于
AI
的分布式智能分案引擎的实现方法,其特征在于,策略分案实现包括以下步骤:依据用户配置,如果用户配置只有金额均分,则执行金额均分算法,如果用户配置只有案件均分,则执行案件的均分算法
。6.
根据权利要求5所述的一种基于
AI
的分布式智能分案引擎的实现方法,其特征在于,案件的均分算法包括以下步骤:利用
Spark new Hadoop API
读取
Excel
数据,将数据组织成
Spark RDD
数据,有
M
个逾期客户,
N
个办案员,则每个办案员分配
M/N
的数量的案件
。7.
根据权利要求5所述的一种基于
AI
的分布式智能分案引擎的实现方法,其特征在于,案件的金额均分算法包括以下步骤:利用
Spark new Hadoop API
读取
Excel
数据,将数据组织成
Spark RDD
数据,有
M
个逾期客户,
N
个办案员,对
M
个逾期客户按照金额从大到小排序;对
M
个逾期客户按照金额从大到小排序具体实现包括以下步骤:步骤
b1、
排序时使用
Spark RDD
中的
Map
算子,对
Spark RDD
数据进行
partition
分区提
升排序效率,在
partition
分区内使用
map
算子,使用堆排序算法,对
P

partition
分区分...

【专利技术属性】
技术研发人员:张玻向凯石文
申请(专利权)人:四川智筹科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1