营销数据分析案例合集_第1页
营销数据分析案例合集_第2页
营销数据分析案例合集_第3页
营销数据分析案例合集_第4页
营销数据分析案例合集_第5页
已阅读5页,还剩83页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第1章绪论案例分析

利用最近一次的营销活动的信息,分析什么对推销结果的影响最大,如何确定银行定

期产品推销中最具价值的客户。

1数据理解

数据源来自CSDN;

<https://blog./qq_44186838/article/detaiIs/120579194

代码下载链接

https://down1oad.csdn.net/down1oad/qq_44186838/86799994

字rs名BK

age年龄(数值)

Eik(分为admtn.bluecollar,entrepreneur,housemaid,management,retired,self-employed,senrtces.student.tecnntcian,unemployed.

的unknown)

mantai婚姻状况(分类:flfvorced.mamed.single,unknown)

education学历(分类:primary,secondary,tertiaryandunknown)

default失信状况(分类:yes.no)

balance更产余薮(数值)

housing房屋贷款(分类:yesno,unknown)

loan个人总SS(分类:yes.no.unknown)

contact侬罚t(分关:ceiuiar,telephone)

dayig后一次电话E的日期(散值:月份中的彝一天)

month倭后一次电话看的的月份(分类:jan.feO.mar.apr..nov.dev)

duration通话时长(数值:以秒为单位,殴话国终编出结果必然是0)

campaign联系次数(880:此活动中联系该育户的次B0

pdays距上次联系完客户后的天数(政值:999代表未联系过该客户)

previous这次活动前与这位客户联系的次数(数值)

poutcome上次营销的结果(分关:yes,no.unknown)

deposit定期存款(分类:yes.no)客户是否已的买定期存款

2数据清洗

此次数据除了部分未知数据(unknown),其它暂不需要清洗。

3确定思路

balance目前推测应该是客户存放在银行的资金(负数应该代表欠了银行钱),不可能

是代表这个人的个人全部资产(银行得不到这方面的信息),所以暂时留着。

然后是day和month,如果说有年份的话还能将其分为周一周二等,但是没有,数据

集出处也没有明确标注是哪一年,所以如果用来分析的话可能也只能按月来分析,但按以

往的经验和数据量的大小来看,应该用处不大。

至于duration,因为当duration为0时结果必然是失败的,说明这个数据的记录应

该是银行人员在营销完记录下的,而现实中无法在营销前就得到该数据,所以这个数据没

有用。

那么接下来我们如何下手呢?

首先我们可以将数据分为两种类型:

1、客户的个人信息

2、营销人员与客户的联系信息

那么接下来我们可以按照这两种数据提出几个问题:

1、用户的个人信息是否对结果有着明显的影响(哪些属性影响大)?

2、营销人员的行为是否对结果有着明显的影响(明5些属性影响大)?

4分析过程

4.1年龄

此时我们探究年龄与结果是否有明显的影响。

首先我们可以查看以下数据集中的年龄统计分布情况:

A

5

655

754心417319

80.11276

56数

政39

960

1037港31

1128119134

1?38141928

13300.62154

14290.86278

1546

31值

16

35值

17

32的

18460231

191H62

41『

20

1»ft471849*70«

可以发现共有11162名最小值为18,最大值为95,最小值为18。我们可以按照我们

的认知,将客户分为几个不同年龄阶段。

cDEH

AB

1区间组

21818<=x<35

33535<=x<50老

45050<=x<65年

56565〈二x

6

7

8

9

bank|Sheetl|@□

C?辅助功能:不可用平均值:42msst:15斜口:16802G5%

分组的话主要是用到了VLOOKUP函数进行分组。

REPLACEXv6

ABCDEFGHIJ

1balancehousingloancontactd

259I3,TRUE)admin.marriedsecondanno2343yesnounknown

356中老年人admin,marriedsecondanno45nonounknown

441中年techniciarmarnedsecondanno1270yesnounknown

555中老年人servicesmarriedsecondanno2476yesnounknown

654中老年人admin.marriedtertiaryno184nonounknown

742中年managerrsingletertiaryno0yesyesunknown

856中老年人managerrmarriedtertiaryno830yesyesunknown

960中老年人retireddivorcedsecondanno545yesnounknown

1037中年techniciarmarriedsecondanno1yesnounknown

1128青年servicessinglesecondanno5090yesnounknown

1238中年admin,single100yesnounknown

1330青年blue-colkmarriedsecondanno309yesnounknown

1429青年managerrmarriedtertiaryno199yesyesunknown

15_tertiaryno460yesnounknown

16techmciarsmgletertiaryno703yesnounknown

17managerrdivorcedtertiaryno3837yesnounknown

此时得到分组后,我们可以生成数据透视表来查看情况

--1

计数项:deposit列标签1

行标签二noyes总计

|老年人19.76为80.24%100.00H;90.00%

情年49.36%50.64%100.00H;80.00%

|中老年人53.39%46.61%100.00H!70.00%

忡年58.06%41.94%100.00H:60.00%

总让__________52,62%47.38H100.00*;50.00%

40.00%

30.00%

20.00%

10.00%

0.00%

年知分明・

从图当中我们可以明显的看到在老年人群体中最终购买了定期存款的比例最大,为

80.2%,而其他群体最终的结果并没有明显的差距。

4.2失信状况default

计数项:deposit列标签•

行标签noyes总计

有失信记录5757523710994

无失信记录11652168

总计5873528911162

default,

有失信记录的在结果上没有什么差别,无失信记录(I勺最终购买的比例低于没有购买

的,但是数据最较小,不能作为参考。

4.3个人资产balance

同年龄一样,balance是数值型,因而最好先将其分组。

balance图表标题

1528.54

标准误差30.5291

中位数550

0

标准差3225.41

1E+07

126.861

8.22462

88051

量小值-6847

最大值81204

1.7E+07

观测数11162

这里我主要采用箱型图来查看balance数据的分布,以便后续进行分组。

可以看到的是数据主要是集中在0-2000之间,有少部分低于该区间,然后有部分大于

该区间。

按卜图进行分组:

-68476847<=x<0

00<=x<1000

10001000<=x<2000

20002000<=x<5000高

50005000<=x<=81204

结果如下:

计数

强d

列标签

标el

yes总计

伍计数项:

69.4的30.52%100.0酬

低80.00%

56.0箫43.97%100.0QH

47.38%52.622100.0370.00%.

42.1⑻57.89%100.0优60.00%!

42.8(明57.204100.0优

52.62%47.38%100.00%1IIIIIIllll

负债中低中等偏高超高

资产分组,Y

这里主要可以发现的是负资产的客户最终购买的可能性较低,而资产较高的客户购买

的可能性梢微大些。

4.4housing&loan

接下来的房屋贷款和个人贷款,这个我打算放在一起进行分析。

具体如下:

计数项:deposit列标签

计效项:deposit

行标签.▼noyes总计

无房贷42.97%57.03%100.00%80.00%

无个贷40.35%59.65%100.00%70.00%

有个贷64.96%35.04%100.00%60.0期

有房贷63.36*36.64%100.00H50.00H

无个贷62.44%37.56%100.00%40.00Hdeposit»

有个贷6826%31.74*100.00%

30.00%

总计52.62%47.38H100.00*

20.0㈱

10.0期

000%

无个贷有个货无个货有个贷

无房货有腐贷

housrg.▼loan-

可以看到无房贷和无个人贷款的客户最终购买的可能性最大,为59.65%。其余的只要

有任何一个贷款购买的可能性就比较低。

4.5上次营销结果poutcome

同理.,生•成透视图查看一下:

计数项:deposit列标签•

计敢项:deposit

行标签,noyes总计

failure49.67期50.33%100.001*

success8硒91.32%100.0OT

总计30.58%69.42%100.00%

deposit・

poutoxne,

(包括这次在内,当生成透视图时发现有部分数据(如unknown、other)是我们不想

要的,记得筛选掉)

从图中我们可以明显发现,上次营销成功的客户这次购买的可能性也极大。

5总结

结论:从上述结果我们可以发现,老年人且上次营销成功的群体最有可能购买产品,

而有贷款且低资产的用户购买的可能性会很小。

第2章基于聚类算法的价格带分析案例

电商中的数据维度有很多,各方各面都会有数据存在,通过对这些数据进

行分析,我们就可以知道一些我们需要的信息。商品的定价对于电商销售来说

有着关键的影响。比如定价多少会直接影响所获得的利益。定价太低也许销量

有了却没有利润,定价太高有利润可惜卖不出去。只有合适的价格,才能获得

市场中的一席之地。本篇以彩妆行业下三级类目“粉饼”类目为例,数据来源

是淘宝搜索“粉饼”关键词下,60%价格段销量排序的T0P400个商品。

1.引入库

实例网址:

https://blog.csdn.net/qq_40195798/article/details/112625052

代码如下(示例):

importnumpyasnp

importpandasaspd

importseabornassns

importmatplotlib.pyplotaspit

fromsklearn.clusterimportKMcans

fromsklearn.externalsimportjoblib

fromsklearn.preprocessingimportStandardScaler

fromsklearn.preprocessingimportMinMaxScaler

2.读入数据

代码如下:

datal=pd.rcad-csv^F:\灯具彩妆执行'彩妆'行业分析报告'数据'价格\

饼.csv',encoding:'utf-8')

3.数据检查及处理

datal.dtypes

datal[〃销售价最低〃]二datal[〃销售价最低〃].astype(np.int64)

datal[^30天销售额〃]:datal["30天销售额”].astypc(np.int64)

object

float64

object

贝object

析object

价object

Length1:object

宝贝idint64

主图涟接object

货号float64

原价最低float64

原价最高float64

折扣率object

销售价最低float64

销售价最高float64

■:s+G,

查看数据类型,可得知我们的数据源中各个字段的数据类型,和共有多少

个字段。将之后会用到的字段修改成方便数据处理的类型。

datal.info()

单品6non-nullobject

上市时间112non-nullobject

限期使用日期范围142non-nullobject

规格类型392non-nullobject

Kanebo/蠢娜宝单品0non-nullfloat64

月份52non-nullobject

宝贝地址399non-nullobject

分析地址399non-nullobject

评价标签394non-nullobject

dtypes:float64(ll),int32(2),int64(11),object(53)

memorvusaee:237.0+KB

info函数同样可以做到这一点,不仅如此,info()还可以让我们知道这些

字段中,哪些字段数据有缺失,从而让我们可以将这些数据进行处理(删减/填

充)。

dt2=datal[[〃宝贝id〃,〃销售价最低〃,〃30天销量〃]]

dt2.describe()

宝贝id销售饮最低30天销量

count3.9900006*02399.000000399.000000

mean5.6417668+1177.6071435561.706767

std1.428691e+1136.49136927882.787708

min2.254868e+0910.000000-1.000000

25%5.704233e+1149.900000257.500000

50%6.100299e+1169,000000450.000000

75%6.268171e+1189,0000001709.500000

max6.331716e+11168.000000346659.000000

describe。函数可以为我们计算出数据的数量、标准层、均值、四分位数

以及最大最小值。可以更直观看出我们的数据是否有异常。这里我们看到30天

销量为-1,显然是不正确的。

dt2=dt2[(dt2['销售价最低']>0)&(dt2['3O天销量']>0)]

dt2.describe()

宝贝id销售饰最低30天销量

count3.9800006402398.000000398.000000

mean5.640578e*1177.6890705575.683417

std1.430292641136.50053827916.482992

min2.254868640910.000000100.000000

25%5.702503641149.900000258.250000

50%6.099429e*1169,000000452.000000

75%6.268894e*1189,0000001717.250000

max6.331716e*11168900000346659.0000C0

提取出所有销量〉0的数据然后查看。

4.聚类分析

在确认数据没有问题后便可以开始着手进行聚类分析了。

sns.distplot(dt2[”销售价最低〃])

<matplotlib.axes._subplots.AxesSubplotatCx273888fd860>

通过画核密度图我们可以大致看出市场价格情况:“粉饼”这一关键词下,

销量前400的商品中大部分商品价格在50元左右,高价格段商品集中在150元

左右。(这里y轴代表数据密度,是在原数据基础上数据归一化的结果)

x=dt2.iloc[:,1:3]

x.head()

s=StandardScalcr()

x_scale=s.fit_transform(x)

x_scale=pd.DataFrame(x_scale,columns=x.columns,index=x.index)

xscale,head()

一般情况下“数据标准化”是数据分析前数据处理的重要一部分,其作用

是使数据处于同一数量级,免受量纲影响。未做数据标准化的数据会明显突出

数值过大的指标,削弱数值小指标的影响。

scope=ranged,10)

sse=[]

forkinscope:

kmeans=KMeans(nclusters=k)

kmeans.fit(xscale)

sse.append(kmeans.inertia_)

pit.xticks(scope)

sns.lincplot(scope,sse,marker=,o')

Kmeans算法中,需要知道的一点是,Kmeans并不能自动的为我们决定将数

据划分为几类,而是需要我们先决定将数据划分为几类,然后再去由Kmeans进

行划分。但到底划分为几类虽然是由我们决定,却也不能随意决定。常用的方

法是根据最小的SEE原则来决定最佳K值。

<matplotlib.axes._subplots.AxesSubplotat0x273888034a8>

根据图像我们可以知道最合适的K值为3,即将我们的商品数据按价格分

为三类。

在确定了这个K=3后,我们就可以正式对数据进行聚类。

#正式定义模型

model1=KMeansInclusters?)

#跑模型

model1.fit(x_scale)

#需要知道每个类别有哪些参数

C_i=model1.predict(x_scale)

#还需要知道聚类中心的坐标

Muk=model1.clustercenters

X=x_scale.values

print('质心:',model1.cluster_ccntcrs_)

print('标签:',model1.labels_)

print('SSE:',modell.inertia_)

print('迭代次数:',modell.n_iter_)

print('分值:',modell.score(x_scale))

#画图

pit.scatter(X[:,0],X[:,1],c=C_i,cmap=plt.cm.Paired)

#画聚类中心

plt.scatter(Muk[:,0],Muk[:,1],marker=',s=60)

foriinrange(3):

pit.annotate('中心'+str(i+1),(Muk[i,0],Muk[i,1]))

pit.show()

质心:[[1.58829343-0.14841212]

[-0.48672144-0.03593847]

[1.957668%12.23336845]]

标签:[2111111111011110101111110110111010111

0101111111101111111111011110111110100

1111111010101111010101111111111011111

010011011011111111111111111111001010

0111101111001101110011100110110111101

1110110111111101000011111110010011111

1101111111101101011111111011111111111

1101101110111101011101101111111001010

1101010111111101111111111111110111110

1110110101000110111111111110011100101

1101111121111111111111101101]

SSE:184.80881003462846

迭代次数:3

很明显可以看出我们已经成功将商品数据根据价格划分为了三类。一般的

通过聚类做人群划分时,我们可以在聚类后给原数据打标,将各数据处于哪一

个分类中标记出来。但我们这里的最终目的是给商品定价,也就是说我们需要

知道,市场的价格行情。因此还是用标准化前的数据更为直观。

#正式定义模型

model1=KMeans^n_clusters=3)

#跑模型

model1.fit(x)

#需要知道每个类别有哪些参数

C_i=model1.predict(x)

#还需要知道聚类中心的坐标

Muk=model1.clustercenters

X=x.values

#画图

pit.scatter(X[:,0],X[:,1],c=C_i,cmap=plt.cm.Paired)

#画聚类中心

pit.scatter(Muk[:,0],Muk1],marker=',s=60)

foriinrange(3):

pit.annotate('中心'+str(i+1),(Muk[i,0],Muk[i,1]))

pit.show()

Muk

350000-

30000)­

250000-

2000(0-

1500CO-

1000CO-

50000'

o-

0utL86J:azray([[7.76640827eK)l,1.92885271e4O3],

[1.49000000e402,3.46659000e05],

[5.36666667e-K)l,8.65931111e4O4]])

这样我们就可以直观的得到我们的结果。从图上可以清楚的看到结果将商

品按价格和销量分了3类。我们可以看出“粉饼”关键词下,前.400的商品绝

大部,30天销量低于50000,从聚类中心得知这部分商品的价格中心约为78

元,销量中心在1929左右。在商品销量大于50000的第二类商品中,其价格中

心为约54元,销量中心约在86593。最后一类商品销量超过350000极为稀少

不做参考。在得到这些结果后,再根据我们自己产品的成本、特点、利润,定

一个合适的价格就容易很多了。

总结提示:

以匕就是今天要讲的内容,本文以给产品定价为实例,通过对市场上“粉

饼”关键词下60%价格段销量前400商品的价格、销量数据进聚类分析,该段

商品又细分3类,并找出其聚类中心,得到符合市场情况的商品价位。方便对

自己产品定价提供较高参考价值。

第3章用户画像分析案例

美团外卖经过3年的飞速发展,品类已经从单一的外卖扩展到了美食、夜

宵、鲜花、商超等多个品类。用户群体也从早期的学生为主扩展到学生、白

领、社区以及商旅,甚至包括在KTV等娱乐场所消费的人群。随着供给和消费

人群的多样化,如何在供给和用户之间做一个对接,就是用户画像的一个基础

工作。所谓千人千面,画像需要刻画不同人群的消费习惯和消费偏好。

外卖020和传统的电商存在一些差异。可以简单总结为如下几点:

1)新事物,快速发展:这意味很多用户对外卖的认知较少,对平台上的新

品类缺乏了解,对自身的需求也没有充分意识。平台需要去发现用户的消费意

愿,以便对用户的消费进行引导。

2)高频:外卖是个典型的高频020应用。一方面消费频次高,用户生命周

期相对好判定;另一方面消费单价较低,用户决策时间短、随意性大。

3)场景驱动:场景是特定的时间、地点和人物的组合下的特定的消费意

图。不同的时间、地点,不同类型的用户的消费意图会有差异。例如白领在写

字楼中午的订单一般是工作餐,通常在营养、品质上有一定的要求,且单价不

能太高;而到了周末晚上的订单大多是夜宵,追求口味且价格弹性较大。场景

辨识越细致,越能了解用户的消费意图,运营效果就越好。

4)用户消费的地理位置相对固定,结合地理位置判断用户的消费意图是外

卖的一个特点。

外卖产品运营对画像技术的要求

如下图所示,我们大致可以把一个产品的运营分为用户获取和用户拓展两

个阶段。在用户获取阶段,用户因为自然原因或一些营销事件(例如广告、社

交媒体传播)产生对外卖的注意,进而产生了兴趣,并在合适的时机下完成首

购,从而成为外卖新客。在这一阶段,运营的重点是提高效率,通过一些个性

化的营销和广告手段,吸引到真正有潜在需求的用户,并刺激其转化。在用户

完成转化后,接下来的运营重点是拓展用户价值。这里有两个问题:第一是提

升用户价值,具体而言就是提升用户的单均价和消费频次,从而提升用户的

LTV(life-timevalue)0基本手段包括交叉销售(新品类的推荐)、向上销售

(优质高价供给的推荐)以及重复购买(优惠、红包刺激重复下单以及优质供

给的推荐带来下单频次的提升);第二个问题是用户的留存,通过提升用户总

体体验以及在用户有流失倾向时通过促销和优惠将用户留在外卖平台。

•事件普储

•个性化推荐

•个性化广缶•提升总体用户体舲

•配送体验

•个性化推荐

I场景推存

所以用户所处的体验阶段不同,运营的侧重点也需要有明不同。而用户画

像作为运营的支撑技术,需要提供相应的用户刻画以满足运营需求。根据上图

的营销链条,从支撑运营的角度,除去提供常规的用户基础属性(例如年龄、

性别、职业、婚育状况等)以及用户偏好之外,还需要考虑这么几个问题:1)

什么样的用户会成为外卖平台的顾客(新客识别);2)用户所处生命周期的判

断,用户是否可能从平台流失(流失预警);3)用户处于什么样的消费场景

(场景识别)。后面“外卖020的用户画像实践"一节中,我们会介绍针走这

三个问题的一些实践。

外卖画像系统架构

下图是我们画像服务的架构:数据源包括基础日志、商家数据和订单数

据。数据完成处理后存放在一系列主题表中,再导入kv存储,给下游业务端提

供在线服务。同时我们会对整个业务流程实施监控。主要分为两部分,第一部

分是对数据处理流程的监控,利用用内部自研的数据治理平台,监控每天各主

题表产生的时间、数据量以及数据分布是否有异常。第二部分是对服务的监

控。目前画像系统支持的下游服务包括:广告、排序、运营等系统。

■像

日志线

数据服

主推荐

运曹

离线查询/报表

外卖020的用户画像实践

新客运营

新客运营主要需要回答卜列二个问题:

1)新客在哪里?

2)新客的偏好如何?

3)新客的消费力如何?

回答这三个问题是比较困难的,因为相对于老客而言,新客的行为记录非

常少或者几乎没有。这就需要我们通过一些技术手段作出推断。例如:新客的

潜在转化概率,受到新客的人口属性(职业、年龄等)、所处地域(需求的因

素)、周围人群(同样反映需求)以及是否有充足供给等因素的影响;而定于

新客的偏好和消费力,从新客在到店场景下的消费行为可以做出推测。另外用

户的工作和居住地点也能反映他的消费能力。

对新客的预测大量依赖他在到店场景下的行为,而用户的到店行为对于外卖是

比较稀疏的,大多数的用户是在少数几个类别上有过一些消费行为。这就意味

着我们需要考虑选择什么样的统计量描述:是消费单价,总消费价格,消费品

类等等。然后通过大量的试验来验证特征的显著性。另外由于数据比较稀疏,

需要考虑合适的平滑处理。

我们在做高潜新客挖掘时,融入了多方特征,通过特征的组合最终作出一

个效果比较好的预测模型。我们能够找到一些高转化率的用户,其转化率比普

通用户高若干倍。通过对高潜用户有针对性的营销,可以极大提高营销效率。

流失预测

新客来了之后,接下来需要把他留在这个平台上,尽量延长生命周期。营

销领域关于用户留存的两个基本观点是(引自菲利普.科特勒《营销管

理》):

获取一个新顾客的成本是维系现有顾客成本的5倍!

如果将顾客流失率降低5%,公司利润将增加25%~85%

用户流失的原因通常包括:竞对的吸引;体验问题;需求变化。我们借助

机器学习的方法,构建用户的描述特征,并借助这些特征来预测用户未来流失

的概率。这里有两种做法:第一种是预测用户未来若干天是否会下单这一事件

发生的概率。这是典型的概率回归问题,可以选择逻辑回归、决策树等算法拟

合给定观测下事件发生的概率;第二种是借助于生存模型,例如COX-PH模型,

做流失的风险预测.下图左边是概率同归的模型,用户未来T天内是否有下单

做为类别标记y,然后估计在观察到特征X的情况下y的后验概率P(y|X)。右

边是用COX模型的例子,我们会根据用户在未来T天是否下单给样本一个类

别,即观测时长记为T。假设用户的下单的距今时长t〈T,将t作为生存时长

f;否则将生存时长t'记为几这样一个样本由三部分构成:样本的类别

(flag),生存时长(t')以及特征列表。通过生存模型虽然无法显式得到

P(t'IX)的概率,但其协变量部分实际反映了用户流失的风险大小。

概率回归模型cox模型

未来35天未果35天

是否下单是否下单

T

P(y|x)=f(x)h(t;x)=h0(f)exp(px)

生存模型中,BTX反映了用户流失的风险,同时也和用户下次订单的时间

间隔成正相关。下面的箱线图中,横轴为BTx,纵轴为用户下单时间的间隔。

o-

R-

a-

o-

o-4

~finintttiftHnniintintinintiiiinfiiiniiintftiiHiiitfnitiiinit

-394-301-16-1-040309152257798

我们做了COX模型和概率回归模型的对比。在预测用户XX天内是否会下单

上面,两者有相近的性能。

美团外卖通过使用了用户流失预警模型,显著降低了用户留存的运营成

本。

场景运营

拓展用户的体验,最重要的一点是要理解用户下单的场景。了解用户的订

餐场景有助于基于场景的用户运营。对于场景运营而言,通常需要经过如下三

个步骤:

•订单属性

•用户属性

•商家属性

•访谈

人工结合算・用户分群

法定义场景•多元分析

•频繁项挖掘

场景用户识预

别流

场景可以从时间、地点、订单三个维度描述。比如说工作日的下午茶,周

末的家庭聚餐,夜里在家点夜宵等等。其中重要的一点是用户订单地址的分

析。通过区分用户的订单地址是写字楼、学校或是社区,再结合订单时间、订

单内容,可以对用户的下单场景做到大致的了解。

地址:天山绿苑小区13栋x单元XXX

经纬度:(XXX,XXX)

地址文本分析反向地理编码

POI名称:天山绿苑小区

POI类型:住宅小区

上图是我们订单地址分析的流程。根据订单系统中的用户订单地址文本,

基于自然语言处

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论