外貿領航
首頁行業資訊 > 淘寶客戶服務案例分析「JAVA實戰項目」

淘寶客戶服務案例分析「JAVA實戰項目」

來源:互聯網 2024-08-12 12:04:04
項目背景

隨著電商?業的發展度過紅利期,新客獲取的流量成本?居不下,對消費品牌的直接影響則是銷售貢獻中增量的減少。

為了彌補乏?的增?,各個品牌越來越重視對存量?群進?精細化運營,因為與獲取新客相?,對存量?客的運營維護成本更低,反?能帶來更?的轉化率。

此次項?需求?正是來?某電商公司的??運營部?,希望數據分析師基于對???為數據的挖掘,形成數據結論后,輸出?套能提?運營效率的策略建議賦能業務增?。

數據說明

數據來源

此案例中的???為數據集來源如下:

https://tianchi.aliyun.com/dataset/dataDetail?dataId=649

字段說明

此數據集中已有的字段及behavior_type值域如下:

分析思路

項目整體的分析思路是標準的數據分析流程:明確問題-分析原因-落地建議。

在做數據分析時,需要有結構、有主線地進?,這樣得出的結果才能找到依據。如上學時語??師在作?課上經

常強調的 “總-分-總”??結構,在數據分析?,同樣也是在遵循這樣的原則:

?【總】 - 先進?全局的分析,對總體現狀有認識;

? 這個階段對應數據分析流程中的【明確問題】:通過對整體數據的分析,透視業務現狀,并結合分析框架

明確業務問題;

?【分】 - 基于數據全貌的觀察,找到問題點進?針對性分析

? 這個階段對應數據分析流程中的【分析原因】:把復雜的業務問題通過多維度分析?法拆解成多個?問

題,并選擇合適的分析?法、分析模型逐?對問題進?分析

?【總】 - 最后匯總并總結各部分的分析,并以業務?標為中?提建議

? 這個階段對應數據分析流程中的【落地建議】:分析得到的數據結論,需要結合業務場景,轉成可落地執

?的策略建議,幫助賦能業務增?。

數據清洗什么是數據清洗?

數據清洗是指找出數據中的【異常值】并【處理】它們,使數據應?層?的結論更貼近真實業務。

異常值:

?不規范的數據,如空值、重復數據等

?不符合分析要求的數據,如此案例中,需要分析11?25?-12?3?之間的用戶行為,在此時間段之外的?為

都不應該被納?分析

處理異常值:

??般情況下,對于異常值,直接刪除即可,本案例中將采取此?式進?異常值處理

?對于特殊情況,要根據業務要求按需處理,暫不展開

異常值查找及處理

?查找是否存在重復數據

select

user_id, item_id, time_stamp

from userbehavior

group by

user_id , item_id, time_stamp

having count(*) > 1;

?刪除重復值

alter table userbehavior

add id int primary key auto_increment

delete

from userbehavior

where id in

(select id from

(select id, user_id, item_id, time_stamp, row_number() over(partition by user_id, item_i

d, time_stamp) '重復值'

from userbehavior) as temp

where 重復值 >1)

?查找是否存在空值

select * from userbehavior

where user_id is null

or category_id is null

or item_id is null

or behavior_type is null

or time_stamp is null ;

?查找是否存在超出分析時間的記錄

dates 字段:行為發?的?期,如'2017-11-25' 為2017年11?25?

hours 字段:行為發?的?時時間,如'21'為晚上9點

datetime 字段:行為發?的?期時間,如'2017-11-25 21:30:00' 為2017年11?25?晚上9點30分

weekday 字段:行為發?在星期幾,如'1' 為星期?

因為給定的數據中,時間相關的字段是時間戳類型,?時間戳是指格林威治時間1970年01?01?00時00分00秒

(北京時間1970年01?01?08時00分00秒)起?現在的總秒數,無法直接與日期進行比較,因此,需要對其進行

格式化轉換,才能繼續分析。

時間戳的處理

此處,為了?便后?更復雜的?期分析,這??函數 FROM_UNIXTIME(時間戳,時間格式) 將時間戳轉為不同格

式的時間,相關字段說明如下:

alter table userbehavior add dates varchar(255);

update userbehavior

set dates = from_unixtime(time_stamp,'%Y-%m-%d');

alter table userbehavior add hours varchar(255);

update userbehavior set hours = from_unixtime(time_stamp,'%H');

-- 特別注意,此處的時間格式中“?時”部分的字符需要??寫的H,才能轉為24?時制

alter table userbehavior add datetime varchar(255);

update userbehavior

set datetime = FROM_UNIXTIME(time_stamp,'%Y-%m-%d %H:%i:%s');

/*

- mysql中,可以通過函數 WEEKDAY() 將?期轉為“星期?”,但是索引是從0開始,

即0表?星期?、1表?星期?...

- 為了使該字段更符合閱讀習慣,可以將其進?加1操作,結果即為1對應星期?,

2對應星期?...

*/

alter table userbehavior add weekday varchar(255);

update userbehavior set weekday = weekday(datetime) 1;

轉換結果如圖所示:

剔除超出時間范圍的數據

有了?期字段后,就可以直接將超出指定時間范圍的數據剔除掉。

select *

from userbehavior

where dates<'2021-11-25' or dates>'2021-12-03' ;

delete from

userbehavior where dates<'2021-11-25' or dates>'2021-12-03'

?此,已完成數據清洗?作,剩余的數據便是可以直接?來分析得“純凈”數據。

第?部分:【總】?明確問題

?般來說,此部分要求我們對業務有個整體的認識,在本案例中,主旨是進行用戶分析,所以要知道總共有多少

會員、他們分布情況如何等。

會員總數

按如下語句,即可統計出現有業務中,共有983名會員在2017年11?25?-12?3?期間發?了動作。

SELECT COUNT(DISTINCT user_id) '會員數' FROM userbehavior

AIPL漏?分析

知道整體有多少會員后,接下來要進?步對他們的?為進?觀察,因為分析的是淘寶?為,在電商領域?較常?

的?法是阿?提出的AIPL營銷模型:

?A - Awareness 認知:瀏覽

?I - Interested 興趣:收藏、加購

?P - Purchase 購買:購買

?L - Loyalty 忠誠:復購

AIPL營銷模型可以很好地將會員?為與相應地運營周期關聯起來,例如 【AI】部分即為運營中的拉新,即處于AI

階段 即瀏覽、收藏、加購的??數越多,運營拉新指標就完成得越好,但此部分同樣意味著拉新成本的?出;?

【PL】則對應著運營的收割?為,通俗地講,即是將前期推?引進的新客變現,以此回收拉新成本,體現ROI。

這樣,我們就可以將會員的瀏覽、收藏、加購、購買消費劃?到AIPL的各個流程中,便于我們根據不同的流轉情

況,對運營現狀有整體的把握。

為了?便進?復雜分析,需要對表結構進?【?列互換】,此操作通過【創建視圖】來完成:

CREATE VIEW behavior AS

SELECT user_id, datetime, dates, hours,

max(CASE behavior_type when 'pv' then 1 else 0 end) 'view',

max(CASE behavior_type when 'fav' then 1 else 0 end) 'favor',

max(CASE behavior_type when 'cart' then 1 else 0 end) 'cart',

max(CASE behavior_type when 'buy' then 1 else 0 end) 'buy'

FROM

userbehavior

GROUP BY user_id, datetime;

------------------------------------

select * from behavior

AIP計算

因為AIPL中的“L”為會員復購?為,需要單獨計算。

所以這?僅對A、I、P 階段的?為進?統計,結果如圖:

select sum(pv) 'A',

sum(favor) sum(cart) 'I', sum(buy) 'P'

from behavior

L計算:

對于會員復購?為,計算思路是:

?通過【窗?函數】統計會員的每?次消費動作,即記錄第n次消費

?有了每個會員的第n次消費記錄字段后,即可將第?次消費 列為?次消費,?第?次開始的皆為【復購消費】

?最后統計【復購消費】?為,即為“L”即可

第N次消費計算:

如下語句,通過dense_rank() 窗?函數對對會員按每次消費時間進?排序,即可得到每個會員的第n次消費,將

字段命名為 n_consume;并?查詢語句新建視圖consume

create view consume as

select user_id, datetime, buy,

dense_rank() over(partition by user_id

order by datetime) as 'n_consume'

from behavior where buy=1

order by user_id, datetime;

-------------------------------------------------

select * from consume

統計L行為

從中提取復購的次數,即 n_consume ?于1的行為都算進L中,計算結果如圖:

select sum(buy) 'L'

from consume where n_consume >1

為了提?閱讀效率,根據前面計算出來的AIPL數據:

整體分析

整體分析的?的是為了找出??運營存在的問題或特點,進?提出分析?標,并以此作為接下來進?步分析的?

標。

在整體分析到提出?標的過程中,需要有【象限思維】,即按輕重緩急列出問題的重要性排序。這樣才能有序地

分析,業務才能在有限資源的條件下選擇分析結論進?落地實踐。

?般來說,需要應?對?分析來判斷??運營結果的好壞,如同?、環?等,因此案例中缺少了相關數據,故?

法使?對?分析,僅從業務經驗出發進?判斷。

回到此案例中,有了AIPL漏?圖后,我們便可直觀地發現??運營的情況:

1. 【拉新環節 A→I】 部分做得較差,可能拉新完成率較低,值得注意。將該問題列為優先級:重要緊急 P0

2. 【收割之客?復購 P→L】 部分做得很好好,可以據此總結業務經驗或復購規律,進?步推?應?。將該事項

列為優先級:重要不緊急 P1

3. 【收割之客??購 I→P 】部分效果還可以,可以進?步挖掘??購買轉化路徑。將該事項列為優先級:不重

要不緊急 P2

第?部分:【分】?分析原因分析思路

此部分,需根據“第?部分:【總】” 得出的分析?標,指定細分的分析策略:

1. 【P0: A→I 】部分是轉化率低的問題,在零售?業中,【?貨場】分析是最常?且有效的分析?法,故此案

例也將應?該?法進?分析;

2. 【P1: P→L】部分是??復購表現很好,所以可以通過【??復購分析】,挖掘、總結復購特征;

3. 【P2: I→P】部分?的在與進?步透析??購買?為,可以采?【AIPL RFM】模型進?分析。

【P0: A→I 】

此部分計劃通過【?貨場】分析,解決A認知??到I興趣???為轉化率低的問題。

【?貨場】分析

?

【?】的部分主要在于觀察用戶行為特點,以總結經驗。此案例中,因為數據維度有限,會員???為相關的數

據除了商品外就是時間,?商品計劃在【貨】部分進?分析,故此部分旨在分析??A到I?效轉化的時間特征。

各時段AI轉化分布

如以下語句,結合group by 語句,即可計算各時段AI轉化情況。

select A.hours, A瀏覽?為, I興趣?為,

concat(round((I興趣?為/A瀏覽?為),3)*100,'%') as 'A→I轉化率'

from

(select hours, count(*) 'A瀏覽?為'

from behavior

where pv=1 group by hours) A

left join

(select hours, count(*) 'I興趣?為'

from behavior

where favor=1 or cart=1 group by hours) I

on A.hours = I.hours

order by A.hours

?

?

計算結果中,有很多不同的值。根據對?思維,我們需要【?較基準】,才知道這些轉化率哪些?,哪些低,才

可進?步判斷。

這?,以常?的“平均值”作為對?的基準,計算語句如下:

select Avg(A瀏覽?為) 'A瀏覽?為 平均值',

Avg(I興趣?為) 'I興趣?為 平均值',

concat(round(AVG(I興趣?為)/AVG(A瀏覽?為),3)*100,'%') as 'A→I轉化率 平均值'

from

(select hours, count(*) 'A瀏覽?為'

from behavior

where pv=1 group by hours) A

left join

(select hours, count(*) 'I興趣?為'

from behavior

where favor=1 or cart=1 group by hours) I

on A.hours = I.hours

order by A.hours;

得到結果如圖所示:

?

因每個時段的瀏覽?數不同,為確保分析的結果有效,故需選擇 瀏覽值?于平均值3735的時段來觀察:在這些

時段中, 我們認為轉化率?于 平均值9.1%的時段,既是瀏覽?數多,?是轉化率?的時段,即11點、15-17

點、19點、22-23點。其中,23點為轉化率?于10%,為最?值,可作為最佳投放時間。

?

此部分需要對【?貨匹配】情況進?分析,進?可針對性地將貨品根據會員?為進?調整。

總商品數統計

在分析之前,需要先對AI階段涉及的總商品情況進?觀察:

SELECT count(DISTINCT item_id) 'A' FROM userbehavior

WHERE behavior_type ='pv'

接下來,計算用戶感興趣的商品:

SELECT count(DISTINCT item_id) 'I' FROM userbehavior

WHERE behavior_type IN ('favor','cart')

接下來,結合【假設驗證思維】,基于有效瀏覽機產?興趣的商品數差異較?的情況,提出假設:??偏好的商

品主要集中在少數商品,??部分?尾商品則是被錯誤地推薦到??。

驗證思路:

1. 將被瀏覽最多的前100款商品 以及 ??最感興趣(即加購、收藏)的前100款商品 進?交叉查詢

2. 如果交叉出的商品數較少,則假設成?

3. 反之,則假設不成?

按如下語句可提取被瀏覽最多的前100款商品,類似地,亦可提取??最感興趣的前100款商品

-- 被瀏覽最多的前100款商品

select item_id, count(*) 'A'

from userbehavior

where behavior_type = 'pv'

group by item_id

order by A desc

limit 100;

-- ??最感興趣的前100款商品

select item_id, count(*) 'I'

from userbehavior

where behavior_type IN ('favor','cart')

group by item_id

order by I desc

limit 100

按驗證思路?說的,分別A, I 熱?的前100款單品交叉,查看交叉數量:

select count(*) 'A & I 交叉商品數'

from

(select item_id, count(*) 'A'

from userbehavior

where behavior_type = 'pv'

group by item_id

order by A desc

limit 100) A

inner join

(select item_id, count(*) 'I'

from userbehavior

where behavior_type IN ('favor','cart')

group by item_id

order by I desc

limit 100 ) I

on A.item_id = I.item_id

?

結果顯?,僅有5款商品既是?瀏覽量,也是?收藏/加購的,故假設成?:??偏好的商品主要集中在少數商

品,??部分?尾商品則是被錯誤地推薦到??。進?可得出【?貨匹配】效率低的結論。

【場】?義來說指的是與??的觸點,例如在線下零售業,則是?店; 在線上電商,則是在線店鋪、平臺、投放

渠道等。

從這個?度,分析此段時間淘寶平臺的活動情況:

1. 結合業務經驗,數據時間段在雙??之后,雙??之前,即是兩個?促的中間節點

2. 查詢2017年雙??的相關信息如下:

?活動:天貓雙12年終品牌盛典

?預熱時間:2017年12?7?00:00:00-2017年12?11?23:59:59;

?上線時間:2017年12?12?00:00:00-2017年12?12?23:59:59。

3. 由活動時間可知,分析時間段處于雙??預熱時間前?的低潮期,客觀上營銷效果整體?較平淡,進?影響AI

轉化率。

分析小結

??:為提?轉化率,可選擇在 瀏覽值?于3735 且 轉化率?于 9.1%的時間段加?投放?度;其中,23點為轉

化率?于10%,為最佳投放時間

?貨:?貨匹配效率低,平臺?部分商品為?尾商品,但它們并不能很好地吸引??興趣,需要進?步優化商

品信息以提升轉化率。

?場:從平臺活動周期?度來說,分析時間段正處于?促活動預熱前的低潮期,此客觀因素也在?定程度上導

致轉化率低。

【P1: P→L】

根據此前制定的分析思路,PL部分計劃進?【??復購分析】以挖掘復購特征。

復購周期分析

結合具體業務,復購分析的?的是為了優化??觸達策略,即何時何地向哪些已購??推送什么商品可提升復購

率。此案例中,受數據限制及考慮受眾,暫不對商品推薦進?建模分析。將通過分析??【復購周期】以解決業

務中觸達時間的問題。

現該部分問題轉化為分析??復購周期問題,對于此,從業務?度主要包括何時觸達、觸達多久兩部分。

(?) 何時觸達

可通過計算??平均回購周期,即可在??發?購買?為后,在平均回購周期內對其進?營銷觸達。

為了計算?便,這?我們新建?個記錄??第N次購買的視圖取名為consume_dates

注意,這?與開頭計算AIPL的視圖consume的區別,在于這?的窗?函數,是基于dates這個字段,也就是按?

期去對??購買?為進?排序

create view consume_dates as

select distinct user_id, dates,

dense_rank() over (partition by user_id

order by dates ) as n_consume

from behavior where buy = 1;

-----------------------------------

select * from consume_dates

計算步驟:

1. 通過以下語句先計算出每個??每次消費的回購周期

select a.user_id, a.dates, a.n_consume,

datediff(a.dates, b.dates) '回購周期(天)'

from consume_dates as a,

consume_dates as b

where a.user_id = b.user_id

and b.n_consume = a.n_consume-1

結果說明:

如圖,user_id 為100的?? n_consume=2,回購周期=2天 即為期第?次消費時,與第?次消費間隔了2天,也

就是說該??在2天前進?了第?次消費。

2. 基于以上語句,可以將每?次的回購周期進?平均,取得最終的 平均回購周期 :

select avg(datediff(a.dates, b.dates)) '平均回購周期(天)'

from consume_dates as a,

consume_dates as b

where a.user_id = b.user_id

and b.n_consume = a.n_consume-1

結論:即在??購買?為后的2-3天內對其進?觸達。

(?) 觸達多久

可通過計算不同時段下購買的客?最?購買周期,供業務觸達時參考。1. 統計每個客?“?次消費?期”、“最后消費?期”后,相減即可算得每個客?的消費周期,命名為“最?消 費間隔”。

select a.user_id,

a.dates '?次消費?期',

最后消費?期,

datediff(最后消費?期,a.dates) '最?消費間隔'

from

(select user_id, dates from consume_dates where n_consume=1) a

join

(select user_id, MAX(dates) '最后消費?期' from consume_dates where n_consume >1

group by user_id) b

on a.user_id = b.user_id

結果如下:

2. 基于1.中語句,按?期進?分組統計,計算得每天消費的客?平均最?消費間隔。

SELECT `?次消費?期`,

WEEKDAY(`?次消費?期`) 1 '星期?',

AVG(`最?消費間隔`) '平均最?消費間隔'

FROM (

SELECT

a.user_id,

a.dates '?次消費?期',

`最后消費?期`,

DATEDIFF(`最后消費?期`,a.dates) '最?消費間隔'

FROM

(SELECT user_id, dates FROM consume WHERE n_consume=1) a

LEFT JOIN

(SELECT user_id, MAX(dates) '最后消費?期'

FROM consume GROUP BY user_id) b

ON a.user_id = b.user_id

-- 僅針對復購?群

WHERE a.user_id IN

(SELECT DISTINCT user_id FROM consume WHERE n_consume>1)

) t

GROUP BY `?次消費?期`

ORDER BY `?次消費?期`

結果如圖,在11-25 ?購的客?,最?消費間隔最?為5.9天。

【P2: I→P】

有此前漏?分析可知,平臺??復購率?達63%,也就是說??只要突破0到1的消費,接下來就有63%的機會復

購,所以此部分重點應放在如何提升AI→P。

1. 用戶首購特征

為了提?AI客?的購買轉化率,可以通過?購買率客?與低購買率客?對?,挖掘?購買率客?特征,進?指導

業務運營策略。

先創建視圖,以統計每個客?的購買率及其他數據。語句如下:

create view user_feature as

select user_id, sum(pv) '瀏覽', sum(favor) sum(cart) '收藏加購',

sum(buy) '購買', (sum(cart) sum(favor))/sum(pv) '加購率',

sum(buy)/(sum(pv) sum(cart) sum(favor)) '購買率',

dense_rank() over(order by sum(buy)/(sum(pv)

sum(cart) sum(favor)) desc) '購買率排序'

from behavior group by user_id;

------------------------------

select * from user_feature

order by 購買率 desc

購買率? vs 購買率低

計算好每個客?的購買率后,需要進?步定義,何為?購買率、何為低購買率?

結合【??原則】,認為前20%為?購買率客?,后20%為低購買率客?。

由此前統計可知,分析數據共有386個客?,即20%分位為:

?389*0.2 =77,即前77位客?為?購買率客?;

?389-77 = 312,即312-389位的客?為低購買率客?。

?購買率客? 購買率特征:

select

avg(瀏覽) '平均瀏覽數', avg(收藏加購) '平均興趣數',

avg(加購率) '平均加購率'

from user_feature where 購買率排序<=77

?購買率客?品類集中度:

select count(distinct category_id) '購買品類集中度'

from userbehavior where behavior_type ='buy'

and user_id in ( select distinct user_id from user_feature where 購買率排序<=77)

低購買率客? 特征:

注意需剔除?購買?群影響

select

avg(瀏覽) '平均瀏覽數', avg(收藏加購) '平均興趣數',

avg(加購率) '平均加購率'

from user_feature where 購買率排序>=312 and 購買率>0

低購買率客?品類集中度:

select count(distinct category_id) '購買品類集中度'

from userbehavior where behavior_type ='buy'

and user_id in ( select distinct user_id from user_feature where 購買率排序>=312 and 購買率>0

)

總結:

1. ?購買率客?瀏覽商品數36遠?于低購買率客?瀏覽商品數258

2. ?購買率客?平均加購率11% ?于 低購買率客?平均加購率7%

3. ?購買率客?購買品類集中度399 遠?于低購買率客?購買品類集中度96綜上所述可得?群畫像:?購買率?群瀏覽商品數少,但加購率?,?概率為決策型顧客,看對了商品就下?購

買;?低購買率?群更多是糾結型顧客,需要反復瀏覽商品來確認最終想要的。

此外,低購買率?群品類集中度?,可列出這些品類,有?的性地優化品類信息,減少??瀏覽跳失率。

2. AIPL RFM分析

為促進??購買,需進?精細化??運營,即可通過RFM模型實現。

由于數據限制,并???購買?額數據,故此處可與AIPL模型結合,重新定義R、F、M:

?R:客?最近?次購買離分析?期的距離,?以判斷購買??活躍狀態

?F:客?收藏、加購?為次數

?M:客?購買?為次數

因此,RFM分群結果及?群特征如下:

1. 重要價值??(R?F?M?):??處于購買活躍期,感興趣的商品多,購買次數也多

2. ?般價值??(R?F?M低):??處于購買活躍期,感興趣的商品多,購買次數少

3. 重要發展??(R?F低M?):??處于購買活躍期,感興趣的商品少,購買次數多

4. ?般發展??(R?F低M低):??處于購買活躍期,感興趣的商品少,購買次數少

5. 重要喚回??(R低F?M?):??已不活躍,感興趣的商品多,購買次數也多

6. ?般喚回??(R低F?M低):??已不活躍,感興趣的商品多,購買次數少

7. 重要挽留??(R低F低M?):??已不活躍,感興趣的商品少,購買次數多

8. ?般挽留??(R低F低M低):??已不活躍,感興趣的商品少,購買次數少

(1)按以上定義,計算出每個客?的R、F、M值:

?計算R值:

select user_id, dates '最后消費?期', datediff('2021-12-03', dates) 'R'

from consume_dates a

where n_consume = ( select MAX(n_consume) from

consume_dates b where a.user_id = b.user_id )

?計算F、M值

select user_id,

sum(favor) sum(cart) 'F', sum(buy) 'M'

from behavior group by user_id

?將前兩個表合并,寫成?個語句,并新建視圖

create view RFM as

select r.user_id, R, F, M

from

(select user_id, dates '最后消費?期', datediff('2021-12-03', dates) 'R'

from consume_dates a

where n_consume = ( select MAX(n_consume) from

consume_dates b where a.user_id = b.user_id )) r

left join

(select user_id,

sum(favor) sum(cart) 'F', sum(buy) 'M'

from behavior group by user_id ) fm

on r.user_id = fm.user_id;

----------------------

select * from RFM

(2)為了劃分R、F、M值的? 與低,這?采?常?的平均值法作為閾值,有條件的同學可以通過聚類算法計算

更準確的閾值。語句如下:

select avg(R), avg(F), avg(M) from RFM

(3)根據以上RFM閾值,及RFM定義,將每個客?劃分到不同的??價值族群中。

create view user_rfm as

select user_id, case when R < 2.4501 and F>9.3115 and M>2.8018 then '重要價值??'

when R < 2.4501 and F>9.3115 and M<2.8018 then '?般價值??'

when R < 2.4501 and F<9.3115 and M>2.8018 then '重要發展??'

when R < 2.4501 and F<9.3115 and M<2.8018 then '?般發展??'

when R > 2.4501 and F>9.3115 and M>2.8018 then '重要喚回??'

when R > 2.4501 and F>9.3115 and M<2.8018 then '?般喚回??'

when R > 2.4501 and F<9.3115 and M>2.8018 then '重要挽留??'

when R > 2.4501 and F<9.3115 and M<2.8018 then '?般挽留??'

end as '??價值族群' from RFM;

-------------------

select * from user_rfm

結果如圖:

(4)統計各個族群的??數及??占?,?于對??運營現狀進?分析,并給出運營策略?向。

select ??價值族群, count(user_id) '??數',

concat(round(count(user_id)/983*100,3),'%') '??數占?'

from user_rfm

group by ??價值族群 order by ??價值族群

如圖為RFM模型分群結果,對?分析需要對照組進??照分析,因數據限制,此處結合業務經驗進?判斷:

如圖為RFM模型分群結果,對?分析需要對照組進??照分析,因數據限制,此處結合業務經驗進?判斷:

1. “重要”型??累計占?26.8%(3.1% 3.5% 7.4% 12.8%),符合??規律

2. 從【??RFM轉化路徑】?度來看:重要價值??占?較少,?主要由?般價值??、重要發展??、重要

喚回??轉化?來

??般價值、重要喚回??基數較多,可優先對兩個?群進?“升級”

?其次,重要發展??數量少,需要從基數較多的?般發展??轉化,之后再考慮將重要發展轉為重要價值

第三部分:【總】?落地建議

?先,通過AIPL營銷模型,對??現狀有整體的認識,并分析、總結出三個分析?標?,F對分析結論結合業務場

景總結經驗及提出建議:

【P0: A→I】【?貨場】業務建議

?從“認知”到“興趣”階段的轉化率過低

通過【?貨場】分析,可得以下業務建議:

?推?部?:優化投放策略,在A→I轉化率?的時間點,尤其是23點加?投放?度,提升AI轉化率,進?提升

整體轉化

?產品部?:針對【?貨匹配】效率低的問題,及時處理低轉化率商品,總結?轉化產品特性,開發新品

?運營部?:針對【?貨匹配】效率低的問題,參考?轉化商品描述,優化產品標題、內容描述; 針對?促前低

潮期,提出吸引性促銷政策,提?此階段銷售

【P1: P→L】【復購分析】業務建議

?從“購買”到“忠誠”階段的轉化率?。

通過【??復購分析】后,可得以下建議:

??部?:針對??復購周期特性,客?消費后2-3天內結合回饋?段及時進?觸達; 此外,對于周六?購客?,

最?消費周期達6天,在此周期內可對消費客?連續優惠觸達

【P2: I→P】【購買特征 RFM】業務建議

?表現較好。

通過以下分析,可得建議如下

(1) 分析【?購買率??特征】:

???部?:

? 針對?購買率客?,即決策型客?,可能更多為【?尾商品領域】,可配合精準商品推薦模型,觸達優質

?尾商品,提升購買率;

? 針對低購買率客?,即糾結型,可能更多為【熱?商品領域】,觸達熱?商品,提?購買率

(2) ?【AIPL RFM】模型:

對于??部?,根據此前結合??RFM轉化路徑分析結論制定提升策略:

?優先級P0:

? 重要價值??(R?F?M?)維護:??處于購買活躍期,感興趣的商品多,購買次數也多 → 針對興趣

產品,保持?定頻率的觸達,持續維護

? ?般價值??(R?F?M低):??處于購買活躍期,感興趣的商品多,購買次數少 → 針對該部分客

?,?的就是要讓他們購買,所以可以和運營部?溝通,降低利潤,給出有?折扣促進購買,進?轉為重

要價值??。

?優先級P1:

? ?般發展??(R?F低M低):??處于購買活躍期,感興趣的商品少,購買次數少 → 可通過商品組合

推薦,即通過連帶提升該?群購買頻次,進?轉為重要發展??

? 重要發展??(R?F低M?):??處于購買活躍期,感興趣的商品少,購買次數多 → 通過關聯算法,

找出與興趣商品關聯?的商品進?推薦觸達,提???收藏、加購數,進?轉為重要價值??

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如有侵權行為,請第一時間聯系我們修改或刪除,多謝。

CopyRight ? 外貿領航 2023 All Rights Reserved.