svip与vip客户综合管理制度1doc.docx

上传人:b****5 文档编号:7852575 上传时间:2023-01-26 格式:DOCX 页数:9 大小:22.96KB
下载 相关 举报
svip与vip客户综合管理制度1doc.docx_第1页
第1页 / 共9页
svip与vip客户综合管理制度1doc.docx_第2页
第2页 / 共9页
svip与vip客户综合管理制度1doc.docx_第3页
第3页 / 共9页
svip与vip客户综合管理制度1doc.docx_第4页
第4页 / 共9页
svip与vip客户综合管理制度1doc.docx_第5页
第5页 / 共9页
点击查看更多>>
下载资源
资源描述

svip与vip客户综合管理制度1doc.docx

《svip与vip客户综合管理制度1doc.docx》由会员分享,可在线阅读,更多相关《svip与vip客户综合管理制度1doc.docx(9页珍藏版)》请在冰豆网上搜索。

svip与vip客户综合管理制度1doc.docx

svip与vip客户综合管理制度1doc

svip与vip客户综合管理制度1

Svip与vip顾客综合管理制度

一、本制度的设计目的

本制度的设计目的在于对会所内的svip及vip客人的资格申请;资格审批;svip及vip客户名单信息在各相关服务岗位的传播;svip与vip客户专属物品的更换、支领、物品存放、物品补充、使用要求;房间预约安排;客户资格注销更迭等诸项工作进行有效的管控,最终保证在我们的工作管控下准确、符合实际服务与销售需要、严谨的审定svip与vip客户资格,在动态的确定客户资格后迅速的将信息传递给每一个涉及对其提供服务的岗位,保障svip与vip客户能够在房间的安排上不撞车、按级别安排,在物品的支领、更换、补充上及时;最终为svip与vip客户综合创造一个良好的护理感受!

二、制度细则

(一、)svip与vip客户的资格申请与审批要求;

1、svip与vip客户的资格确定施行“申请制”,申请人是美容师,参照的申请判断标准如下:

(1)申请客户的消费实力描述;

(2)申请客户的消费潜力描述;

(3)申请客户的资格需求描述;

2、美容师在针对上述的各项描述性参考指标对客人进行判断后,需要将相关信息记录在《会员资格申请表》中,并要求对表格内所涉及的内容逐项填写不得遗漏;填表后呈交本组顾问进行初级审批,如果初级审批未通过则不予评定资格,初级审批通过,顾问需要将自己意见同样逐项记录于该表格并上交店总批复;店总批复同意后客户的会员资格生效成立;此表格由店总交由行政主管保管于《会所会员资格评定档案》;

针对人:

美容师

处罚额度:

申请不予批准;

针对行为:

美容师未按规定填写申请表或填写有所疏漏的行为;

针对人:

顾问

处罚额度:

申请不予批准;

针对行为:

顾问未按规定填写申请表或填写有所疏漏的行为;

针对人:

店总、行政主管

处罚额度:

10元每次;

针对行为:

店总未将该表格转给行政主管,行政主管未将此表格存档或丢失的行为;

3、顾客的会员资格审批后,行政主管将该会员的信息填入《前台会员资格记录表(电子版)》、《库管会员资格记录表》、《顾问会员资格记录表》,同时将此决定通知前台、库管、顾问、美容师;此项工作必须在资格审定后1个工作日内完成;以上3张表格分别由对应岗位独自保管;在未得到行政主管的回复前,美容师不得将涉及为客人申请会员资格的行为告

知顾客;

针对人:

美容师

处罚额度:

100元每次

针对行为:

未得到行政主管明确答复前将为客人申请会员资格的行为告知顾客;

针对人:

行政主管

处罚额度:

30元每次

针对行为:

未在规定时间内将会员资格信息填入对应表格并告知对应岗位的行为;

针对人:

前台、库管、顾问

处罚额度:

10元每次

针对行为:

丢失或未妥善保管所负责表格的行为;

4、一旦会员审批工作完毕,由店总适乎实际顾客情况决定由谁将此信息告知顾客;

针对人:

美容师、顾问

处罚额度:

20元每次

针对行为:

未经店总许可将会员资格信息透露给顾客的行为;

5、每月最后一天店总需要结合顾问、美容师的意见对于需要取消会员资格的顾客进行评估,并决定是否取消该顾客的对应会员资格,如决定取消资格将由顾问负责将此信息告知顾客,并由店总负责通知前台、库管、行政主管、美容师;并由前台、库管、顾问在对应的客户会员资格记录表上进行标注;

针对人:

店总

处罚额度:

10元每次

针对行为:

未将取消该会员会员资格的信息告知前台、库管、行政主管、美容师;

针对人:

顾问

处罚额度:

10元每次

针对行为:

未将取消会员资格信息的情况向顾客反映;

针对人:

前台、顾问、库管

针对行为:

10元每次

针对行为:

未将注销信息记录于对应表格中;

(二、)svip与vip客户的物品支领、存放、更换、补充、使用要求;

1、svip顾客的专属布草包括:

两条毛巾、一条浴巾、一个浴袍、一双拖鞋、一条发带;

Vip顾客的专属布草包括:

一条毛巾、一条浴巾、一个浴袍、一双拖鞋、一条发带;

Svip与vip顾客在对应的房间准备的洗护用品始终是5个品牌的(洗发水、沐浴露、护

发素)和配备的一次性纸内裤、浴帽、洗澡拖鞋;

2、每当一个顾客经过店总审批同意其申请的会员资格后,行政主管在负责将相关信息填入《库管会员资格记录表》时,安排库管在当个工作日内按标准为该顾客准备专属布草物品并将全名用金线秀在顾客的专属布草上(全部秀在右下角);同时将专属布草装袋保存于专属库房中;并将该顾客的全名书写在袋子上,同时将该顾客的全名与库房保存序号(张三01号)写在口曲纸上贴于格子的中央位置(上部);

针对人:

行政主管

处罚额度:

10元每次

针对行为:

未按规定将信息传达给库管;

针对人:

库管

处罚额度:

10元每次

针对行为:

未在规定时间、按照规定标准,准备好配套专属布草;未按规定进行保存;

3、保洁保证每天对svip与vip房间的洗护用品进行检查,5个品牌的洗发水、护发素、沐浴露合计15瓶,不得出现任何一瓶消耗尽的现象;一次性纸内裤、浴帽始终保持每个房间5个,洗澡拖鞋始终保持一双;在保洁的每日检查中如发现以上洗护用品没有达到标准,消耗完的洗护用品凭空瓶向库管支领兑换对应的洗护用品,其余消耗品直接支领配齐到规定标准;

针对人:

保洁

处罚额度:

10元每次

针对行为:

由于保洁检查不到位、补充不及时,造成的洗护用品未按标准准备的行为;

4、要求在每次顾客预约后,由前台将顾客信息传达给库管,由库管准备对应专属物品(毛巾、浴巾、浴袍、发带按标准装在一个托盘内,拖鞋单独装在一个托盘内,放于库房),美容师在接顾客时到库房将乘有拖鞋的托盘拿到一楼换鞋间放在消毒柜上,将盛放顾客专属布草的托盘直接拿到操作房间,放在暖气罩上,到门口站位,待顾客来时,帮助顾客换鞋,在引领顾客进入房间后帮助顾客更衣后,待客人冲临时将两个托盘归还库房;此时浴巾、浴袍被客人拿入冲淋间,毛巾、发带叠好放于房间内,拖鞋穿至冲淋间;

针对人:

库管

处罚额度:

10元每次

针对行为:

未按规定要求为美容师准备好物品;

针对人:

美容师

处罚额度:

10元每次

针对行为:

未按规定操作并归还的行为;

5、顾客专属布草的摆放要求参照相片执行;

6、当svip、vip客人的专属布草由清洗保洁洗涤晾干后,按照所绣的名字将每套整理好,

直接送到库房,由库管将其重新整理归回专属库房原位;每次美容师送走顾客后,要将该顾客的专属拖鞋归还库房;

针对人:

清洗保洁、库管

处罚额度:

5元每次

针对行为:

未按规定整理并归位的行为;

针对人:

美容师

处罚额度:

5元每次

针对行为:

未归还拖鞋的行为;

7、当顾客被取消会员对应资格后,由行政主管负责通知库管将此客人专属物品取下专属架,将名字去掉送至清洗保洁处,全部作为普通顾客的布草使用;

针对人:

行政主管、库管

处罚额度:

5元每次

针对行为:

行政主管未通知到位,库管未按要求执行的行为;

(三、)svip与vip客户的预约与房间安排要求;

1、要求前台在为普通顾客进行预约安排房间时不得以任何理由将普通顾客安排至svip或vip房间;

针对人:

前台

处罚额度:

30元每次

针对行为:

前台在为普通顾客进行预约安排房间时将普通顾客安排至svip或vip房间;

2、要求前台在为vip顾客进行预约安排房间时不得以任何理由将vip顾客安排至svip或普护房间;

针对人:

前台

处罚额度:

30元每次

针对行为:

前台在为vip顾客进行预约安排房间时将vip顾客安排至svip或普护房间;

3、要求前台在为svip顾客进行预约安排房间时不得以任何理由将vip顾客安排至vip或普护房间;

针对人:

前台

处罚额度:

30元每次

针对行为:

前台在为vip顾客进行预约安排房间时将vip顾客安排至vip或普护房间;

4、在针对svip及vip顾客预约房间时,出现对应级别房间极度紧张不能保证正常的按级别分配房间时,前台应请顾问与顾客协调讲明原因,如果顾客迫切有护理需求并同意本次在低一级别的房间也可以做护理,可有顾问为其安排房间操作;

针对人:

前台、顾问

处罚额度:

10元每次

针对行为:

在未征得顾客同意后私自为顾客安排非对应级别的房间的行为;

5、每次客户预约时,前台需要从来电显示屏幕中,将预约顾客的电话号码输入前台电脑桌面的电子版(excel版)《前台会员资格记录表》中的检索项,用电话号码检索的形式来查找确定该顾客的会员资格,以便安排预约;如果顾客电话有所更换就采用向顾客问全名的方式检索预约;如发生重名现象就采用生日输入法检索预约;

针对人:

前台

处罚额度:

20元每次

针对行为:

未按以上规定执行的行为;

6、每次前台约定后(针对svip及vip顾客)需要用对讲机呼叫告知库管约定顾客的会员资格审批日期、姓名、电话、预约时间各项信息,库管根据以上信息在表格中搜索核对该顾客的情况并按要求准备相关专属物品;

针对人:

库管

处罚额度:

10元每次

针对行为:

未按以上规定操作的行为;

三、表单工具

SVM调研报告范文_调研报告

  摘要:

随着统计学习理论的出现,将经验风险最小和泛化性相结合的SVM(支持向量机)成为当今新的研究热点。

在参考大量文献的基础上,本文对SVM的本质做了,同时给出了常用的SVM软件,SVMlight,LIBSVM,为了深入了解SVM软件实现机制,对相关的分解算法和优化算法SMO也做了详细的介绍。

通过改进SVMlight和LIBSVM的瓶颈同时二者精华基础上,本文给出了高效的HeroSVM,并对其实现机制给出了详细的介绍。

最后本文对SVMlight和LIBSVM在相同数据集上做了对比,并给出了性能分析。

  第一章引言

  1.1理论背景

  基于数据的机器学习是现代智能技术中的重要方面,从观测数据(样本)出发寻找规律,利用这些规律对未来数据或无法观测的数据进行预测。

传统的经典的(参数)统计估计方法,要求已知参数的相关形式,利用训练样本用来估计参数的值,包括模式识别、神经网络等在内,但是这种方法有很大的局限性,因为需要已知样本分布形式,而这需要花费很大代价,还有,隐含的思想是样本数目趋于无穷大时的渐近理论,但在实际问题中,样本数往往是有限的,因此这些理论上很优秀的学习方法实际中表现却可能不尽人意。

还有就是经验非线性方法,如人工神经网络(ANN),这种方法利用已知样本建立非线性模型,克服了传统参数估计方法的困难,但是缺乏一种统一的数学理论,在这种基础上现代的统计学习理论就诞生了。

  统计学习理论[1](StatisticalLearningTheory或SLT)是一种专门研究小样本情况下机器学习规律的理论.统计学习理论的一个核心概念就是VC维(VCDimension)概念,它是描述函数集或学习机器的复杂性或者说是学习能力(Capacityofthemachine)的一个重要指标,在此概念基础上发展出了一系列关于统计学习的一致性(Consistency)、收敛速度、推广性能(GeneralizationPerformance)等的重要结论。

统计学习理论是建立在一套较坚实的理论基础之上的,为解决有限样本学习问题提供了一个统一的框架。

它能将很多现有方法纳入其中,有望帮助解决许多原来难以解决的问题(比如神经网络结构选择问题、局部极小点问题等。

  1.2SVM介绍

  V.Vapnik提出的支持向量机理论[2]是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力(GeneralizatinAbility)。

支持向量机方法的几个主要优点有:

  1.它是专门针对有限样本情况的,其目标是得到现有信息下的最优解而不仅仅是样本数趋于无穷大时的最优值;

  2.算法最终将转化成为一个二次型寻优问题,从理论上说,得到的将是全局最优点,解决了在神经网络方法中无法避免的局部极值问题;

  3.算法将实际问题通过非线性变换转换到高维的特征空间(FeatureSpace),在高维空间中构造线性判别函数来实现原空间中的非线性判别函数,特殊性质能保证机器有较好的推广能力,同时它巧妙地解决了维数问题,其算法复杂度与样本维数无关;已经有许多事实证明,作为支持向量机最基本思想之一的结构化风险最小化原则[2](StructuralRiskMinimization,SRM)要优于传统的经验风险最小化原则(EmpiricalRiskMinimization,ERM)。

不同于ERM试图最小化训练集上的误差的做法,SRM试图最小化VC维的上界,从而使其学习机获得了更好的推广性能,这恰恰是统计学习理论最重要的目标之一。

支持向量机的主要应用领域有模式识别、函数逼近和概率密度估计等等。

  *****因为涉及到太多的图表和公式无法显示,省略一部分。

********

  1.2SVM算法研究现状

  由于SVM方法较好的理论基础和它在一些领域的应用中表现出来的优秀的推广性能,近年来,许多关于SVM方法的研究,包括算法本身的改进和算法的实际应用,都陆续被研究出来,比较出名的有SVMlight[4],SMO[5],LIBSVM[8],HeroSVM[11]等。

  尽管SVM算法的性能在许多实际问题的应用中得到了验证,但是该算法在计算上存在着一些问题,包括训练算法速度慢、算法复杂而难以实现以及检测阶段运算量大等等。

传统的利用标准二次型优化技术解决对偶问题的方法可能是训练算法慢的主要原因:

首先,SVM方法需要计算和存储核函数矩阵,当样本点数目较大时,需要很大的内存,例如,当样本点数目超过4000时,存储核函数矩阵需要多达128兆内存;其次,SVM在二次型优化过程中要进行大量的矩阵运算,多数情况下,优化算法是占用算法时间的主要部分。

SVM方法的训练运算速度是限制它的应用的主要方面,近年来人们针对方法本身的特点提出了许多算法来解决对偶优化问题。

大多数算法的一个共同的思想就是循环迭代:

将原问题分解成为若干子问题,按照某种迭代策略,通过反复求解子问题,最终使结果收敛到原问题的最优解。

  1.3分解理论

  在真实世界中分解是解决复杂问题的常用策略,一个复杂问题分解为很多的子问题,而这些子问题可以很方便的应用一些常用的技术,而且这些子问题联合起来又可以解决原始问题,这就是分解理论的意义所在。

分解应用到SVM中就是在每次迭代过程中,都将优化问题中的拉格朗日乘子分为迭代过程需要改变的自由变量集合B和暂时不变的固定变量N两部分,当优化条件被破坏时,从B集合中选择变量进行更改,其余的变量保持不变,从而将二次规划问题进行分解。

  根据子问题的划分和迭代策略的不同,又可以大致分为两类。

第一类是所谓的“块算法[3]”(chunkingalgorithm)。

“块算法”基于的是这样一个事实,即去掉Lagrange乘子等于零的训练样本不会影响原问题的解。

对于给定的训练样本集,如果其中的支持向量是已知的,优化算法就可以排除非支持向量,只需对支持向量计算权值(即Lagrange乘子)即可。

实际上支持向量是未知的,因此“块算法”的目标就是通过某种迭代方式逐步排除非支持向量。

具体的作法是,选择一部分样本构成样本集进行训练,剔除其中的非支持向量,并用训练结果对剩余样本进行检验,将不符合训练结果(一般是指违反KKT条件)的样本(或其中的一部分)与本次结果的支持向量合并成为一个新的样本集,然后重新训练。

如此重复下去直到获得最优结果。

当支持向量的数目远远小于训练样本数目时,“块算法”显然能够大大提高运算速度。

  然而,如果支持向量的数目本身就比较多,随着算法迭代次数的增多,样本集也会越来越大,算法依旧会变得十分复杂。

因此第二类方法把问题分解成为固定样本数[5]的子问题:

样本集的大小固定在算法速度可以容忍的限度内,迭代过程中只是将剩余样本中部分“情况最糟的样本”与样本集中的样本进行等量交换,即使支持向量的个数超过样本集的大小,也不改变样本集的规模,而只对支持向量中的一部分进行优化。

  固定样本集的方法和块算法的主要区别在于:

块算法的目标函数中仅包含当前样本集中的样本,而固定样本集方法虽然优化变量仅包含样本,但目标函数却包含整个训练样本集,即样本集之外的样本的Lagrange乘子固定为前一次迭代的结果,而不是像块算法中那样设为0。

而且固定样本集方法还涉及到一个确定换出样本的问题(因为换出的样本可能是支持向量)。

这样,这一类算法的关键就在于找到一种合适的迭代策略使得算法最终能收敛并且较快地收敛到最优结果,通过这里也可以看出固定集方法的时间要比块算法慢的多。

  固定样本集的方法最早大概是由Osunaetal[6].提出的。

在[7]中,EdgarOsunal等人介绍了一种具体的算法并对人脸识别问题进行了实验。

将样本集分为两个集合B和N,集合B作为子问题样本集进行SVM训练,集合N中所有样本的Lagrange乘子均置为零。

显然,如果把集合B中对应Lagrange乘子为零的样本i(即ai=0,iB)与集合N中的样本j(即ai=0,jN)交换,不会改变子问题与原问题的可行性(即仍旧满足约束条件);而且,当且仅当样本满足条件KKT条件时,替换后的子问题的最优解不变。

于是可以按照以下步骤迭代求解:

  1.选择集合B,构造子问题;

  2.求子问题最优解ai,iB及b,并置aj=0,jN;

  3.找出其中不满足条件KKT的样本j,与B中满足ai=0的样本i交换,构成新的子问题。

[7]证明了这种迭代算法的收敛性,并给出了两阶多项式分类器在人脸识别问题中的应用结果。

需要说明的是,文中没有说明集合B的大小是否改变。

前面提到,固定样本集方法的关键在于选择一种合适的换入换出策略。

Joachims指出如果采用某种启发式的迭代策略将会提高算法的收敛速度。

最近JohnC.Platt在[5]中提出SMO(SequentialMinimalOptimization或SMO)算法。

将样本集的规模减到最小——两个样本。

之所以需要两个样本是因为等式线性约束的存在使得同时至少有两个Lagrange乘子发生变化。

由于只有两个变量,而且应用等式约束可以将其中一个用另一个表示出来,所以迭代过程中每一步的子问题的最优解可以直接用解析的方法求出来。

这样,算法避开了复杂的数值求解优化问题的过程;此外,Platt[5]还设计了一个两层嵌套循环分别选择进入样本集的样本,这种启发式策略大大加快了算法的收敛速度。

标准样本集的实验结果证明,SMO表现出在速度方面的良好性能。

子问题的规模和迭代的次数是一对矛盾,SMO将样本集的规模减少到2,一个直接的后果就是迭代次数的增加。

所以SMO实际上是将求解子问题的耗费转嫁到迭代上,然后在迭代上寻求快速算法。

但是,SMO迭代策略的思想是可以用到其他迭代算法中的,可见,SMO还有改进的余地。

  本文的第二部分将分别就几种著名的软件进行介绍,给出其基于的理论基础。

第三部分就第二部分进行分析,对比各软件之间的差异,给出分析结论。

最后对其应用前景和改进空间进行讨论。

 

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 农林牧渔 > 林学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1