首页 [基本类型的常量]决议范文:决议的基本类型

[基本类型的常量]决议范文:决议的基本类型

举报
开通vip

[基本类型的常量]决议范文:决议的基本类型[基本类型的常量]决议范文:决议的基本类型 导读:就爱阅读网友为大家分享了多篇关于―[基本类型的常量]决议范文:决议的基本类型‖资料,内容精辟独到,非常感谢网友的分享,希望从中能找到对您有所帮助的内容。 相关资料一 : 决议范文:决议的基本类型 根据决议涉及内容范围的不同,可分为三大类型: 1.批准某事项或通过某文件的决议 这类决议涉及的内容比较具体,一般用于批准某项报告或文件。如《中国共产党第十四次全国代表大会关于〈中国共产党章程〉(修正案)的决议》、《中国共产党第十四次代表大会关于十三届中央委员会报告...

[基本类型的常量]决议范文:决议的基本类型
[基本类型的常量]决议范文:决议的基本类型 导读:就爱阅读网友为大家分享了多篇关于―[基本类型的常量]决议范文:决议的基本类型‖资料,内容精辟独到,非常感谢网友的分享,希望从中能找到对您有所帮助的内容。 相关资料一 : 决议范文:决议的基本类型 根据决议涉及内容范围的不同,可分为三大类型: 1.批准某事项或通过某文件的决议 这类决议涉及的内容比较具体,一般用于批准某项报告或文件。如《中国共产党第十四次全国代表大会关于〈中国共产党章程〉(修正案)的决议》、《中国共产党第十四次代表大会关于十三届中央委员会报告的决议》等。 2.安排某项工作的决议 对于重要的、长期整理辑。的工作,可采用决议的形式进行布置安排,如《中共四川省委关于认真学习、坚决贯彻〈中共中央关于加强党同人民群众联系的决定〉的决议》等。 1 3.涉及原则问 快递公司问题件快递公司问题件货款处理关于圆的周长面积重点题型关于解方程组的题及答案关于南海问题 的决议 这类决议涉及的内容是原则性的、非事件性的,影响范围更大,影响时间更为久远。如《关于建国以来党的若干历史问题的决议》、《中共中央关于加强社会主义精神文明建设若干问题的决议》等。 相关资料二 : 量词:量词-基本定义,量词-基本类型 相关资料三 : 基于Labeled_LDA模型的文本分类新算法 第31卷??第4期2008年4月计????算????机????学????报Vol.31No.4Apr.2008 基于Labeled-LDA模型的文本分类新算法 李文波 1) 2)1),2)??孙??乐??张大鲲1)1)(中国科学院软件研究所??北京??100080)(中国科学院研究生院??北京??100049) 摘??要??LDA(LatentDirichletAllocation)模型是近年来提出的一种能够提取文本隐含主题的非监督学习模型.通过在传统LDA模型中融入文本类别信息,文中提出了一种附加类别标签的LDA模型(Labeled-LDA).基于该模型可以在各类别上协同计算隐含主题的分配量,从而克服了传统LDA模型用于分类时强制分配隐含主题的缺陷.与传统LDA模型的实 2 验对比表明:基于Labeled-LDA模型的文本分类新算法可以 有效改进文本分类的性能,在复旦大学中文语料库上 micro_F1提高约5??7%,在英文语料库20newsgroup的 comp子集上micro_F1提高约3%. 关键词??文本分类;图模型;隐含狄利克雷分配;变分推断 中图法分类号TP18 TextClassificationBasedonLabeled-LDAModel LIWen-Bo 1)(Institute 2)1),2)??SUNLe??ZHANGDa-Kun1)1)ofSoftware,ChineseAcademyofSciences,Beijing??100080)(GraduateUniversityoftheChineseAcademyofSciences,Beijing??100049) Abstract??LDA(LatentDirichletAllocation)isarecentlyproposedmodelwhichextractslatenttopicsfromtextdata.Inthispaper,Labeled-LDAisproposedtoenhancethetraditionalLDAtointegratetheclassinformation.BasedonLabeled-LDA,anewalgorithmisintroducedtofigureoutthelatenttopics??quantitiesofeachclasssynergistically.Insuchaway,Labeled-LDAmodelavoidscompulsiveallocationbehaviorsofthetraditionalLDAwhenitisusedasacomponentinclassificationframe.Experimentsonfudancorpusandthecompsubsetof20newsgropcorpusshowthenewmethodcanimprovetextclassificationeffectiveness:Onmicro_F1m 3 easure,itap-proachesanimprovementof5??7%onfudancorpus and3%onthecompsubsetof20newsgropcorpus. Keywords??textclassification;graphicalmodel;LatentDiric hletAllocation(LDA);variationalinference 前的迫切需求,这促进了自动文本分类技术的迅速 发展和广泛应用[1-2]. 文本分类研究的核心内容主要包括分类模型 和文本表示两个部分.近年来,文本分类研究的大量 工作集中在分类模型方面,基本上是引入和改进 [3]机器学习领域的相关成果,得到了KNN、SVM、1??引?? 言随着信息技术的发展,各类信息资源的存量和增长都呈现 海量特征,其中文本数据始终占据重要地位.如何有效地管理 和使用这些文本信息成为当 收稿日期:2007-12-10.本课题得到国家自然科学基金项目 (60773027)、国家自然科学基金重点项目(60736044)、国家?? 八六三??高技术研究发展计划重点项目基金(2006AA010108)资助.李文波,男,1975年生,博士研究生,研究方向为信息检 索、文本分类与机器学习等.E-mail:liwenbo02@iscas.cn.孙?? 乐,男,1971年生,博士,副研究员,研究方向为信息检索、自然 语言处理等.张大鲲,男,1980年生,博士, labeled 基于Labeled_LDA模型的文本分类新算法 4期李文波等:基于Labeled-LDA模型的文本分类新算法 4 621 AdaBoost等高效的分类模型,在分类性能和可用性方面都比之前的知识工程范式有了显著的进步,使得文本分类进入基本可以实用的阶段.与分类模型方面的工作相比,文本表示及其对分类性能的影响的 研究相对较少,长期以来文本表示的主要 方法 快递客服问题件处理详细方法山木方法pdf计算方法pdf华与华方法下载八字理论方法下载 是直接采用向量空间模型VSM(VectorSpaceModel),这类方法有些基本的变体:词袋模型BOW(BagOfWords)和信息检索中的各种词权重计算方法(如tf*idf). 一些新的研究力图通过语言学和统计两种途径对文本表示方法进行拓展.语言学方面的一些研究[4-5]尝试引入丰富的语言学特征来提高分类的性能,但效果并不理想,而且由于需要比较复杂的语言处理而降低了系统的效率,从而影响了实用性.统计方法的基本思路是挖掘文本的主题信息,典型代表是由Deerwester和Dumais等人提出的隐含语义索引(LSI)[6]方法及其概率化改进版PLSI[7].LSI系列方法在文本分类中的应用得到了深入的研究,其降维作用较为显著,但最终的分类性能往往会受损.另外,由于这类模型的参数空间和训练数据呈正比,不利于对大规模或动态增长的语料库进行建模.针对这些问题,研究者借鉴近年发展起来的概率图模型理论和方法,提出了一系列主题模型(TopicModels),主要是以LDA(LatentDirichletAlloca-tion) 5 为代表的系列模型. 本文针对LDA模型应用到文本分类中存在的 [10] [8-9] 生成模型,因此具有清晰的内在结构,并且可以利用高效的概率推断算法进行计算;再者LDA模型参数空间的规模与训练文档数量无关,因此更适合处理大规模语料库.LDA模型已经在机器学习的诸多领域佳 [10] 以及信息检索 [11] 中得到应用.另外,有研究 [9,13] 者指出在有监督学习环境下LDA模型往往表现欠 [12] ,具体到文本分类中也有初步的研究,表 明该模型对文本分类任务是有效的,但性能并不特别突出.针对LDA模型存在的问题,研究人员提出了一些更有力的主题模型. Blei等提出了一种CTM(CorrelatedTopicModels)模型[14].该模型的关键之处在于引入逻辑斯蒂-正态分布(Logistic-Normaldistribution)取代了LDA模型中使用的狄 6 利克雷分布(Dirichletdis-tribution),用以刻画文档集合的隐含主题.逻辑斯蒂正态分布有2组参数分别是均值向量和协方差矩阵:均值向量的作用类似于LDA模型中使用的狄利克雷参数,即用以表示隐含主题的相对强弱;而协方差矩阵描述的是每对隐含主题之间的关联程度,这个结构信息在LDA模型中是没有的,实际上在LDA模型中隐含主题之间可以认为是一种简单的线性结构.利用CTM不仅可以分析文本集合的隐含主题构成,而且还可以考察隐含主题之间的联系,这种联系可以用无向图来表示成一种2维平面结构. Li等提出的PAM(PachinkoAllocationModel)模型[13],其核心思想是用有向无环图(DAG)来描述文档中隐含主题之间的结构.该结构原则上可以是任意的,但通常的PAM模型采用层次结构.考虑现实应用中的大规模文本数据集合,其隐含主题结构按照层次结构组织是非常自然的,比起平面结构和线性结构的假设更加合理.该研究表明PAM较CTM和LDA具有更好的文本表示能力,在文本分类方面的实验也表明PAM优于LDA. 这些改进方法最基本的思路是通过对文本集合中隐含主题的结构进行更加深入的挖掘从而实现对模型的提升.但是这种改进思路的着眼点在于对文本集合的结构本身的精化,而没有考虑向模型中引入其它丰富信息的办法,并且缺少针对 7 特定类型任务(如分类任务)的改进措施.本文的研究正是从这一角度出发,提出将文本数据的类别信息引入到LDA模型中,建立Labeled-LDA模型以改善分类问题,提出一种改进的LDA模型??????Labeled-LDA(附加类别标签的LDA),将类别信息融入传统的LDA模型,进而支持文档在全部类别的隐含主题上 进行协同分配,有效克服了传统LDA模型必须在单个类别中强制分配隐含主题而影响分类性能的问题. 本文第2节回顾了相关的研究工作;第3节简要介绍传统LDA模型并分析其应用于文本分类时存在的问题;第4节论述我们提出的Labeled-LDA模型及基于Labeled-LDA隐含主题分配的文本分类算法;相关实验及分析在第5节给出;最后第6节是总结. 2??相关工作 主题模型是当前文本表示研究的主要范式,LDA模型是其典型代表.LDA模型较之LSI/PLSI: labeled 基于Labeled_LDA模型的文本分类新算法 622计????算????机????学????报2008年 标文档的生成概率值pLDA(x|??,??). 3??LDA模型在文本分类中的应用 3.1??LDA模型的基本思想 LDA模型是一种对文本数据的主题信息进行建模的方法. 8 如图1(a)所示,它假设文档集合(顶部大圆)可以分成若干隐含主题(底部小圆),而这些隐含主题拓扑结构是线性的,进一步利用概率推断算法可以将单个文档表示为这些隐含主题特定比例的混合.如图1(b)所示,LDA模型是典型的有向概率图模型,具有清晰的层次结构,依次为文档集合层、文档层和词层.LDA模型由文档集合层的参数(??,??)确定,??反映了文档集合中隐含主题间的相对强弱,??刻画所有隐含主题自身的概率分布.随机变量??表征文档层,其分量代表目标文档中各隐含主题的比重.在词层,z表示目标文档分配在每个词上的隐含主题份额,w是目标文档的词向量表示形式 . 3.2??LDA模型在文本分类中的应用和不足 LDA是非监督学习模型,本身不能直接用于分类,需要嵌入到合适的分类算法中.LDA本身是生成模型,所以与生成型分类算法集成是一种自然的选择.生成型分类算法的实质是对(对象,类别)的联合分布p(x,c)进行建模,相应分类任务可表示为如下决策规则: –argmaxp(x|c)p(c)cc (3) 其核心部件是类条件概率p(x|c),它表示类别c ??生成??文档x的概率,此处将LDA用作类条件概率就得 9 到LDA分类器,如式(4): –argmaxpLDA(x|??cc,??c)p(c)c (4) 训练阶段,要为每个类别的文档独立训练相应的子LDA模型(??c,??c).这样,类内共享一组主题,而类间的主题是隔离的.预测阶段如图2所示:要用每个子LDA模型对目标文档x进行生成,以求得 各类别上相应的生成概率值pLDA(x|??c,??c),最后根据式(4)即可判定目标文档的类别.这个过程中需要推断各子LDA模型的隐含变量??c(对应后验分布参数是??c),zc情况也类似.但这种分类方法会产生以下问题: 图1??LDA模型 构建并使用LDA模型的核心问题是隐含变量分布的推断 [15] ,也即获得目标文档内部隐含主题的式(1)??: n=1 图2??LDA模型用于分类 构成信息(??,z).记(??,??)为(??,z)的后验分布参数,则有更新方程 [10] N 假定目标文档x的类别是c.那么当用第c类的子LDA模型 10 生成文档x时得到的??c就是x在类c上的隐含主题的恰当分配(图2中阴影),这是因为文档x和类别c中的所有文档共享相同的主题.但是当用其他类c????c的子LDA模型生成文档x时,虽然也可以得到相应的??c??,但这是一种强制的分配,因为文档x所讨论的是类别c的隐含主题,而不是类别c??的隐含主题,这就导致在这些类别上生成 ??ni????iw(n)exp{??(??i)},??i=??i+ ???? ni (1) 得到隐含变量分布后即可估计LDA模型的参数,如式(2)所示:其中M是文档总数,d是文档标识,??(d)ni是由期望步骤得到的最优??ni值.??=??-H(??) -1 * M N g(??),??ij= d=1n=1 ??????(d) * ni 11 w(d)n (2) j ,??式(??. labeled 基于Labeled_LDA模型的文本分类新算法 4期李文波等:基于Labeled-LDA模型的文本分类新算法623 概率的计算产生偏差而降低类分类性能.干个隐含主题(底部小圆).而传统的LDA模型所能建模的文档集合的结构是:集合中的所有文档(直接)讨论一组隐含主题(见图1(a)).这样,Labeled-LDA模型比 标准 excel标准偏差excel标准偏差函数exl标准差函数国标检验抽样标准表免费下载红头文件格式标准下载 的LDA模型多了一层,即文档类 别层.在实现上如图3(b)所示,这种结构采用了给隐含主题附加类别标签的策略,将类别信息嵌入模型.相应的模型学习算法将(所有类别的)所有隐含主题融合到一个单一模型中,并标明每个隐含主题所属的类别.由于没有另行引入表示类别的随机变量,所以没有增加模型的计算复杂度.附加了类别标签后,模型的各个参数和随机变量与传统的LDA模型相比都有变化 : 4??基于Labeled-LDA的分类算法 12 如上所述,传统LDA模型应用于文本分类时存在的问题主要是目标文档在不属于自己的类别上进行生成时就会发生隐含主题的强制分配,针对这个缺陷我们提出Labeled-LDA模型以克服这种强制分配行为. 4.1??Labeled-LDA模型 如图3(a)所示,Labeled-LDA模型所要刻画的文档集合的结构是:文档集合(顶部大圆)中的所有文档被按类别划分(中间阴影圆),每一类又讨论若 图3??Labeled-LDA模型 ????在模型的文档集合级别,模型参数??和??按类别被分为C组,即??=(??1,??,??c,??,??C),??=(??1,??,??c,??,??C).参数对(??c,??c)就定义了类别c的那组隐含主题,即用类别标签对每个隐含主题进行标记.向量??c的元素??ci表示类别c的第i个隐含主题的先验概率;矩阵??c的元素??cij表示类别c的第i个隐含主题生成词j的概率.进一步,模型中的隐含随机变量,包括文档级的??以及词一级的z,也与传统的LDA模型不同.目标文档x的隐含概念分配向量??也被按类别分为C组??=(??1,??,??c,??,??C),其子向量??c表示文档x在类别c的那组隐含主题上的分配额,标量??ci对应文档x在类别c的第i个隐含主题上的分配额.随机变量z的情形与??类似,不再赘述. 13 另外,对于文档w(即文档x的词向量表示形式),在训练阶段 要给它附带类别标签,而传统LDA 模型由于是非监督模型,其训练阶段是不能给w附带类别 标签的. , 如式(5)~(7): ??nci????(c-l(d))??ciw(n)exp{??(??ci)}E步: ??ci=??(c-l(d))??ci+??c=??c-H(??c) M步: M N -1 n=1N ???? (5)(6)(7) nci g(??c)w(d)jn ??cij= d=1n=1 ??????(d) * nci 14 在E步中,与传统的LDA模型不同,Labeled-LDA模型嵌入了类别信息:相关的量(??,??)都被附加了类别标签c.具体地讲,就是通过引入??函数(狄拉克函数??),指示模型将目标文档的隐含主题的份额向文档所属类别上进行分配. 在M步中,Labeled-LDA模型的参数估计方程与传统的LDA模型的相比也有明显的不同:(1)与E步类似相关的量(??,??)也都附加了类别标签c,以实现参数估计按照类别分组;(2)传统的LDA模型中一般是假定??是可交换的(即??的所有分量取值相同,并且在估计过程中一致地缩放),以表示所有隐含主题是平等的.这对传统的LDA模型来说是 labeled 基于Labeled_LDA模型的文本分类新算法 624计????算????机????学????报2008年 适合的,因为没有理由假设某个特定隐含主题的强度高或低,但是对于Labeled-LDA模型则不宜如此:不同类别之间语料数量的大小差异以及语料主题的清晰程度都影响类别间隐含概念的相对强弱.因此我们引入了部分可交换(partialexchangeable)狄利克雷分布,即类别内部的隐含主题间可交换而类别之间的隐含主题不可交换.实现中如式(6)所示,参数??的估计不再像传统的LDA模型中直接在整个向量上进行,而是在每个子向量??c上独立计算. Labeled-LDA模型的训练阶段将类别信息嵌入模型中,实现了将文档集合涉及的所有隐含主题和文档集合的类别体 15 系的关联.进而在预测阶段,由于所有类别的所有隐含主题都存在于模型中,对目标文档的隐含主题进行推断时必有类别与之对应,所以总有合适的类可供目标文档进行隐含概念的分配,这就克服了传统LDA模型将目标文档在不对应的类上进行强制分配的缺陷.4.2??将Labeled-LDA用于文本分类 传统LDA用于分类时,核心是计算并比较类条件密度pLDA(x|??c,??c).与此不同,我们提出一种新算法??????基于Labeled-LDA隐含主题分配的分类算法.对于(多类)文本分类任务,该算法基于以下的基本假设:(1)每类文档讨论若干个主题,类间主题的相关程度低于类内主题;(2)一个具体文档讨论的主题是该文档所属类别的主题集合的子集.在这两个基本假设之上实现如下算法: 首先,通过推断目标文档x的隐含变量(??,z)而获得其后验分布参数(??,??),如式(8): ??nci????ciw(n)exp{??(??ci)},??ci=??ci+ n=1 5??实??验 实验使用了复旦大学中文文本分类语料库和 20news-group英文分类语料库.其中,复旦大学中文文本分类语料库约含20000篇文档,分成20个 类.该语料库是一个不平衡语料库,按数量级大致可以分为2个级别:其中有11个类是小类(每个类别的训练集和测试集 16 中的文档数量都小于100),9个类是大类.在我们的实验中,复旦大学中文文本分类语料库的训练集和测试集按照1??1的比例划分.语料库20newsgroup的comp子集,共5个类,每类大约含1000个文档,训练集和测试集是按照3??1的比例划分,这同文献[13]中的实验设置相同以便比较.5.1??复旦中文文本分类语料库上的实验 这部分实验以SVM做分类性能参考,将基于传统的LDA模型和Labeled-LDA模型的文本分类算法的分类性能进行了比较,SVM分类器使用LibSVM[16],核函数使用线性核,其他参数使用默认设置,实验结果如图4所示. 从图4(a)看,基于Labeled-LDA隐含主题分配的分类算法的优势表现在两个方面:(1)该算法性能一致高于传统LDA模型的分类性能,当主题数量/类=10时,Labeled-LDA相对于传统LDA模型的micro_F1有5??7%的提高(从85??1%提高到90??8%),而传统LDA模型与SVM分类器的性能相当(相差小于1%).(2)传统LDA模型的分类性能与隐含主题的数量基本无关,而Labeled-LDA模型的性能随隐含主题数量的增长而提高,这表明基于Labeled-LDA隐含主题分配的分类算法可以有效利用模型隐含主题数量扩张带来的增益. 图4(b)对主题数量/类=10的情况进行了更进一层的剖析.图中横坐标依据类别所含文档数量升序排列,其中1~11是小类,12~20是大类.基于Labeled-LDA隐含主题分配的分类算 17 法的优势表现在:首先,在所有类上该算法性能一致高于传统LDA模型(及SVM)的分类性能.另外,注意到在小类上提升幅度更大,这表明该方法对于处理不平衡分类问题亦有良好的效果. 在曾雪强等的研究中[17],利用改进的LSI模型在复旦大学语料库上进行了测试,其micro_F1性能 ???? ???? N nci (8) 然后,将主题份额??ci依类别综合得类别份额Qc (Kc:类c的隐含主题的数量),如式(9): K c Qc= i=1 ???? ci (9) 最后,选取被分配最大份额的类别作为目标文档的类别,如 18 式(10): –argmaxQccc (10) 基于Labeled-LDA隐含主题分配的分类算法有效地避免了传统LDA分类算法的缺陷:因为 Labeled-LDA模型中关于所有类别的信息都存在,所以对于给定文档必有其所属类别,文档在隐含主题分配的过程中没有被强制限定在任何一个类别上,. labeled 基于Labeled_LDA模型的文本分类新算法 4期李文波等:基于Labeled-LDA模型的文本分类新算法625 指标在85%~88%之间.如前所述,与LDA系列的方法比较,LSI存在参数规模大和计算复杂度高的问题.在张启蕊等的研究中[18],利用聚合复旦大学语料库上的小类别来抵抗语料分布不平衡.其宏性 能指标(macro_F1)得到显著改善,而micro_F1性能 指标的提高幅度较小(从85%提高到86%),该方法主要是通过在保持总体分类性能(micro_F1)的前提下,提高小类别上的性能.而本文的方法首要的是提高总体分类性能(micro_F1),这样就可以自然增大各个类别性能提升的空间 19 . 图4??在复旦语料库上的性能评估 5.2??20newsgroup的comp子集上的实验 这部分实验以PAM模型作为分类性能参考,如图5所示:PAM*和LDA*是引用文献[13]中的结果??,同本文的实验结果Labeled-LDA(分配)和LDA(生成)比较 . 表明Labeled-LDA模型的有效性.另外由于La-beled-LDA 模型的隐含主题是线性结构,比PAM的DAG结构简洁,所以Labeled-LDA在计算效率上比PAM更具优势. 6??总??结 本文主要从文本表示方法的角度对改善文本分类性能进行了探索.我们首先研究了LDA模型在文本分类任务中存在的问题:在计算文档的类生成概率时,目标文档在其非所属类别上存在强制分配隐含主题的现象,从而影响了分类性能.针对这一缺 图5??comp子集上的性能评估 陷,我们提出了Labeled-LDA模型,该模型为传统的LDA增加了建模数据类别的能力.在此基础上,通过协同计算隐含主题在全部类别的隐含主题上的分配量实现文本分类,从而克服了传统的LDA在分类过程中将文档强制在单个类别上分 20 配隐含主题的缺陷.在复旦大学中文文本分类语料库和英文语料库20newsgroup的comp子集上的实验表明:基于Labeled-LDA的分类算法较传统LDA在综合性能指标micro_F1上分别获得了5??7%和3%的提高;再者,Labeled-LDA以相对PAM较低的计算复杂度达到了与其相当的分类性能. 我们未来拟开展的研究包括:(1)将Labeled- 同上一个实验一样,Labeled-LDA模型的分类性能一致高于传统LDA模型.同时,实验也显示了基于Labeled-LDA隐含主题分配的分类算法可以有效利用隐含主题数量扩张带来的增益:当主题数量/类=12时,Labeled-LDA相对于传统LDA模型,micro_F1有3%的提高(从84??6%提高到87??6%).当主题数量/类>6时,传统LDA模型的性能趋于稳定,而Labeled-LDA模型的性能随隐含主题数量的增长而平稳提高. PAM的核心思想是利用有向无环图(DAG)结构对隐含主题间的关联进行建模以提升模型能力,而我们的Labeled-LDA是通过嵌入类别信息来改进LDA模型,这是两种不同的思路.上述实验表明?? 文献[13]中的实验采用的是Accuracy指标,本文统一采用micro_F1,二者在单标签分类情况下是等价的,参见文献[19].另外由于文献[13]中没有给出主题数量/类,所以我 21 labeled 基于Labeled_LDA模型的文本分类新算法 626计????算????机????学????报2008年 LDA模型中类别化的隐含主题结构与核方法相结合以进 一步提升分类性能;(2)Labeled-LDA模型并不局限于文本分 类,可以应用到其它的监督学习任务中. 致??谢??在此,我们向对本文工作给予建议、帮助的老师和 同学,尤其是中国科学院软件研究所中文信息处理研究组的 黄瑞红同学和冯元勇同学,表示感谢! [12][10][11][9] ingsoftheSIGIR-95.Seattle,Washington,USA,1995:229-237 ChenL,TokudaN,NagaiA.AnewdifferentialLSIspace-basedprobabilisticdocumentclassifier.InformationProcess-ingLetters,2003,88(5):203-212 BleiD,NgA,JordanM.Latentdirichletallocation.JournalofMachineLearningResearch,2003,3:993-1022 WeiXing,CroftWBruce.LDA-baseddocumentmodelsforAd-Hocretrieval//ProceedingsoftheSIGIR.Seattle,Wash-ington,USA,2006:178-185 VijayKrishnan.Shortcomingsoflatentmodelsinsupervisedsettings//ProceedingsoftheSIGIR.Salvador,Brazil,2005:625-626 [13] LiWei,McCallumAndrew.Pachinkoallocation:DAG-structu 22 redmixturemodelsoftopiccorrelations//ProceedingsofICML-06.Pittsburgh,Pennsylvania,2006:577-584 [14][15] BleiD,LaffertyJ.Correlatedtopicmodels.AdvancesinNeuralInformationProcessingSystems,2005,18:147-154WainwrightMJ,JordanMI.Avariationalprincipleforgraphicalmodels//HaykinS,PrincipeJ,SejnowskiT,Mc-WhirterJeds.NewDirectionsinStatisticalSignalProcess-ing:FromSystemstoBrain.Cambridge,MA:MITPress,2005:155-202 [16][17] ChangChih-Chung,LinChih-Jen.LIBSVM:ALibraryforSupportVectorMachines.Taiwan,China,2001 ZengXue-Qiang,WangMing-Wen,ChenSu-Fen.Atextclassificationmodelbasedonthelatentsemanticstructure.JournalofSouthChinaUniversityofTechnology,2004,32:99-102(inChinese) (曾雪强,王明文,陈素芬.一种基于潜在语义结构的文本分类 模型.华南理工大学学报,2004,32:99-102) [18] ZhangQ-iRui,ZhangLing,DongShou-Binetal.Effectsofcategorydistributioninatrainingsetontextcategorization.JournalofTsinghuaUniversity,2005,45:1802-1805(inChinese) (张启蕊,张凌,董守斌等.训练集类别分布对文本分类的影响. 23 清华大学学报,2005,45:1802-1805) [19] YangY-iMing.Anevaluationofstatisticalapproachestotextcategorization.InformationRetrieval,1999,1(1-2):69 -90 参 [1] 考文献 FabrizioSebastiani.Textcategorization//AlessandroZanasi.TextMininganditsApplications.Southampton,UK:WITPress,2005:109-129 [2]SuJin-Shu,ZhangBo-Feng,XuXin.AdvancesinMachineLearningBasedTextCategorization.JournalofSoftware,2006,17:1848-1859(inChinese) (苏金树,张博锋,徐昕.基于机器学习的文本分类技术研究进 展.软件学报,2006,17:1848-1859) [3][4] FabrizioSebastiani.Machinelearninginautomatedtextcate-gorization.ACMComputingSurveys,2002,34(1):1-47MoschittiA,BasiliR.Complexlinguisticfeaturesfortextclassification:Acomprehensivestudy//McDonaldS,TaitJ.ProceedingsoftheECIR 24 -04.Sunderland:Springer-Verlag.Sunderland,U.K.,2004:181-196 [5]KehagiasA,PetridisV,KaburlasosVG,FragkouP.Acomparisonofword-andsense-basedtextcategorizationusingseveralclassificationalgorithms.JournalofIntelligentInformationSystems,2003,21(3):227-247 [6]DeerwesterS,DumaisST,Furnasetal.Indexingbylatentsemanticindexing.JournaloftheAmericanSocietyforInfor-mationScience,1990,41(6):391-407 [7][8] ThomasHofmann.Probabilisticlatentsemanticindexing//ProceedingsoftheSIGIR.Berkeley,CA,USA,1999:50-57SchutzeH,HullDAetal.Acomparisonofclassifiersanddocumentrepresentationsfortheroutingproblem//Proceed- LIWen-Bo,bornin1975,Ph.D.candidate.Hisresearchinterestsincludeinformationretrieval,textclassificationandmachinelearning. SUNLe,bornin1971,associateprofessor.Hisre-searchinterestsincludeinformationretrievalandnaturallan-guageprocessing. ZHANGDa-Kun,bornin1980,Ph.D.candidate.Hisresearchinterestsincludemachinetranslationandnaturallanguageproce 25 ssing. Background ????Thispaperfocusesonthenewtextpresentationmethodsanditsttn.tpr-tationmethodsmainlyincludevectorspacemodel,n-grams,M,andtextprnhodshave labeled 基于Labeled_LDA模型的文本分类新算法 4期李文波等:基于Labeled-LDA模型的文本分类新算法 Development Program of China (863 627Program) widelyusedinnaturallanguageprocessing.Recently,anewtypeofstatisticallanguagemodels,namedastopicmodel,becomesanactiveresearchdirectionoftextpresentation.Thefundamentaltargetoftopicmodelsistoexplorethela-tentstructureofdocumentbycontentanalysis.Thediffer-encesamongthetopicmodelsaremainlyattheassumptionsoftheirtopicstructure,suchaslineararrayofLDAmodel,DAGofPAMmodel,completegraphofCTMmodelandetc.Bymeansofmorereasonabletopicstructure,moreexpres-sivetopicmodelcanbeobtained. 26 Intheirresearch,theauthorsproposeanewtopicmod-el,theLabeled-LDAmodel,whichcanencodetheclassin-formationofdocumentintothetraditionalLDAmodel.Inthisway,theyobtainamorecapabletextpresentationmeth-odwhichavoidscompulsiveallocationbehaviorsofthetrad-itionalLDAwhenitisusedintextclassification.BasedontheLabeled-LDAmodel,theyintroduceanewtextclassificationalgorithmtofigureoutthelatenttopics??quantitiesofeachclasssynergistically. ThisresearchissupportedbytheNationalNaturalSc-ienceFoundationProgramofChinaundergrants(60773027,60736044)andtheNationalHighTechnologyResearchand (2006AA010108):Researchesonthetheory,algorithmandimplementofstatisticallanguagemodelsandtheirapplica-tionsinareasofnaturallanguageprocessingandinformationretrieval,etc.Statisticallanguagemodelsplayafundamentalroleinthenaturallanguageprocessing.Atthesametime,informationretrievalalsotakesthelanguagemodelasoneofthemostimportantparadigms. Thisresearchgrouphasworkedonmanyaspectsofsta-tisticallanguagemodels.Relatedpapershavebeenpublishedoninternationalconferences(COLING-InternationalConfer-enceonComputationalLinguistics,IJCNLP-InternationalJointConferenceonNaturalLanguageProcessing,AIRS-A-siaInformationRetri 27 evalSymposium,etc.)andjournals(JCIP-JournalofChineseInformationProcessing,etc.).Inthispaper,theystudythetopiclanguagemodelsandproposetheLabeled-LDAmodel,whichintegratestheclassinforma-tionintotraditionalLDAmodel.Furthermore,theyapplytheLabeled-LDAmodeltotextclassification.Experimentsshowthatthismethodcanenhanceperformanceoftextclas-sification. 相关资料四 : 研磨膏:研磨膏-常用类型,研磨膏-粒度质 量 国瑞升钻石研磨膏有水性和油性之分,磨料上有多晶金刚 石和单晶精钢石之分。金刚石类研磨膏——主要用于钨钢模 具、光学模具、注塑模具等研磨抛光;金相分析实验过程中 的研磨抛光,牙科材料(义齿)研磨抛光,牙科材料(义齿) 研磨抛光,硬质合金等高硬度材料的研磨。 研磨膏_研磨膏 -常用类型 研磨膏常用研磨膏有: 刚玉类研磨膏——主要用于钢铁件研磨; 碳化硅、碳化硼类研磨膏——主要用于硬质合金、玻璃、 陶瓷和半导体等研磨; 氧化铬类研磨膏——主要用于精细抛光或非金属类的研 28 磨; 金刚石类研磨膏——主要用于钨钢模具、光学模具、注塑模具等研磨抛光;金相分析实验过程中的研磨抛光,牙科材料(义齿)研磨抛光,牙科材料(义齿)研磨抛光,硬质合金等高硬度材料的研磨。 研磨膏_研磨膏 -粒度质量 目数 粒度 质量百分比 用途 F600 (30µ) 52% 26% 20% 硫化油2%或煤油少许 粗研 F800 (25µ) 46% 28% 26% 煤油少许 半精研 F1000 (20µ) 42% 30% 28% 煤油少许 半精研 F1200 (15µ) 41% 31% 38% 煤油少许 精研(一般亮度) F3000 (6µ) 40% 32% 28% 煤油少许 精研(精密亮度) F5000 (4µ) 40% 26% 26% 凡士林8% 精细研(精密亮度) F8000 (3µ) 25% 35% 30% 凡士林10% 超精细研(精密亮度) 研磨膏_研磨膏 -成分用途 研磨膏名称 成分及比例 用途 碳化硅研磨膏 碳化硅(F240)83%,凡士林17% 粗研 29 碳化硼研磨膏 碳化硼(F600)65%,石蜡35 % 半精研 混合研磨膏 碳化硼(F600)35%,白刚玉(F600~F1000)与混合脂15%,油酸35 % 半精研 碳化硼研磨膏 碳化硼(F1200以上)76%,石蜡12%,洋油10%,松节油2% 精细研 研磨膏_研磨膏 -金刚石研磨膏 类型 根据所含磨料的成分来分,可分为多晶金刚石与单晶金刚石;根据溶剂的种类来分,有油性和水性之分。 多晶金刚石研磨膏-北京国瑞升单晶金刚石研磨膏-北京国瑞升型号 粒度号 粒度尺寸(微米) 颜色标志 光洁度(级)和效果 金刚石含量(克拉) W40 40 ~ 28 淡黄 9 - 10 (粗研) 1.5 W28 28 ~ 20 灰 9 - 10 (粗研) 1.5 W20 20 ~ 16 深兰 9 - 10 (粗研) 1.5 W16 16 ~10 青莲 10 - 11 (一般亮度) 1.5 W10 10 ~ 7 洋兰 10 - 11 (一般亮度) 1.5 W7 7 ~ 5 玫红 10 - 11 (精密亮度) 1.25 W5 5 ~3 桔黄 11 - 12 (精密亮度) 1.25 W3 3 ~ 1 草绿 11 - 12 (镜面亮度) 1 W1 1 ~ 0.5 桔红 12 - 13 (超镜面亮度) 1 30 W0.5研磨膏_研磨膏 -行业概况 供求关系是1个行业能否快速发展的前提。目前来看,市场需求是很大的,而供应方面却略显不足,尤其是拥有核心知识产权,产品质量过硬的企业并不多,行业整体缺乏品牌效应。在需求旺盛的阶段,行业需求巨大,发展前景好,这是毋庸置疑的。但如何保持行业的健康,稳定且可持续发展,需要业内企业的共同努力,尤其需要发挥吃毛求疵的研发精神,进1步提高生产 工艺 钢结构制作工艺流程车尿素生产工艺流程自动玻璃钢生产工艺2工艺纪律检查制度q345焊接工艺规程 ,降低成本,真正解决客户的实际困难,严把质量关,提供最可靠的产品。 相关资料五 : 客户信息:客户信息-客户信息的基本类型,客户信息-客户信息的采集 客户信息是指客户喜好、客户细分、客户需求、客户联系方式等一些关于客户的基本资料。 客户信息_客户信息 -客户信息的基本类型 客户信息主要分为描述类信息、行为类信息和关联类信息3种类型。下面简介这3种基本的客户信息类型的特点。 描述类信息 客户描述类信息主要是用来理解客户的基本属性的信息,如个人客户的联系信息、地理信息和人口统计信息,企业客 31 户的社会经济统计信息等。这类信息主要来自于客户的登记信息,以及通过企业的运营管理系统收集到的客户基本信息。 这类信息的内容大多是描述客户基本属性的静态数据,其优点是大多数的信息内容比较容易采集到。但是一些基本的客户描述类信息内容有时缺乏差异性,而其中的一些信息往往涉及到客户的隐私,如客户的住所、联络方式、收入等信息。 对于客户描述类信息最主要的评价要素就是数据采集的准确性。 在实际情况中,经常有一些企业知道为多少客户提供了服务,以及客户购买了什么,但是往往到了需要主动联络客户之际,才发现往往缺乏能够描述客户特征的信息和与客户建立联系的方式,或是这些联络方式已经失效了,这都是因为企业没有很好的规划和有意识的采集和维护这些客户描述类信息。 行为类信息 32 客户的行为类信息一般包括:客户购买服务或产品的记录、客户的服务或产品的消费记录、客户与企业的联络记录,以及客户的消费行为、客户偏好和生活方式等相关的信息。 客户行为类信息的主要目的是帮助企业的市场营销人员和客户服务人员在客户分析中掌握和理解客户的行为。客户的行为信息反应了客户的消费选择或是决策过程。 行为类数据一般都来源于企业内部交易系统的交易记录、企业呼叫中心的客户服务和客户接触记录,营销活动中采集到的客户响应数据,以及与客户接触的其他销售人员与服务人员收集到的数据信息。有时企业从外部采集或购买的客户数据,也会包括大量的客户行为类数据。 客户偏好信息主要是描述客户的兴趣和爱好的信息。比如有些客户喜欢户外运动,有些客户喜欢旅游,有些客户喜欢打网球,有些喜欢读书。这些数据有助于帮助企业了解客户的潜在消费需求。 企业往往记录了大量的客户交易数据,如零售企业就记录了客户的购物时间、购物商品类型、购物数量、购物价格等等信息。电子商务网站也记录了网上客户购物的交易数据, 33 如客户购买的商品、交易的时间、购物的频率等。对于移动通信客户来说,其行为信息包括通话的时间、通话时长、呼叫客户号码、呼叫状态、通话频率等等。对于电子商务网站来说,点击数据流记录了客户在不同页面之间的浏览和点击数据,这些数据能够很好的反应客户的浏览行为。 与客户描述类信息不同,客户的行为类信息主要是客户在消费和服务过程中的动态交易数据和交易过程中的辅助信息,需要实时的记录和采集。 在拥有完备客户信息采集与管理系统的企业里,客户的交易记录和服务记录是非常容易获得,而且从交易记录的角度来观察往往是比较完备的。 但是需要认识到的是,客户的行为信息并不完全等同与客户的交易和消费记录。客户的行为特征往往需要对客户的交易记录和其他行为数据进行必要的处理和分析后得到的信息汇总和提炼。 客户信息_客户信息 -客户信息的采集 客户信息采集指客户数据的采集、整理和加工;客户知识获取指客户信息的统计、分析和预测;客户知识运用指客户知识的发布、传递和利用。 34 客户信息的采集是企业营销活动的一项系统性工作,面临着如何高效获取并不断更新客户信息的问题,而且客户信息的不同维度来源途径和获取程度存在各种差异而已。 不同的行业和企业定义客户的信息视图有所差别,企业需要通过客户的信息和行为来描述特征,尤其当定义潜在目标客户群时,更是需要如此。 一般说来,从市场营销的角度,描述客户信息的变量可以分为人口信息、行为信息和价值信息3类。在每1类中又可以进行相应的细分。 获取客户信息的来源 一般来说,企业获取客户信息的来源主要来自企业内部已经登记的客户信息、客户销售记录、与客户服务接触过程中收集的信息,以及从外部获得的客户信息。 很多企业也有意识的组织一些活动来采集客户信息,比如经常采用的有奖登记活动,以各种方式对自愿登记的客户进行奖励,要求参加者填写他们的姓名、电话和地址等信息, 35 这样的一些活动能够在短时间内收集到较大量的客户信息。 这此收集客户资料的方法还包括:有奖登记卡和折扣券、会员俱乐部、赠送礼品、利用电子邮件或网站来收集等等。 从外部获取潜在客户数据的渠道 幸运的是,尽管国内的数据营销的社会基础并不十分完善,但仍有很多的机会找到并获取相关的客户数据。这些数据一般都要通过购买、租用或是合作的方式来获取。 以下是可能的潜在客户数据获取渠道: 1.数据公司。数据公司专门收集、整合和分析各类()客户的数据和客户属性。专门从事这一领域的数据公司往往与政府及拥有大量数据的相关行业和机构有着良好而密切的合作关系。一般情况下,这类公司都可以为直复营销行业提供成千上万的客户数据列表。在北京、上海、广州、深圳等国内大中城市,这类公司发展非常迅速,已经开始成为数据营销领域的重要角色。 2.目录营销与直复营销组织。这类组织直接给消费者打电 36 话或邮寄产品目录。只要有合适的价格或目的安排,许多这样的公司都愿意分享他们的数据列表。 3.零售商。一些大型的零售公司也会有丰富的客户会员数据可以获取。 4.信用卡公司。信用卡公司保存有大量的客户交易历史记录,这类数据的质量非常高。 5.信用调查公司。在国外有专门从事客户信用调查的公司,而且这类公司一般愿意出售这些客户的数据。 6.专业调查公司。在消费品行业、服务行业及其他一些行业中,有许多专注于产品调查的公司。这些公司通过长期的积累和合作,通常积累了大量的客户数据。 7.消费者研究公司。这类组织往往分析并构建复杂的客户消费行为特征,这类数据可以通过购买获取。 8.相关服务行业。可以通过与相关行业有大量客户数据的公司进行合作或交换的方式获取客户数据。这类行业包括:通信公司、航空公司、金融机构、旅行社、寻呼公司等。 37 9.杂志和报纸。一些全国性或区域性的杂志和报纸媒体也保有大量的客户订阅信息和调查信息。 10.政府机构。官方人口普查数据,结合政府资助的调查和消费者研究信息都有助于丰富客户数据列表。政府的行政机关和研究机构往往也有大量的客户数据,如公安户政部门的户政数据、税务机关的纳税信息、社保部门的社会保险信息等。 在国内,政府部门往往拥有最完整而有效的大量数据。在以前,这些数据并没有很好的应用于商业用途。政府部门已经在大力加强基础信息数据库的建设工作,在数据基础越来越好,数据的管理和应用越来越 规范 编程规范下载gsp规范下载钢格栅规范下载警徽规范下载建设厅规范下载 的市场趋势下,政府部门也在有意识的开放这些数据用于商业用途。 客户信息_客户信息 -网络营销中的客户信息管理及其实施[1] 科学的客户信息管理是凝聚客户、促进企业业务发展的重要保障。客户信息是一切交易的源泉。由于客户信息自身的特点,进行科学的客户信息管理是信息加工、信息挖掘、信息提取和再利用的需要。通过客户信息管理,可以实现客户信息利用的最大化和最优化。 38 ?1.客户信息管理的内容‘ 网络营销中的客户信息管理是对客户信息进行收集、抽取、迁移、存储、集成、分析和实现的全过程。具体内容如下: a.客户信息的收集。客户信息的收集是客户信息管理的出发点和落脚点。客户信息的收集可以广泛地利用各种渠道和手段,最为有效的是网络营销所提供的大量信息。但也不能忽视传统的方式(例如电话咨询和面对面交谈)发挥的作用,他们可以作为因特网的有效补充,保证客户信息的全面性。 b.客户信息的抽取和迁移。客户信息的抽取和迁移也是在进行客户信息的收集,但其不是直接面对客户,而是利用已有的信息进行一定的加工。因为各种行业所需的客户信息是千差万别,所以各个企业都占有大量的为本企业所用的客户信息。为了实现信息使用的高效率,有必要在各个行业之间推行一套客户信息的使用标准,最大限度地取得信息的一致性。 信息的抽取机制是建立在不同行业的客户信息基础之上。它使用信息过滤和信息模糊检索技术,在其他企业的客户信 39 息数据库中取得所需的客户信息。它强调2个企业之间客户信息数据的相似性,从共性出发,实现信息的抽取。信息的迁移机制是从客户信息的整体角度考虑,在不同企业之间实现客户信息的共享。信息在迁移过程中忽视细微的差别,重视整体的一致性,花费较少的精力取得较大的效果。 c.客户信息的存储和集成。客户信息的存储和处理技术是客户信息管理的核心技术,数据仓库技术在其中占有重要地位。因为客户信息是十分巨大的数据,为了能够实现数据使用的便捷高效,需要对使用的数据库进行慎重选择。建议采用大型的关系型数据库管理系统,并带有对并行处理、决策查询优化的组件。客户信息在存储过程中应考虑冗余问题,避免浪费大量有效的空间。客户信息的集成是指客户信息数据按照时间或空间的序列保存,并进行一定层次的划分后存储在数据库中。用户在查询、统计中都使用集成后的数据,可以提高运行效率。 d.客户信息数据库的设计。客户信息数据库是以家庭或个人为单位的计算机信息处理数据库。针对不同的行业有不同的数据单元,而且客户信息数据库的更新频率较高,数据处理量逐步增大。 40 索引的使用原则。使用索引可以提高按索引查询的速度,但是会降低插入、删除、更新操作的性能。因选择合适的填充因子,针对客户信息数据库更新频繁的特点,亦选用较小的填充因子,在数据页之间留下较多的自由空间,减少页分割和重新组织的工作。 数据的一致性和完整性。为了保证数据库的一致性和完整性,可以设计表间关联。这样关于父表和子表的操作将占用系统的开销。为了提高系统的响应时间,有必要保证合理的冗余水平。 数据库性能的调整。在计算机硬件配置和网络设计确定的情况下,影响到系统性能的因素是数据库性能和客户端程序设计。数据库的逻辑设计去掉了所有冗余数据,提高了系统的吞吐速度。而对于表之间的关联查询,其性能会降低,同时也提高了客户端的编程难度。因此物理设计对于两者应折衷考虑。 数据类型的选择。数据类型的合理选择对于数据库的性能和操作具有很大的影响。在该数据库中应注意避开使用Text和Image字段,日期型字段的优点是有众多的日期函数支持,但其作为查询条件时服务器的性能会降低。 41 e.客户信息的分析和实现。客户信息的分析是客户信息数据库的落脚点,是直接为企业开展其他一系列工作服务的。客户信息的分析是指从大量的数据中提取有用的信息,该信息主要可以分为直接信息和间接信息。直接信息是可以从数据中直接取得,价值量较小,使用范围较小。而间接信息是经过加工获得的较有价值的信息。分析过程主要包括基本信息分析、统计分析、趋势分析、关联分析等。基本信息分析是利用客户的基本情况信息,分析本企业或产品的主要客户的特点,包括年龄、性别、职业、工资状况、学历、地理位置等等。统计分析是利用所有的信息进行统计,分析企业或产品的销售额、利润额、成本量等经济指标,也包括大客户分析和业务流量分析。趋势分析是利用本企业的信息和同行业其他企业的信息,并结合国民经济的整体运行状况,对长期和短期的业务状况进行预测。关联分析是利用客户信息对产品信息、市场信息、企业信息进行分析,综合评价企业的运行状况和产品的供需比例。 ?2.客户信息管理的实施 网络营销中客户信息管理的实施主要是指客户信息数据库的实现。在当前环境下,客户信息数据库技术中数据仓库技 42 术是企业使用的主流,该技术的实现也表明了当代客户信息管理系统的走向。以数据仓库系统为核心技术的数据仓库型客户信息管理系统的广泛应用,为在技术实施以客户为中心的个性化服务提供了可能,又极大影响了企业业务流程的转变,使机构向―扁平化‖方向发展。 数据仓库是面向主题的、集成的、稳定的、不同时间的数据集合,用以支持经营管理活动中的决策制定过程。面向主题是指数据仓库内的信息按照企业重点关心的数据(即主题)进行组织,为按主题进行决策的信息过程提供信息;集成是指数据仓库内的信息不是从各个业务系统简单抽取来得,而经过系统加工、汇总和整理,保证数据仓库内的信息是整个企业的全面信息;随时间变化数据仓库内的信息并不是关于企业当时或某一时刻的信息,而系统记录了企业从过去某个时刻到目前各个阶段的信息,通过这些信息,可以对企业的发展历程和未来趋势做出定量分析和预测;稳定是指一旦某个数据进入数据仓库,一般情况下将被长期保留,也就是数据仓库中一般有大量的插入和查询操作,但修改和删除操作比较少。 数据仓库的特点可以描述为主题突出的集成性的信息管理系统。它由源数据、仓库管理和分析工具组成。数据仓库的 43 数据来源于多个数据源,包括本企业的内部数据,也有来自外部的相关数据。网络营销中源数据主要从开展网络营销的实践中获得,包括企业所关注的关于客户的各类信息。仓库管理是根据信息需求的要求进行数据建模,从数据源到数据仓库的数据抽取、处理和转换,确定数据存储的物理结构等。这一阶段是进行客户信息管理的基础,因为大量的源数据经过仓库管理进行了初步的处理。分析工具指完成决策所需的各种信息检索方法、联机分析方法和数据挖掘方法。这一阶段是针对企业的客户群服务的,它直接与客户发生联系,因为企业的产品企划就是在这里完成。数据仓库型客户信息系统继承了以往信息管理系统的一切手法,并以其强大的数据检索和分析功能,为企业提供了综合性的及时信息服务手段,成为客户信息管理系统发展的主流。 客户信息管理在各个方面的运用,已经显示出了强大的生命力。特别是在当今企业以网络营销为支撑来开展业务的情况下,由于网络信息的复杂性和多样性,开展信息管理迫在眉睫。客户信息管理已经也必将会成为企业生存取胜的重要一环。 客户信息_客户信息 -客户信息包含内容 客户名称描述客户名称,可以客户的公司名称也可以是易记简称。比如:广州市人易软件技术有限公司或人易软件。 44 所属区域按照客户的业务范围进行定义,如果客户的经营范围是国内大区,可以分为:华南、华东、华中、华北、西南、西北等。这项字段的定义是在―系统设置‖->―系统字典‖->―区域‖中设置。客户性质就是客户的企业性质。可以设置为:国有企业、中外合资、私营或个体户、合伙企业、外商独资等等。这项字段的定义是在―系统设置‖->―系统字典‖->―客户性质‖中设置。客户来源可以设置为:网站广告、展览会、客户推荐、电话、邮件、报刊广告、黄页、朋友介绍等等。这项字段的定义是在―系统设置‖->―系统字典‖->―客户来源‖中设置。客户类别可以设置为:潜在终端客户、潜在代理、现有终端客户、现有代理、流失终端客户、流失代理等等。这项字段的定义是在―系统设置‖->―系统字典‖->―客户类别‖中设置。所属行业按照用户的客户的所属行业进行定义;可以设置为:教育、医疗卫生、政府、化工等等。这项字段的定义是在―系统设置‖->―系统字典‖->―行业‖中设置。信用状况销售人员自行衡量评估客户的信用状况。一至五星。联系策略设定这个客户的联系周期,系统为了防止用户长时间不与客户联系,系统将按照这个策略给用户提醒跟进计划。这项字段的定义是在―系统设置‖->―系统字典‖->―联系策略‖中设置。但是设略的定义是在―系统设置‖->―系统字典‖->―客户联系策略定义‖中定义。购买策略设定这个客 45 户的购买周期,是为了防止客户流失而用户又没留意,当客户超出这个策略时间没有购买记录的话,系统自动生成一条客户业务下滑提醒,让用户及时采取一些行动,挽留客户。这项字段的定义是在―系统设置‖->―系统字典‖->―购买策略‖中设置。但是设略的定义是在―系统设置‖->―系统字典‖->―客户购买策略定义‖中定义。员工数量这个字段是为了能更清楚地了解客户的现状。规模这项字段的定义是在―系统设置‖->―系统字典‖->―销售规模‖中设置。从业时间这项字段的定义是在―系统设置‖->―系统字典‖->―从业时间‖中设置。行业地位这个字段是为了能更清楚地了解客户的重要程度。可以设置为:领导者、较有影响、影响一般和没有影响力等等。这项字段的定义是在―系统设置‖->―系统字典‖->―行业地位时间‖中设置。结算方式例如:现款现货、1个月回款、票到付款、两个月回款、三个月回款等等。这项字段的定义是在―系统设置‖->―系统字典‖->―结算方式‖中设置。希望代理了解经销商客户的发展动向。电话客户的常用联系电话,是公司的电话。传真客户的传真号码。电子邮件用户可以通过系统给客户发送电子邮件,而不用重复输入。单位网址纪录客户的单位网址。方便查找和了解客户的更多信息。通讯地址方便给客户邮寄资料。邮政编码纪录客户所在地区的邮政编码。交易次数系统自动统计客户的消费次数。交易金额系统自动统计客户的 46 总交易金额,方便了解客户的重要程度。首次交易系统自动纪录客户的业务往来开始时间。最近交易系统自动纪录客户的最近一次购买时间,方便跟踪客户。 客户信息_客户信息 -客户信息维护软件 好笔头业务云笔记 有道云笔记 为知笔记 以上关于―[基本类型的常量]‖的信息由网友上传分享,希望对您有所帮助 ,感谢您对就爱阅读网的支持~ 47
本文档为【[基本类型的常量]决议范文:决议的基本类型】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: 免费 已有0 人下载
最新资料
资料动态
专题动态
is_477730
暂无简介~
格式:doc
大小:73KB
软件:Word
页数:0
分类:生活休闲
上传时间:2017-09-25
浏览量:7