【TechTarget中国原创】Barbara Latulippe是跨国医疗设备厂商Smith & Nephew的企业数据架构师。最近我们就MDM的使用情况采访了他。
SearchSOA.com: Smith and Nephew对待MDM,采用面向批处理的方法,还是实时更新或者面向SOA的方法?
Barbara Latulippe:目前在MDM上,我们更多地采用比处理的方法。但是贯穿我们的蓝图和策略的想法是寻求一种实时的面向SOA和面向业务流程的路线。
【TechTarget中国原创】Barbara Latulippe是跨国医疗设备厂商Smith & Nephew的企业数据架构师。最近我们就MDM的使用情况采访了他。
SearchSOA.com: Smith and Nephew对待,采用面向批处理的方法,还是实时更新或者面向SOA的方法?
Barbara Latulippe:目前在MDM上,我们更多地采用比处理的方法。但是贯穿我们的蓝图和策略的想法是寻求一种实时的面向SOA和面向业务流程的路线。
TT SOA编辑推荐:
SearchSOA:对于主数据的需求源自什么呢?
Latulippe:我们的数据有不同的源,需要手工集中得出一些信息。我们缺乏贯穿企业环境的标准,而且还存在很多业务流程故障。
SearchSOA:在Smith & Nephew中,哪些地方的是成熟化的呢?
Latulippe:我们关于成熟的标准有一份四年期限的蓝图。所以我们从贯穿企业的最基础的少部分标准开始,我们已经建立了数据治理以及把整个MDM框架放到这个视图、策略中,当然,度量和业务治理是任何项目的关键所在。因此我相信在这一点上,怀着对一份完整的成熟蓝图的期望,到2012年,我们真的可以达到一种精益和面向服务架构。
SearchSOA:您讲到现在更大程度上是面向批处理的。这个系统的更新频率大概是多久呢?
Latulippe:目前我们支持三个主要的计划。一是多个SAP客户端之间的数据同步,而且是每日夜间运行的。其二是少量积极清理数据的业务用户计分卡的数据质量和数据剖析。这些是每周运行一次。{zh1}是支持多个项目,而且却是这些项目容量巨大,而且是必须的。这部分运行时基于需求的,每隔数天一次。
SearchSOA:那么在更新这些不同的系统的时候,主数据集的更新速度怎么样?
Latulippe:从我们最近的数据转移项目来看,我们规定现行程序使用遗留系统迁移工作台(SAP的一种工具)的时间是12+小时。当我们转向Informatica数据集成时,运行同样的数据集的时间要少于半个小时。
SearchSOA:大数据量会成为维护主数据的问题吗?
Latulippe:现在,是批处理模式,对我们来说,数量不是问题。现在的产品一直很快,在支持数据迁移项目后可能还可以移动更大量的数据。
SearchSOA:目前{zd0}的挑战是什么?
Latulippe:{zd0}的挑战是业务协同。业务规则非常集中。另一个挑战是让业务所有权驱动贯穿企业的标准水平。最初我们没有工具。因此在将使用的业务工具选择上的决策也是一项挑战。选取使用的友好的业务工具很重要。
SearchSOA:您提到了所有权的问题。我知道企业的不同领域会区别定义他们的数据。您如何解决创建通用数据定义的问题?
Latulippe:我们使用了Informatica进行了数据剖析,而且这些数据是基于我们的数据字典。从这里我们使得三个业务单元集合在一起,我们不得不回滚并通过一些工作间来来促进,这些都是独立完成的,通过这种方法试图使企业中所有的数据项目达成一致。在极大程度上,有很多协同作用,而且资源遵循通用的定义。问题是,我们发现我们是否需要新的数据域。但是很多时候,我们会在管权企业的关键域内达到一种成功的高水平通用驱动。因此,这些都是通过我们的计分卡测量的。随后业务利用计分卡信息确保每周一次清理。
SearchSOA:什么时候转到Informatica的?
Latulippe:2008年年底一直到2009年一年都在做这件事。我们想继续用Informatica创建资产组合应用。
SearchSOA: Smith & Nephew在拥抱主数据的过程中都达到了什么结果?
Latulippe:现在我们拥有企业协作。有很多通过业务规则来调用的专利知识内容。三个业务部门对于正在改进的数据清理工作感到很振奋。我们可以避免数据冲突,也标志着至少140万美元和错失机会的成本。我可以很自信地说现在的业务很值得骄傲,我们可以在相同的关键领域内达到至少95%的数据质量,诸如产品和客户。现在我们抓住了厂商。