- 浏览: 68567 次
文章分类
最新评论
<div class="iteye-blog-content-contain" style="font-size: 14px;">
从事BI多年,经历了经营分析系统的大建设,大发展时期,也有幸处在大数据与传统BI系统的交替之际,因此特别来谈谈,传统BI还能走多远?
<img src="http://p1.pstatp.com/large/e4900012f674b176306" alt="传统BI还能走多远?">
技术为业务服务,因此这里不谈技术,更多从使用者的角度去阐述原因,理了八个方面,每个方面都是笔者亲历,当然任何穷举法都无法证明绝对正确,但希望能引起思考。
1、资源申请-从月到日,不可同日耳语
自从企业有了大数据MPP、HADOOP、流处理三个资源池,租户生效基本都是所见即所得。公司甚至为了申请方便,搞了资源套餐,我们申请资源叫点套餐,这种资源申请模式为对外灵活开放数据提供了基本保障,在半年时间内,内外部租户已经开出了100多个(以前可能叫数据集市),现在回想起来,如果没有这个能力,公司的对外变现基本不可能。
无论是阿里云还是AWS,都是这个套路,但为什么企业要自己做,因为较大的企业本身内部就是个巨大的市场,有各类的应用要求,从数据、安全、接口、技术等各个方面讲,都不适合放到外部平台。
传统BI的小型机阶段,没有资源池概念,资源申报按硬件台数算,需要提前申请预算,即使硬件到位,集成时间也过于漫长,记得以前为11个地市规划11个数据集市,采用四台570划分12个分区,搞了1个多月,效率不可同日而语。
大数据系统在资源粒度、申请速度、资源动态扩展等各个方面都完爆传统BI,在业务快速部署上具有无法比拟的优势,为业务创新奠定了很好的基础。如果你做过DB2的项目集成啥的,每一次都涉及规划、划盘、分区、安装等等,就知道啥叫等待。
2、数据采集-多样性才能创造更多应用场景
<img src="http://p3.pstatp.com/large/e490001300b29e6288d" alt="传统BI还能走多远?">
传统ETL的基本套路都是从源数据库导出成文本,然后通过客户端工具导入到目的数据库,导出用EXPORT,传输用FTP,导入用IMPORT,当然,同种类型的数据库可能用DBLINK等这种快捷方式,程序中采用ODBC啥的连接数据库来进行操作。很多公司专门开发了一些多库之间互导数据的工具,当然一般企业级的平台不用,可扩展性、灵活性太差。传统ETL的技术非常适应以天或月为分析周期的静态应用要求。
我想大多数企业,BI的数据分析现在周期基本还是天,笔者做了10年BI,记得企业很长一段时间,是以月为单位ETL数据的,当然,从业务的角度讲,够用即可,有人会问,数据的周期减少到小时、分钟、秒以致实时,到底有多大现实意义?但真的业务上不需要更短周期的分析吗?是因为大家BI分析的套路习惯使然还是能力不够使然?
从取数的角度讲,业务人员永远希望你取得数据越快越及时越好,我们原来只出月报,后来性能上去了,复杂的日报也能出了,日报变成了标配,日报之后呢,实时是否应该成为未来的标配?
从应用的角度讲,企业除了一堆运营指标报表,一般有营销和风控两个角度有数据的现实需求,实时营销显然比静态营销效果更好一点,BAT如果不搞实时营销基本就没法活,实时风控显然比离线风控效果更好有一点,比如反欺诈系统,如果不是实时的监听,如何在欺骗的事中介入?
从趋势的角度讲,如果你认同未来的世界是满足个性化的世界,那么,只有实时的数据才能蕴含更多的信息,才能给你更为个性化的服务,你会想到太多的场景需要实时化采集。
即使你没有以上提的任何需求,但技术和业务永远是互动的,你具备了按小时提供的能力,人家就会创造按小时的业务场景,你具备了实时的提供能力,人家就会创造实时的业务场景。谁是蛋谁是鸡说不清楚,但如果你想服务的更好,就应该在技术层面更前瞻性一点。
但传统BI能支撑吗?传统企业的BI不实时,本质不是没有需求,也许是能力不够所致,我记得以前CRM上线要搞个实时放号指标监控,也是蛮困难的事情,以前出账只有月报啊,现在,没有日报,还能活? 我记得很多年前第一份日账报表是IT人员自己提的,因为能力到了。 那未来10年呢?
ETL是传统数据仓库中的一个概念,我觉得该升级了,多样化的采集方式是王道,这是大势所趋,有三样东西是最重要的,一个是采集方式的百花齐放,即消息、数据流、爬虫、文件、日志增量都能支持,二是数据的流动不是单向的,不仅仅是E,而且是X,即交换,这样就极大衍生了ETL的内涵,三是数据采集的分布式,可以并行动态扩展,ETL的读写问题能较好解决。这些恰是传统BI做不到的。
3、计算性能-性价比是王道,更迭速度比想象的快
<img src="http://p3.pstatp.com/large/e49000130d1245bcbf9" alt="传统BI还能走多远?">
DB2、Teradata在数据仓库领域一直占据着巨大的份额,我们用GBASE+HADOOP花了半年时间把2台P780替换掉了,综合性能可以说是原来的1.5倍,但投资只有几分之一,虽然前期涉及一些调优,对于代码也有更高的要求,但性价比非常高,关键是能够多租户动态扩展,容灾能力也超DB2。记得以前DB2一旦节点出现问题,虽然也能切换,但性能往往下降一半,极大影响业务。
传统数据仓库,对于不同的数据处理方式往往是一视同仁的,但事实上,不同数据处理阶段,对于数据处理的要求存在结构性的不同,一些简单的转化和汇总,在库外方式处理比库内处理合算,但传统BI习惯于把数据全部导入到数据仓库中做,浪费了珍贵的小型机系统资源,性价比很低。因此,当前MPP+HADOOP混搭型数据仓库渐成趋势,HADOOP擅长海量简单的批量处理,MPP擅长数据关联分析,比如eBAY,中国移动等都采用了类似的方案。
从综合的角度讲,DB2等数据仓库当然有它的优势,比如引以为豪的稳定,但这些技术过于依赖国外,感觉运维能力每况愈下,关键问题的解决越来越力不从心,稳定这个词也要打上大大的问号,不知道其他企业感觉如何。要相信笔者不是打国产GBASE广告,坑很多,但值得拥有。
4、报表系统-审美疲劳不可避免,个性化是趋势
<img src="http://p5a.pstatp.com/large/e490001329b57616b71" alt="传统BI还能走多远?">
用过很多商业化的报表系统,比如BRIO、BO、BIEE等等,系统都提供了较好的可视化界面,对于轻量级数据的展现也不错,但我觉得这个对于大型企业来讲没有吸引力。
一是可替代性太强,现在开源组件太多了,功能也雷同,为什么要用标准化被捆绑的东西,对于具有一定开发能力的公司,似乎无此必要。
二是开源性太差,企业有大量个性化的要求,比如安全控制等等,但这些产品的开放性较差,很多时候满足不了要求。
三是不灵活,再通用,能做得过EXCEL吗,不要奢望从一个报表系统上能直接摘取一个报表粘贴到一个报告上,总是要二次加工,既然这样,还不如数据直接灌入EXCEL简单。
四是速度太慢,当前的报表已经不是传统BI意义的报表,因为维度和粒度要求很细,结果记录数过亿的也不在少数,比如我们的指标库一年记录是百亿条,传统BI报表根本无法支撑,样子好看是暂时的,业务人员最关注的始终是报表的速度。
当然,对于小企业可能仍然具有一定吸引力,但这个开放的时代,需求和新技术层出不穷,这类标准化的产品能赶上变化吗?如果你希望HBASE跟BIEE结合,怎么办?是等着厂家慢慢推出版本,还是干脆自己干?
5、多维分析-适应性较差,定制化才是方向
用过一些商业化的多维分析系统,也叫OLAP吧,比如IBM的ESSBASE。OLAP是几十年前老外提出的概念,通过各维度分析快速得到所需的结果,但这个OLAP到底有多大的实用价值?
OLAP产品总是想通过通用化的手段解决一个专业性分析问题,从诞生开始就有硬伤,因为分析变化无常,你是希望自己在后台随心所欲用SQL驰骋江湖还是面对一个呆板的界面进行固定的复杂的多维操作?笔者作为技术人员不喜欢用它,但业务人员也不喜欢用它,操作门槛偏高。
在开放性上,传统OLAP的后台引擎仍然是传统数据库,显然不支持一些海量的大数据系统;打CUBE是个设计活,非常耗时,每次更新数据要重打CUBE,总是让笔者抓狂,不知道现在有啥改进;千万级数据量、10个维度估计也是它的性能极限了吧;最后,以前打的CUBE真的能解决你当前的分析问题?
淘宝的数据魔方一定程度说明了OLAP的发展方向,针对特定的业务问题,提供特定的多维数据解决方案,我们需要提供给用户的是一个在体验、性能、速度上都OK的专业化系统。
业务导向+定制化的后台数据解决方案(比如各类大数据组件)是未来OLAP的方向。
6、挖掘平台-从样本到全量,需要全面升级装备
<img src="http://p3.pstatp.com/large/e4e0001332a045c2d0b" alt="传统BI还能走多远?">
SAS、SPSS都是传统数据挖掘的利器,但他们大部分时候只能在PC上进行抽样分析,显然,大数据的全量分析是其无法承担的,比如社交网络、时间序列等等。
传统数据挖掘平台似乎没有拿得出手的东西,以前IBM DB2有个DATA MINER,后来放弃了,Teradata可以,有自己的算法库,但面对海量数据其计算能力显然也力不从心,跟大数据的SPARK等差了一个档次,我们接触的很多合作伙伴,大多开始将SPARK做为大规模并行算法的标准套件了。
即使如逻辑回归、决策树等传统算法, SPARK显然能基于更多的样本数据甚至全量数据进行训练,比SPSS,SAS仅能在PC上捣鼓要好很多。
传统BI的SAS和SPSS仍然有效,但基于大数据平台的全量算法也应该纳入BI的视野。
7、数据管理-不与时俱进,就是一个死
数据管理类的系统很难建,因为没有你生产系统也不会死,有了也很难评估价值,且运维的成本过高,一不小心就陷入了到底谁服务谁的问题。
最早接触元数据管理系统是在2006-2007年吧,那个时候搞元数据还是蛮有前瞻性的,搞了很多年,却明白一个道理,如果你把元数据当成一个外挂,这个元数据系统没有成功的可能,搞事后补录这种看似可以的方法,无论制度如何完善,系统解析能力如何强大,也最终会走向源系统和元数据两张皮的现象,失去应有的价值。
只要不解决这个问题,我严重怀疑传统BI元数据管理真正成功的可能。大数据时代,随着数据量、数据类型、技术组件等的不断丰富,搞事后元数据更是不可能的事情。
新时代的数据管理系统长啥样?一提倡生产即管理,也就是说,元数据管理的规则是通过系统化的方式固话在系统生产流程中,我们提倡无文档的数据开发,因为文档就是元数据,所有关于元数据的要求已经梳理成规则并成为数据开发环境的一部分。比如你建个表,在给你可视化开发界面时,关于表的定义已经强制要求在线输入必须的说明,你写的代码也被规则化,以便于元数据自动解析,成为数据质量监控的一部分。
二要能评估数据效益,通过一的手段,数据跟应用可以形成关联,应用的价值可以传导为数据的价值,为数据的价值管理提供标准,做数据最郁闷的是,我创造了一个模型,但不知道这个模型的价值,自己的工作变得可有可无,我也不知道如何开展优化,几十万张表烂在哪里,不敢去清理它们。
三是跨平台管理,这么多的技术组件,比如HADOOP、MPP、流处理等等,你的管理系统要能无缝衔接和透明访问,每新增一类组件,都要能及时接入管理系统,否则,接入一个,该组件上的数据就成为游离之外的数据,数据管理无从谈起。
数据管理,最怕半拉子工程,要系统化,就要做彻底,否则,还不如文档记录算了,没什么多大的区别。
8、审视定位-BI干BI的事情,各司其职
传统BI,做报表取数的太多,研究平台和算法的太少,重复劳动太多,创造性工作太少,随着业务的发展,BI的人逐渐老去,但系统中留下的东西不多,非常遗憾。
大数据时代到来,这种情况需要改变,该是重新审视自己的定位的时候了,报表取数的确是BI的基础工作,但从事BI的人不应该总是扮演拉磨的驴子的角色,应该是最终掌舵的那个人,我可以拉一会,但我需要研究如何拉得更快,最后让机器来代替我拉,或者让拉磨的工作非常愉快,需要的人可以自己来拉。
BI的人有太多需要创新和学习的东西,如果有太多取数,搞个取数机器人,如果太多报表,搞个指标体系,如果太多需求,搞个自助工具或给个租户环境,诱惑业务人员自己来做,需求永无止境,欲望永不满足,靠人肉填坑,永远填不满的,需要BI人的引导,授人予鱼,不如授人予渔。
传统BI还能走多远?提了八点,对于处于不同阶段的人,可能也有不同的理解,当然仅为一家之言,希望有所启示。
更多大数据与分析相关行业资讯、解决方案、案例、教程等请点击查看>>>
</div>
从事BI多年,经历了经营分析系统的大建设,大发展时期,也有幸处在大数据与传统BI系统的交替之际,因此特别来谈谈,传统BI还能走多远?
<img src="http://p1.pstatp.com/large/e4900012f674b176306" alt="传统BI还能走多远?">
技术为业务服务,因此这里不谈技术,更多从使用者的角度去阐述原因,理了八个方面,每个方面都是笔者亲历,当然任何穷举法都无法证明绝对正确,但希望能引起思考。
1、资源申请-从月到日,不可同日耳语
自从企业有了大数据MPP、HADOOP、流处理三个资源池,租户生效基本都是所见即所得。公司甚至为了申请方便,搞了资源套餐,我们申请资源叫点套餐,这种资源申请模式为对外灵活开放数据提供了基本保障,在半年时间内,内外部租户已经开出了100多个(以前可能叫数据集市),现在回想起来,如果没有这个能力,公司的对外变现基本不可能。
无论是阿里云还是AWS,都是这个套路,但为什么企业要自己做,因为较大的企业本身内部就是个巨大的市场,有各类的应用要求,从数据、安全、接口、技术等各个方面讲,都不适合放到外部平台。
传统BI的小型机阶段,没有资源池概念,资源申报按硬件台数算,需要提前申请预算,即使硬件到位,集成时间也过于漫长,记得以前为11个地市规划11个数据集市,采用四台570划分12个分区,搞了1个多月,效率不可同日而语。
大数据系统在资源粒度、申请速度、资源动态扩展等各个方面都完爆传统BI,在业务快速部署上具有无法比拟的优势,为业务创新奠定了很好的基础。如果你做过DB2的项目集成啥的,每一次都涉及规划、划盘、分区、安装等等,就知道啥叫等待。
2、数据采集-多样性才能创造更多应用场景
<img src="http://p3.pstatp.com/large/e490001300b29e6288d" alt="传统BI还能走多远?">
传统ETL的基本套路都是从源数据库导出成文本,然后通过客户端工具导入到目的数据库,导出用EXPORT,传输用FTP,导入用IMPORT,当然,同种类型的数据库可能用DBLINK等这种快捷方式,程序中采用ODBC啥的连接数据库来进行操作。很多公司专门开发了一些多库之间互导数据的工具,当然一般企业级的平台不用,可扩展性、灵活性太差。传统ETL的技术非常适应以天或月为分析周期的静态应用要求。
我想大多数企业,BI的数据分析现在周期基本还是天,笔者做了10年BI,记得企业很长一段时间,是以月为单位ETL数据的,当然,从业务的角度讲,够用即可,有人会问,数据的周期减少到小时、分钟、秒以致实时,到底有多大现实意义?但真的业务上不需要更短周期的分析吗?是因为大家BI分析的套路习惯使然还是能力不够使然?
从取数的角度讲,业务人员永远希望你取得数据越快越及时越好,我们原来只出月报,后来性能上去了,复杂的日报也能出了,日报变成了标配,日报之后呢,实时是否应该成为未来的标配?
从应用的角度讲,企业除了一堆运营指标报表,一般有营销和风控两个角度有数据的现实需求,实时营销显然比静态营销效果更好一点,BAT如果不搞实时营销基本就没法活,实时风控显然比离线风控效果更好有一点,比如反欺诈系统,如果不是实时的监听,如何在欺骗的事中介入?
从趋势的角度讲,如果你认同未来的世界是满足个性化的世界,那么,只有实时的数据才能蕴含更多的信息,才能给你更为个性化的服务,你会想到太多的场景需要实时化采集。
即使你没有以上提的任何需求,但技术和业务永远是互动的,你具备了按小时提供的能力,人家就会创造按小时的业务场景,你具备了实时的提供能力,人家就会创造实时的业务场景。谁是蛋谁是鸡说不清楚,但如果你想服务的更好,就应该在技术层面更前瞻性一点。
但传统BI能支撑吗?传统企业的BI不实时,本质不是没有需求,也许是能力不够所致,我记得以前CRM上线要搞个实时放号指标监控,也是蛮困难的事情,以前出账只有月报啊,现在,没有日报,还能活? 我记得很多年前第一份日账报表是IT人员自己提的,因为能力到了。 那未来10年呢?
ETL是传统数据仓库中的一个概念,我觉得该升级了,多样化的采集方式是王道,这是大势所趋,有三样东西是最重要的,一个是采集方式的百花齐放,即消息、数据流、爬虫、文件、日志增量都能支持,二是数据的流动不是单向的,不仅仅是E,而且是X,即交换,这样就极大衍生了ETL的内涵,三是数据采集的分布式,可以并行动态扩展,ETL的读写问题能较好解决。这些恰是传统BI做不到的。
3、计算性能-性价比是王道,更迭速度比想象的快
<img src="http://p3.pstatp.com/large/e49000130d1245bcbf9" alt="传统BI还能走多远?">
DB2、Teradata在数据仓库领域一直占据着巨大的份额,我们用GBASE+HADOOP花了半年时间把2台P780替换掉了,综合性能可以说是原来的1.5倍,但投资只有几分之一,虽然前期涉及一些调优,对于代码也有更高的要求,但性价比非常高,关键是能够多租户动态扩展,容灾能力也超DB2。记得以前DB2一旦节点出现问题,虽然也能切换,但性能往往下降一半,极大影响业务。
传统数据仓库,对于不同的数据处理方式往往是一视同仁的,但事实上,不同数据处理阶段,对于数据处理的要求存在结构性的不同,一些简单的转化和汇总,在库外方式处理比库内处理合算,但传统BI习惯于把数据全部导入到数据仓库中做,浪费了珍贵的小型机系统资源,性价比很低。因此,当前MPP+HADOOP混搭型数据仓库渐成趋势,HADOOP擅长海量简单的批量处理,MPP擅长数据关联分析,比如eBAY,中国移动等都采用了类似的方案。
从综合的角度讲,DB2等数据仓库当然有它的优势,比如引以为豪的稳定,但这些技术过于依赖国外,感觉运维能力每况愈下,关键问题的解决越来越力不从心,稳定这个词也要打上大大的问号,不知道其他企业感觉如何。要相信笔者不是打国产GBASE广告,坑很多,但值得拥有。
4、报表系统-审美疲劳不可避免,个性化是趋势
<img src="http://p5a.pstatp.com/large/e490001329b57616b71" alt="传统BI还能走多远?">
用过很多商业化的报表系统,比如BRIO、BO、BIEE等等,系统都提供了较好的可视化界面,对于轻量级数据的展现也不错,但我觉得这个对于大型企业来讲没有吸引力。
一是可替代性太强,现在开源组件太多了,功能也雷同,为什么要用标准化被捆绑的东西,对于具有一定开发能力的公司,似乎无此必要。
二是开源性太差,企业有大量个性化的要求,比如安全控制等等,但这些产品的开放性较差,很多时候满足不了要求。
三是不灵活,再通用,能做得过EXCEL吗,不要奢望从一个报表系统上能直接摘取一个报表粘贴到一个报告上,总是要二次加工,既然这样,还不如数据直接灌入EXCEL简单。
四是速度太慢,当前的报表已经不是传统BI意义的报表,因为维度和粒度要求很细,结果记录数过亿的也不在少数,比如我们的指标库一年记录是百亿条,传统BI报表根本无法支撑,样子好看是暂时的,业务人员最关注的始终是报表的速度。
当然,对于小企业可能仍然具有一定吸引力,但这个开放的时代,需求和新技术层出不穷,这类标准化的产品能赶上变化吗?如果你希望HBASE跟BIEE结合,怎么办?是等着厂家慢慢推出版本,还是干脆自己干?
5、多维分析-适应性较差,定制化才是方向
用过一些商业化的多维分析系统,也叫OLAP吧,比如IBM的ESSBASE。OLAP是几十年前老外提出的概念,通过各维度分析快速得到所需的结果,但这个OLAP到底有多大的实用价值?
OLAP产品总是想通过通用化的手段解决一个专业性分析问题,从诞生开始就有硬伤,因为分析变化无常,你是希望自己在后台随心所欲用SQL驰骋江湖还是面对一个呆板的界面进行固定的复杂的多维操作?笔者作为技术人员不喜欢用它,但业务人员也不喜欢用它,操作门槛偏高。
在开放性上,传统OLAP的后台引擎仍然是传统数据库,显然不支持一些海量的大数据系统;打CUBE是个设计活,非常耗时,每次更新数据要重打CUBE,总是让笔者抓狂,不知道现在有啥改进;千万级数据量、10个维度估计也是它的性能极限了吧;最后,以前打的CUBE真的能解决你当前的分析问题?
淘宝的数据魔方一定程度说明了OLAP的发展方向,针对特定的业务问题,提供特定的多维数据解决方案,我们需要提供给用户的是一个在体验、性能、速度上都OK的专业化系统。
业务导向+定制化的后台数据解决方案(比如各类大数据组件)是未来OLAP的方向。
6、挖掘平台-从样本到全量,需要全面升级装备
<img src="http://p3.pstatp.com/large/e4e0001332a045c2d0b" alt="传统BI还能走多远?">
SAS、SPSS都是传统数据挖掘的利器,但他们大部分时候只能在PC上进行抽样分析,显然,大数据的全量分析是其无法承担的,比如社交网络、时间序列等等。
传统数据挖掘平台似乎没有拿得出手的东西,以前IBM DB2有个DATA MINER,后来放弃了,Teradata可以,有自己的算法库,但面对海量数据其计算能力显然也力不从心,跟大数据的SPARK等差了一个档次,我们接触的很多合作伙伴,大多开始将SPARK做为大规模并行算法的标准套件了。
即使如逻辑回归、决策树等传统算法, SPARK显然能基于更多的样本数据甚至全量数据进行训练,比SPSS,SAS仅能在PC上捣鼓要好很多。
传统BI的SAS和SPSS仍然有效,但基于大数据平台的全量算法也应该纳入BI的视野。
7、数据管理-不与时俱进,就是一个死
数据管理类的系统很难建,因为没有你生产系统也不会死,有了也很难评估价值,且运维的成本过高,一不小心就陷入了到底谁服务谁的问题。
最早接触元数据管理系统是在2006-2007年吧,那个时候搞元数据还是蛮有前瞻性的,搞了很多年,却明白一个道理,如果你把元数据当成一个外挂,这个元数据系统没有成功的可能,搞事后补录这种看似可以的方法,无论制度如何完善,系统解析能力如何强大,也最终会走向源系统和元数据两张皮的现象,失去应有的价值。
只要不解决这个问题,我严重怀疑传统BI元数据管理真正成功的可能。大数据时代,随着数据量、数据类型、技术组件等的不断丰富,搞事后元数据更是不可能的事情。
新时代的数据管理系统长啥样?一提倡生产即管理,也就是说,元数据管理的规则是通过系统化的方式固话在系统生产流程中,我们提倡无文档的数据开发,因为文档就是元数据,所有关于元数据的要求已经梳理成规则并成为数据开发环境的一部分。比如你建个表,在给你可视化开发界面时,关于表的定义已经强制要求在线输入必须的说明,你写的代码也被规则化,以便于元数据自动解析,成为数据质量监控的一部分。
二要能评估数据效益,通过一的手段,数据跟应用可以形成关联,应用的价值可以传导为数据的价值,为数据的价值管理提供标准,做数据最郁闷的是,我创造了一个模型,但不知道这个模型的价值,自己的工作变得可有可无,我也不知道如何开展优化,几十万张表烂在哪里,不敢去清理它们。
三是跨平台管理,这么多的技术组件,比如HADOOP、MPP、流处理等等,你的管理系统要能无缝衔接和透明访问,每新增一类组件,都要能及时接入管理系统,否则,接入一个,该组件上的数据就成为游离之外的数据,数据管理无从谈起。
数据管理,最怕半拉子工程,要系统化,就要做彻底,否则,还不如文档记录算了,没什么多大的区别。
8、审视定位-BI干BI的事情,各司其职
传统BI,做报表取数的太多,研究平台和算法的太少,重复劳动太多,创造性工作太少,随着业务的发展,BI的人逐渐老去,但系统中留下的东西不多,非常遗憾。
大数据时代到来,这种情况需要改变,该是重新审视自己的定位的时候了,报表取数的确是BI的基础工作,但从事BI的人不应该总是扮演拉磨的驴子的角色,应该是最终掌舵的那个人,我可以拉一会,但我需要研究如何拉得更快,最后让机器来代替我拉,或者让拉磨的工作非常愉快,需要的人可以自己来拉。
BI的人有太多需要创新和学习的东西,如果有太多取数,搞个取数机器人,如果太多报表,搞个指标体系,如果太多需求,搞个自助工具或给个租户环境,诱惑业务人员自己来做,需求永无止境,欲望永不满足,靠人肉填坑,永远填不满的,需要BI人的引导,授人予鱼,不如授人予渔。
传统BI还能走多远?提了八点,对于处于不同阶段的人,可能也有不同的理解,当然仅为一家之言,希望有所启示。
更多大数据与分析相关行业资讯、解决方案、案例、教程等请点击查看>>>
</div>
发表评论
-
干货 | 人工智能体系大纲图谱(初、中、高级篇)
2016-11-08 10:08 757可以用来开发机器学习主要有三门语言:Python Java ... -
Hadoop和大数据:60款顶级开源工具
2016-11-07 10:10 915说到处理大数据的工具,普通的开源解决方案(尤其是Apache ... -
流式大数据实时处理—技术、平台及应用
2016-10-24 13:26 4418编者注:陈纯,计算机应用专家,浙江大学计算机科学与技术学院教 ... -
一张图,带你读懂 IBM 云上真实洞察数据那些事
2016-10-20 13:43 661在传统的交易数据库系统中,伴随着客户的交易行为发生,在业务系 ... -
全球最值得关注的100家人工智能公司(中国27家)
2016-10-19 11:30 1658在过去两年多时间里,机器之心采访、记录和报道了全球人工智能领 ... -
医疗大数据解决方案
2016-10-18 14:36 1463医疗大数据生命周期 ... -
IBM 全新大数据分析平台,助力数据云化
2016-10-17 11:16 774IT架构实现云化已经是企业IT战略的大势所趋。无论是采用私 ... -
6个用于大数据分析处理的最好工具
2016-10-14 14:03 922在大数据和大数据分析 ... -
InfoSphere Streams——实时大数据分析平台
2016-10-13 14:14 920了解 InfoSphere Streams,它是 IBM 大 ... -
干货 | 数据挖掘入门必看10个问题
2016-10-12 10:40 794NO.1 Data Mining 和统计 ... -
Apache Hadoop 3.0新版本介绍及未来发展方向(内附PDF)
2016-10-11 11:04 751本文PPT来自 Hadoop研发工程师张喆、陈霄讲《Apac ... -
拥抱开源 - 云上元数据管理
2016-09-30 10:50 1898上期我们讲述的是实现数据工程师梦想的一个小目标《梦想成真,只 ... -
IBM SPSS Modeler数据库内建模
2016-09-29 11:08 1368IBM SPSS Modeler Server支持对数据库供 ... -
惊艳全球数据行业的16个数据可视化例子
2016-09-28 11:19 1263数据是非常强大的。当然,如果你能真正理解它想告诉你的内容,那 ... -
10款超好用的工具助力大数据与分析技术
2016-09-27 11:55 738考虑到现有技术解决方案的复杂性与多样化,企业往往很难找到适合 ... -
10款超好用的工具助力大数据与分析技术
2016-09-27 11:49 0考虑到现有技术解决方案的复杂性与多样化,企业往往很难找到适合 ... -
数据驱动业务——梦想成真,只差一步
2016-09-26 11:16 863长久以来,作为在信息 ... -
数据可视化神器——Cognos Analytics V11 R4 发布!
2016-09-23 16:30 2144Cognos Analytics V11的第4个小版本已经发 ... -
盘点:全球12个大数据公司
2016-09-18 11:46 2本文整理了当今世界上 ... -
收藏 | 全球大数据7大阵营,你都知道吗?
2016-09-13 09:55 503近几年,大数据行业已经逐渐成熟,在也不是大家谈之缥缈的行业, ...
相关推荐
在大数据时代,商业建模已经成为...综上所述,大数据时代的商业建模是一个涵盖广泛领域的综合实践,它不仅需要掌握先进的技术和工具,还需要对业务有深入的理解,以及敏锐的洞察力,才能将大数据转化为真正的商业智慧。
展望未来,随着大数据应用的不断深化,我们有理由相信,2013年及以后的市场上将出现更多基于大数据的产品和服务。虽然技术与人才的双重挑战依然存在,但随着技术的不断进步和人才储备的逐渐增加,我们对数据的挖掘和...
大数据时代,媒体边界日益模糊,传统编辑应学会在多个平台上发布和管理内容,如社交媒体、移动应用和网站等。同时,要关注不同平台的数据表现,以优化内容分发策略。 六、实时新闻与快速反应 大数据提供实时信息流...
7. **大数据分析工具**:除了编程语言如Python和R,报告可能还介绍了各种数据分析工具,如Tableau、Power BI等,它们能帮助企业快速可视化大数据结果。 8. **未来趋势**:报告会预测大数据的未来发展趋势,可能涉及...
在大数据时代,计算机软件技术扮演着至关重要的角色。随着数据量的爆炸性增长,传统的处理方式已经无法满足需求,因此,新型的软件技术和算法被研发出来以应对这一挑战。本资料"计算机软件技术在大数据时代的应用....
如何在利用数据的同时保障个人隐私,以及如何防止数据泄露和滥用,成为大数据时代亟待解决的社会问题。因此,数据伦理和法规遵从也成为大数据从业者必须关注的话题。 总的来说,《驾驭大数据》一书涵盖了大数据的...
1. 大数据时代的技术变革: - 物联网(IoT):互联网的快速发展,使得万物互联成为可能,数十亿的设备和网络节点通过高带宽接入形成庞大的物联网,这为大数据的收集提供了丰富的来源。 - 高速网络:如光纤技术的...
BI行业的发展前景 BI的历史、现在和未来 主要BI厂商 传统商业智能和未来商业智能的区别 大数据与商业智能的结合
在大数据时代,计算机软件技术的重要性不言而喻。随着数据量的爆炸性增长,传统的处理方式已经无法满足需求,这催生了对高效、智能的软件技术的强烈需求。本资料"计算机软件技术在大数据时代的应用 (1)"可能涵盖以下...
随着大数据时代的来临,各个行业都在积极探索和开发其内部的大数据资源,运用大 数据理论与技术发掘数据资源的商业价值。在相关理论分析的基础上,构建了基于BI理论的大数据网 络营销模型,模型包括数据源层、数据层...
大数据时代是指信息技术发展到一定阶段,数据量呈现出指数级增长,传统的数据处理软件无法在可接受的时间内处理这些庞大数据集的时代。在大数据时代,数据挖掘技术成为研究和应用的重要领域,它通过算法从大量数据中...
"大数据时代征稿启事 (3)" 提醒我们关注这个领域的最新动态,可能是一次面向专业人士或者爱好者征文的活动,旨在汇聚思想,分享研究成果,探讨大数据在实践中的应用及其未来趋势。以下是关于大数据的一些核心知识点...
首先,大数据时代的特点在于万物互联,从互联网的低带宽连接到高速的光纤网络,数十亿的网络设备使得数据的产生和交换变得无处不在。物联网的发展进一步扩大了数据的来源,包括各种传感器、穿戴设备和智能设备,这些...
传统BI(商业智能)侧重于数据的精确性,而大数据则强调从海量数据中发现关联性,从而预测趋势、揭示隐藏模式。例如,Google通过分析用户的搜索行为,能够预测流感爆发,这展示了大数据在预测分析领域的潜力。 ...
总结来说,计算机软件技术在大数据时代的应用研究涵盖了数据的获取、处理、分析、展示、安全和行业应用等多个层面,不断推动着社会的进步和发展。随着技术的不断创新,我们可以期待更多高效、智能的解决方案来应对...
Apache Kylin是一个为大数据分析设计的高性能、分布式OLAP(在线分析处理)系统,它将传统的OLAP技术引入到大数据时代,特别是在Hadoop生态系统中。随着数据量的急剧增长,传统的数据仓库解决方案面临着存储成本增加...
阿里巴巴集团作为全球知名的互联网公司,其大数据实践之路为业界提供了宝贵的参考。本文将以阿里巴巴集团的数据发展作为主线,梳理其在大数据领域的实践与探索,尤其关注其数据中台架构的发展和应用。 ### 阿里巴巴...
大数据时代的商业智能(BI)是信息技术领域中一个极具前景的分支。BI的发展历程从早期的查询和报表生成,逐步演变为包含多维分析、数据挖掘和实时决策支持的复杂体系。随着大数据的崛起,商业智能的未来将更加注重...
在大数据时代,传统的BI着重于事后分析,而未来的BI将更注重实时分析和预测能力。通过大数据与BI的结合,企业可以更好地洞察市场趋势,预测消费者行为,实现精细化运营。此外,随着云计算和人工智能技术的发展,自助...
很抱歉,由于您提供的文件内容是一串无法解读的符号和数字,我无法直接从中提取《大数据时代》的读书心得或相关知识点。不过,我可以根据书名《大数据时代》来分享一些关于大数据的基础知识和重要概念。 大数据是...