数据|有没有想过你的数据分析方法可能已经过时?

来源:36大数据作者:谢涛
在拥挤不堪、投资过剩的数据分析市场上 , 供应商为了卖出自己的产品不断放出烟雾弹 , 想要穿过烟雾看到“真相” , 却是一大难事 。 以下五点 , 是未来数据分析市场可能的走向 , 仅供参考 。
1. BI迁移到应用程序 在过去的20年里 , 我们见证了一场革命 。 不是一夜之间发生的那种 , 而是逐渐发生的 , 缓慢的 , 可能很多人没有注意到 。 BI(商业智能)正走向死亡 。 或者更准确地说 , BI正在进行着彻头彻尾的改变 。
每年 , 用户都在通过他们使用的应用程序——比如HubSpot、SalesForce和MailChimp——进行更多的分析 。 分析正在迁移到业务应用程序的结构中 。
从本质上讲 , 业务应用程序正在获取它们自己的分析接口 , 根据它们的数据和用例进行定制 。 这种集成和自定义使得其分析接口比深奥的、复杂的通用BI更容易被用户接受 。 随着B2B应用程序开始在数据智能产品上展开竞争 , 这一趋势将会继续下去 。
2. 编译器超越分析引擎 历史上 , 数据分析有两种提供方式:通过预计算 , 或者通过分析引擎 。
分析引擎 , 如Spark和Tableau的数据引擎 , 负责执行所需的计算 , 以回答关于组织数据的关键问题 。
现在 , 这个领域出现了一个新的玩家:分析编译器 。 分析编译器可以灵活地将计算部署到不同的基础设施 。 分析编译器的例子包括现在大火的TensorFlow , 它可以将计算部署到GPU或CPU等 。
编译器比分析引擎灵活得多 , 因为它们可以进行数据处理 , 而且我们可以将它们进行转换 , 以在不同的基础设施中运行(在数据库中 , 在Spark中 , 在GPU中 , 等等) 。 在理论上 , 编译器也可以生成比任何解释引擎都快的工作流 。
甚至Spark也一直在获取基本的编译工具 , 这无疑是编译器在此驻留的标志 , 并且可能最终会使遗留的纯计算引擎相形见绌 。
3. ETL多样化 很少有一个术语能比“ETL”(提取转换加载)更让大佬们头疼 。 ETL堆积了大量不完整的、重复的、不相关的数据 , 像污水一样被排放出来 , 清理干净 , 然后被推到一个可以处理这些数据的地方 。
ETL是现代、敏捷和数据驱动等关键词的对立面 。 ETL意味着不断重复的数据 , 无数的延迟 , 以及高额的费用 。 它无法回答重要的问题 。
为了让ETL变得更加灵活 , 行业内已经开发出了各种各样的替代方案 。 这些解决方案包括高级的ETL工具——使ETL更容易进入Hadoop或数据仓库 , 到流ETL解决方案 , 再到利用机器学习交叉引用和删除重复数据的ETL解决方案 。
另一个非常有趣的技术类别包括像Dremio和Xcalar这样的工具 , 它们将ETL重构为提取-加载-转换(或ELT) 。 本质上 , 它们将转换的步骤推到最后 , 因此不必再预先进行提取、加载或转换 。
从历史上看 , ELT的速度很慢 , 但这些下一代解决方案通过动态调整、索引和缓存常见的转换来快速地进行拼写 。 这提供了传统ETL的性能 , 同时具有后期转换的灵活性 。
不管你如何看待它 , ETL正在经历着戏剧性的演变 , 这将使组织能够比以往更容易地快速地利用数据 , 而无需耗费大量时间和昂贵的前期投入 。

数据|有没有想过你的数据分析方法可能已经过时?
文章图片

4. 数据仓库开放 大型组织的问题多数在于无法从专注于精心设计的分析 。 大多数公司甚至无法合计和计算他们有多少数据 。 不是因为计数很困难 , 而是因为一个大型组织中的数据一般分散在万个数据竖井中 。
不过由于云(包括API革命和管理数据解决方案)和ETL最近的进展 , 使得组织以结构化的方式访问更多的数据变得比以往任何时候都要容易 。