京公网安备 11010802034615号
经营许可证编号:京B2-20210330
2014年10月25日,由eBay、CSDN共同举办的“大数据峰会”在上海豫园万丽酒店成功举办。本次活动由CSDN&《程序员》总编刘江主持,eBay全球数据架构副总裁Debashis Saha,eBay全球平台架构资深架构师Sami Ben-romdhane,eBay资深架构师蒋旭,Druid创始人Eric Tschetter,EV Analysis Corporation首席数据科学家Ying Li,腾讯数据平台部精准推荐中心总监李勇等嘉宾为大家奉上一场大数据的技术盛宴。

eBay上海大数据峰会2014 参会嘉宾
本次大会虽然只有短短一天,但是却以更加国际化的视野,帮助与会者了解全球大数据技术的发展趋势;从行业应用出发,探讨大数据领域的实践经验,深度剖析大数据的核心技术。

eBay上海大数据峰会2014 大会现场
eBay总经理,eBay China Center of Excellence田卫做了开场致辞,在感谢各位来宾的同时,对1500位报名但由于场地限制,未能来参会的朋友们也表示了歉意。大数据以迅雷不及掩耳之势,迅速的扩展到金融、娱乐、工作和生活中来。以打桥牌的经历为例,她介绍了自己如何通过一个”小数据“实现了价值。”打桥牌,不仅牌要打得好,还要运气好,失误少。我将大数据技术融入到桥牌中来,通过对大量数据的积累与分析,最终以新人身份冲入第14届世界桥牌竞标赛。这足以说明数据分析的魅力。未来,eBay会开源几个大数据平台工具,将顶尖的大数据技术分享给世界。”
eBay全球数据架构副总裁Debashis Saha则发表了题为“大数据基础架构的未来”的演讲。如今有五分之一的美元是花费在网上,eBay已经不仅仅是一家连接买家和卖家的电子商务公司。eBay目前有1.28亿的活跃用户,Paypal有1.43亿活跃账户,200PB以上的数据。几年前,Hadoop的出现为这些大数据的处理提供了可能。Debashis首先介绍了eBay如何在Hadoop的基础上,扩展平台和工具,来适应大数据商业的需求,在eBay的生态系统中,分为三层:Infrastructure,Platform和Services。接下来,Debashis介绍了eBay在深度数据分析和快速、实时分析方面所做的工作,包括对开源社区的贡献。
国立台湾大学卓越教授林智仁,作为作为机器学习的研究者,带来了“大规模分布式机器学习”的分享。分布式机器学习还在很初期的阶段,其带来的最大挑战是:以前在一台机器上的算法、工具等都已经基本失效,要考虑算法、系统和应用等各个方面,但也有人说大量的数据中能够更容易挖掘出有效数据。从技术角度来说,分布式机器学习的优点是:1.可实现并行数据加载,提高加载效率;2.容错机制。但分布式机器学习也有缺点:深度分析使流程更加复杂。如果真的要采用分布式机器学习,就要考虑数据的计算时间,加载时间和同步时间,而在过去的机器学习中,大部分场景中却只考虑了计算时间。最后,林智仁介绍了几个分布式机器学习的算法及其应用场景,比如Logistic Regression问题的分布式实现,Google的Sibyl系统,并以用户的CTR预测应用场景进行了说明。
Druid创始人Eric Tschetter接下来发表演讲“Druid之旅,大数据实时分析数据存储框架”的演讲。Eric以一个Demo开场介绍了Druid。Druid是一个开源的、实时处理数据库,主要用于数据量较大、多维度数据的场景,满足不宕机的数据分析需求,在Druid之前,他们尝试过RDBMS(加载速度过慢)、NoSQL存储(随着维度的增加,效率降低),由于各种缺陷开始了Druid的开发。Druid将历史数据和实时数据分开,Realtime Nodes、Historical Nodes,还有Broker Nodes,再将两者进行合并处理。接下来Eric详细介绍了Druid的数据存储形式和处理方式。
eBay全球平台架构资深架构师Sami Ben-romdhane详细介绍了“Eagle:Hadoop平台监控、预警及自动化”的实践经验。eBay的Hadoop平台团队,包括9位中国工程师和11位美国工程师,Eagle完全由中国的团队开发。eBay的Hadoop节点从2007年的几个,发展到2014年的10000个,Hadoop集群的管理成为难点,Eagle应运而生。Eagle的应用场景包括监控M/R作业,作业性能的分析,服务器异常检测,管理SLA作业,监控节点审计日志,监控HDFS镜像,监控进程GC日志等。Eagle的主要组件包括Eagle Data Feeder,Eagle Logstash Integration,Eagle Data Storage,Eagle Query Service,Eagle Anomaly Detection,Sami分别对其做了详细解说,并介绍了Eagle完全由中国团队开发完成。
EV Analysis Corporation首席数据科学家Ying Li则分享了数据科学的实践。Ying Li首先介绍了数据科学的定义和自己多年积累的实践原则:Question,用问题指引工作;Unknowns,知道你的盲点;Explore,从不同角度看数据;Scrupulous vs. Speed, Science vs. Scrappiness;Truth,数据和现实的关联。认为数据科学的一个重要性质是可重复性,而评价数据科学家的一个重要指标则是其代表作。
CSDN云计算日前翻译的《Kylin正式发布:面向大数据的终极OLAP引擎方案》引发了开发者对麒麟(Kyllin)极大的兴趣。eBay资深架构师蒋旭对刚刚开源的技术Kylin——基于Hadoop的大规模联机分析引擎,进行了深入的分析。随着eBay大量数据都迁移到Hadoop上,如何读取数据?如何达到百亿数量级的数据,秒级时间内就能收到数据分析结果?而Hive又太慢了,eBay开发了Kylin来完成这个任务。对于开发者关心的“现在已经有很多SQL-on-Hadoop技术了,为什么还要重复造车轮?”这个问题,蒋旭详细分析了现有系统的问题,多数选择ROLAP的模式,数据集一大,查询延迟特别长。为此,eBay选择了MOLAP和ROLAP的混合模式,并坚持尽量使用Hadoop已有功能的原则,Kylin支持ANSI SQL查询。并能与现有商业智能工具无缝的整合,比如Tableau。 支持TB到PB级别的快速查询能力。麒麟(Kylin)是完全由中国团队研发并贡献到开源社区的产品,目前正在提交到Apache孵化器项目。
腾讯数据平台部精准推荐中心总监李勇则以“腾讯大数据平台与推荐应用架构”作为峰会的结尾。腾讯的月活跃用户8.3亿,微信月活跃用户4.4亿,QQ空间月活跃用户6.5亿,游戏月活跃用户过亿。如今腾讯的数据分析已经能做到始终“不落地”,即全部的实时处理。腾讯大数据平台有如下核心模块:TDW、TRC、TDBank、TPR和Gaia。简单来说,TDW用来做批量的离线计算,TRC负责做流式的实时计算,TPR负责精准推荐,TDBank则作为统一的数据采集入口,而底层的Gaia则负责整个集群的资源调度和管理。李勇还特别强调了数据平台体系化是应用基础,数据应用商业化是价值导向。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析实战中,我们经常会遇到“多指标冗余”的问题——比如分析企业经营状况时,需同时关注营收、利润、负债率、周转率等十 ...
2026-02-04在数据分析场景中,基准比是衡量指标表现、评估业务成效、对比个体/群体差异的核心工具,广泛应用于绩效评估、业务监控、竞品对 ...
2026-02-04业务数据分析是企业日常运营的核心支撑,其核心价值在于将零散的业务数据转化为可落地的业务洞察,破解运营痛点、优化业务流程、 ...
2026-02-04在信贷业务中,违约率是衡量信贷资产质量、把控信用风险、制定风控策略的核心指标,其统计分布特征直接决定了风险定价的合理性、 ...
2026-02-03在数字化业务迭代中,AB测试已成为验证产品优化、策略调整、运营活动效果的核心工具。但多数业务场景中,单纯的“AB组差异对比” ...
2026-02-03企业战略决策的科学性,决定了其长远发展的格局与竞争力。战略分析方法作为一套系统化、专业化的思维工具,为企业研判行业趋势、 ...
2026-02-03在统计调查与数据分析中,抽样方法分为简单随机抽样与复杂抽样两大类。简单随机抽样因样本均匀、计算简便,是基础的抽样方式,但 ...
2026-02-02在数据驱动企业发展的今天,“数据分析”已成为企业经营决策的核心支撑,但实践中,战略数据分析与业务数据分析两个概念常被混淆 ...
2026-02-02在数据驱动企业发展的今天,“数据分析”已成为企业经营决策的核心支撑,但实践中,战略数据分析与业务数据分析两个概念常被混淆 ...
2026-02-02B+树作为数据库索引的核心数据结构,其高效的查询、插入、删除性能,离不开节点间指针的合理设计。在日常学习和数据库开发中,很 ...
2026-01-30在数据库开发中,UUID(通用唯一识别码)是生成唯一主键、唯一标识的常用方式,其标准格式包含4个短横线(如550e8400-e29b-41d4- ...
2026-01-30商业数据分析的价值落地,离不开标准化、系统化的总体流程作为支撑;而CDA(Certified Data Analyst)数据分析师,作为经过系统 ...
2026-01-30在数据分析、质量控制、科研实验等场景中,数据波动性(离散程度)的精准衡量是判断数据可靠性、稳定性的核心环节。标准差(Stan ...
2026-01-29在数据分析、质量检测、科研实验等领域,判断数据间是否存在本质差异是核心需求,而t检验、F检验是实现这一目标的经典统计方法。 ...
2026-01-29统计制图(数据可视化)是数据分析的核心呈现载体,它将抽象的数据转化为直观的图表、图形,让数据规律、业务差异与潜在问题一目 ...
2026-01-29箱线图(Box Plot)作为数据分布可视化的核心工具,能清晰呈现数据的中位数、四分位数、异常值等关键统计特征,广泛应用于数据分 ...
2026-01-28在回归分析、机器学习建模等数据分析场景中,多重共线性是高频数据问题——当多个自变量间存在较强的线性关联时,会导致模型系数 ...
2026-01-28数据分析的价值落地,离不开科学方法的支撑。六种核心分析方法——描述性分析、诊断性分析、预测性分析、规范性分析、对比分析、 ...
2026-01-28在机器学习与数据分析领域,特征是连接数据与模型的核心载体,而特征重要性分析则是挖掘数据价值、优化模型性能、赋能业务决策的 ...
2026-01-27关联分析是数据挖掘领域中挖掘数据间潜在关联关系的经典方法,广泛应用于零售购物篮分析、电商推荐、用户行为路径挖掘等场景。而 ...
2026-01-27