javazx 发表于 2017-3-15 18:24:51

《大规模分布式存储系统》第11章 质量保证、运维及实践【11.3】

11.3 应用
OceanBase上线两年左右的时间已经接入了30多个业务,线上服务器数量超过
300台。虽然OceanBase同时支持OLTP以及OLAP应用,但是OceanBase具有一定的适
用场景。如果应用总数据量小于200TB,每天更新的数据量小于1TB,且读写压力较
大,单台关系数据库无法支撑,那么,适合采用OceanBase。对于这种应用,
OceanBase具有如下优势:
●无须分库分表。OceanBase系统内部自动按照数据范围划分子表,支持子表合
并、分裂、复制、迁移,无须应用考虑分库分表以及扩容问题。
●易于使用。OceanBase的使用方式和关系数据库基本一致,且保证强一致性,
从而简化应用。
●更低的成本。OceanBase采用C++语言实现,并针对多核、SSD、大内存等现代
服务器硬件特点做了专门的优化,能够最大程度地发挥单台服务器的性能。
如果应用需要使用OceanBase专有的功能,例如10.4和10.5节提到的并发查询、
大表左连接、数据过期,那么,OceanBase的优势会更加明显。
当然,OceanBase并不是万能的。例如,OceanBase不适合存储图片、视频等非
结构化数据,也不适合存储业务原始日志。这些信息更适合存储在专门的分布式文
件系统,比如Taobao File System、HDFS中。
本节选取收藏夹、天猫评价、直通车报表这几个典型业务说明OceanBase的使用
情况。
11.3.1 收藏夹
图11-6展示了淘宝某用户的收藏夹。
图 11-6 淘宝某用户收藏夹
收藏夹属于典型的OLTP业务,主要功能如下:
●收藏列表功能(范围查询):按照某种过滤条件,例如标题、标签等查询某个
用户的所有收藏;可能需要按照某种特定条件排序,例如商品价格、收藏时间等;
支持对结果的分页;支持在结果集上执行聚合操作,例如Count计数。
●修改操作:将商品或者店铺添加到收藏夹,删除收藏,对收藏条目打标签。
10.5.1节中提到的大表左连接功能是收藏夹的难点,OceanBase高效地实现了这
个需求。截至2012年11月11日,收藏夹集群规模接近60台服务器,单表数据量超过
100亿条,整体数据量超过200亿条。2012年11月11日当天读取次数超过15亿,且大
部分查询为范围查询,读取总条目数超过900亿条,读取平均延时在10~20毫秒。
11.3.2 天猫评价
图11-7展示了天猫某商品在线评价。
图 11-7 天猫某商品评价
天猫评价也属于典型的OLTP应用,主要功能如下:
●评价展示(范围查询):按照某种过滤条件,例如标签,查询某个商品的所有
评价;可能需要按照某种特定条件排序,例如时间、信用;支持对结果的分页;支
持在结果集上执行聚合操作,例如Count计数。
●修改操作:新增一条评价,修改评价,例如将好评修改为差评。
天猫评价的难点在于部分商品评价数很多,达到数十万条,极少数商品的评价
数甚至超过一百万条,采用传统数据库方案很容易出现超时的情况。OceanBase的优
势主要体现在两个方面:
●相比传统数据库,OceanBase的数据在物理上连续存放,因此,顺序扫描性能
更好,适合大查询使用场景。
●如果一个商品的评价数过多,OceanBase系统内部会自动将该商品的数据拆分
成多个子表,从而发挥OceanBase的并发查询优势。
天猫评价总体数据量超过7亿条,大部分查询能够在20毫秒之内返回,大查询的
延时约为200ms,满足了应用的需求。当然,大查询延时还有较大的优化空间。
11.3.3 直通车报表
直通车报表是典型的OLAP报表需求如图11-8所示,包含如下几个方面:
图 11-8 直通车报表查询页面
●数据定期导入:每天凌晨将Hadoop分析结果导入OceanBase。
●报表查询:按照用户、推广计划、宝贝、关键词等多种维度分组,统计展现
量、财务花费等数据,响应前端的实时查询需求。
每天导入OceanBase的数据中,每个关键词会有一条数据,包含了这个关键词当
天的展现量、点击量、财务花费等统计数值。用户允许查看最近三天、最近一周、
最近一个月或者其他任意时间范围的统计数据,统计值包含这个时间范围内展现量
总和、财务花费总和等,还包括一些计算值,例如点击率(Click Through
Rate,CTR)、每次点击花费(Cost Per Click,CPC)等值,按照用户、推广计划、宝
贝、关键词等维度分组,并且可以按照任意列对这些分组的统计数据进行排序,排
序后分页展示。
直通车报表的难点在于多维度组合查询,每次查询最多需要分析上千万条记
录,且要求响应时间在秒级。由于多个维度可以任意组合,传统数据库二级索引的
方式不再适用。OceanBase支持并行计算,自动将大请求拆分为多个小请求同时发给
多台ChunkServer并发执行,从而将延时降低一到两个数量级。另外,由于直通车报
表大部分字段为整数类型,OceanBase内部会自动将整数编码以后压缩存储,从而节
省存储资源。
基于容灾考虑,直通车报表部署了主备两个集群,每个集群12台服务器,整体
数据量超过1500亿条。每天导入数据量大约为100GB,导入时间在1到2个小时。线
上平均查询延时小于100毫秒,涉及千万条以内记录的大查询延时在3秒以内。


页: [1]
查看完整版本: 《大规模分布式存储系统》第11章 质量保证、运维及实践【11.3】