新用户注册入口 老用户登录入口

Spark Structured Streaming中Eventtime与Processingtime处理实时与延迟数据方式及其Watermark应用场景详解

文章作者:夜色朦胧-t 更新时间:2023-11-30 14:06:21 阅读数量:105
文章标签:处理方式实时数据延迟数据应用场景
本文摘要:本文聚焦于Spark Structured Streaming中两种关键时间处理机制——Processing Time与Event Time。Processing Time以应用运行时间为基准,适用于实时数据流处理,如网站流量监控;而Event Time则依据事件实际发生时间排序数据,能有效应对延迟数据场景,例如按邮件发送顺序处理电子邮件。文中通过实例详细展示了如何在Structured Streaming中设置Watermark来处理实时及延迟数据,并强调了根据不同应用场景选择合适的时间处理方式的重要性。
Spark

一、 引言

Spark Structured Streaming 是一种用于处理实时数据的强大工具。它其实运用了两种不同的时间观念,一种叫做“eventtime”,另一种是“processingtime”。打个比方,就好比我们在处理事情时,有的是按照事情发生的实际时间(eventtime)来处理,而有的则是按照我们开始处理这个事情的时间(processingtime)为准。这两种时间概念,在应对延迟数据和实时数据的问题上,各有各的独特用法和特点,可以说是各显神通呢!这篇东西呢,咱们会仔仔细细地掰扯这两种时间概念的处理手法,还会一起聊聊它们在实际生活中怎么用、有哪些应用场景,保准让你看得明明白白!

二、 Processing Time 的处理方式及应用场景

Processing Time 是 Spark Structured Streaming 中的一种时间概念,它的基础是应用程序的时间,而不是系统的时间。也就是说, Processing Time 代表了程序从开始运行到处理数据所花费的时间。
在处理实时数据时, Processing Time 可能是一个很好的选择,因为它可以让您立即看到新的数据并进行相应的操作。比如,假如你现在正在关注你网站的访问情况,这个Processing Time功能就能马上告诉你,现在到底有多少人在逛你的网站。
以下是使用 Processing Time 处理实时数据的一个简单示例:
val dataStream = spark.readStream.format("socket").option("host", "localhost").option("port", 9999).load()
    .selectExpr("CAST(text AS STRING)")
    .withWatermark("text", "1 second")
    .as[(String, Long)]
val query = dataStream.writeStream
    .format("console")
    .outputMode("complete")
    .start()
query.awaitTermination()
在这个示例中,我们创建了一个 socket 数据源,然后将其转换为字符串类型,并设置 watermark 为 1 秒。这就意味着,如果我们收到的数据上面的时间戳已经超过1秒了,那这个数据就会被我们当作是迟到了的小淘气,然后选择性地忽略掉它。

三、 Event Time 的处理方式及应用场景

Event Time 是 Spark Structured Streaming 中的另一种时间概念,它是根据事件的实际发生时间来确定的。这就意味着,就算大家在同一秒咔嚓一下按下发送键,由于网络这个大迷宫里可能会有延迟、堵车等各种状况,不同信息到达目的地的顺序可能会乱套,处理起来自然也就可能前后颠倒了。
在处理延迟数据时, Event Time 可能是一个更好的选择,因为它可以根据事件的实际发生时间来确定数据的处理顺序,从而避免丢失数据。比如,你正在处理电子邮件的时候,Event Time这个功能就相当于你的超级小助手,它能确保你按照邮件发送的时间顺序,逐一、有序地处理这些邮件,就像排队一样井然有序。
以下是使用 Event Time 处理延迟数据的一个简单示例:
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("Structured Streaming").getOrCreate()
data_stream = spark \
    .readStream \
    .format("kafka") \
    .option("kafka.bootstrap.servers", "localhost:9092") \
    .option("subscribe", "my-topic") \
    .load() \
    .selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)")
query = data_stream \
    .writeStream \
    .format("console") \
    .outputMode("append") \
    .start()
query.awaitTermination()
在这个示例中,我们从 kafka 主题读取数据,并设置 watermark 为 1 分钟。这就意味着,如果我们超过一分钟没收到任何新消息,那我们就会觉得这个topic已经没啥动静了,到那时咱就可以结束查询啦。

四、 结论

在 Spark Structured Streaming 中, Processing Time 和 Event Time 是两种不同的时间概念,它们分别适用于处理实时数据和处理延迟数据。理解这两种时间概念以及如何在实际场景中使用它们是非常重要的。希望这篇文章能够帮助你更好地理解和使用 Spark Structured Streaming。
相关阅读
文章标题:Spark应对数据传输中断的容错策略:基于RDD血统、CheckPointing、宽窄依赖与动态资源调度实践

更新时间:2024-03-15
Spark应对数据传输中断的容错策略:基于RDD血统、CheckPointing、宽窄依赖与动态资源调度实践
文章标题:Spark中应对数据倾斜与性能瓶颈:推测执行机制在任务调度与作业性能优化中的应用实践

更新时间:2023-03-28
Spark中应对数据倾斜与性能瓶颈:推测执行机制在任务调度与作业性能优化中的应用实践
文章标题:Spark Executor在YARN中因资源超限被杀原因与对策:内存限制、心跳丢失及配置优化这个包含了中的核心关键词Spark Executor、YARN ResourceManager和资源超限,同时也提到了问题的应对策略——通过配置优化来解决由于内存限制和心跳丢失引发的问题。同时,它保持了简洁性,在50个字以内准确传达了的内容。

更新时间:2023-07-08
Spark Executor在YARN中因资源超限被杀原因与对策:内存限制、心跳丢失及配置优化这个包含了中的核心关键词Spark Executor、YARN ResourceManager和资源超限,同时也提到了问题的应对策略——通过配置优化来解决由于内存限制和心跳丢失引发的问题。同时,它保持了简洁性,在50个字以内准确传达了的内容。
文章标题:SparkContext停止与未初始化错误排查:从初始化到集群通信与生命周期管理实践

更新时间:2023-09-22
SparkContext停止与未初始化错误排查:从初始化到集群通信与生命周期管理实践
文章标题:Spark中利用SparkSession与JDBC读取SQL数据库数据至DataFrame并进行处理与分析的详细步骤

更新时间:2023-12-24
Spark中利用SparkSession与JDBC读取SQL数据库数据至DataFrame并进行处理与分析的详细步骤
文章标题:Spark MLlib库中的机器学习算法实践:线性回归、逻辑回归、决策树与随机森林在Apache Spark数据分析中的应用

更新时间:2023-11-06
Spark MLlib库中的机器学习算法实践:线性回归、逻辑回归、决策树与随机森林在Apache Spark数据分析中的应用
名词解释
作为当前文章的名词解释,仅对当前文章有效。
Spark Structured StreamingSpark Structured Streaming是Apache Spark提供的一个流处理引擎,它允许用户以批处理的方式编写流处理程序。通过将实时数据流视为无界的数据表进行处理,Structured Streaming能够提供一种统一且直观的方式来处理静态数据和实时数据,同时支持多种源和接收器,以及灵活的时间管理机制(如eventtime和processingtime)。
Event Time在Spark Structured Streaming中,Event Time指的是数据事件实际发生的物理时间戳,不受系统或处理延迟影响。即使在网络传输过程中存在乱序或延迟,Event Time也能确保数据按照其原始发生的顺序进行处理,这对于需要严格按时间顺序处理的场景(例如金融交易、日志分析等)至关重要。
WatermarkWatermark是一种用于处理乱序事件的机制,在Spark Structured Streaming中与Event Time概念紧密相关。它定义了一个时间戳阈值,表示到目前为止已知的最晚时间戳。任何具有较早于当前watermark时间戳的事件被认为是迟到事件,并可能被丢弃或者重新处理,从而保证了在一定程度上的实时性和数据完整性。例如,在上述示例中,设置watermark为1秒或1分钟,意味着系统容忍一定时间范围内的乱序,超过这个时间窗口的数据则会被视为过期或迟到。
延伸阅读
作为当前文章的延伸阅读,仅对当前文章有效。
在深入理解了Spark Structured Streaming中Processing Time和Event Time这两种时间概念及其应用场景后,我们发现实时数据处理与流计算领域的发展日新月异。最近,Apache Flink 1.14版本也推出了对事件时间和 watermark 的改进,进一步强化了其在复杂事件处理和乱序数据管理上的能力。该版本优化了watermark生成逻辑,并引入了更为灵活的event time策略配置,使得开发者能够更好地应对不同业务场景下的延迟数据挑战。
另外,随着物联网、金融交易、社交网络等领域的快速发展,实时数据的价值日益凸显,对流处理系统提出了更高要求。例如,阿里巴巴在其2021年双十一活动中,就运用了升级版的实时计算引擎,结合事件时间驱动的数据一致性保障机制,确保了数十亿级别交易数据的实时统计分析准确性。
同时,学术界也在不断探索和完善实时数据处理理论框架,如加州大学伯克利分校AMPLab团队提出的“Lambda架构”,以及斯坦福大学DINOSAUR项目中的“Kappa架构”,都在尝试以不同的方式整合Processing Time和Event Time,旨在构建更高效、更健壮的实时数据处理解决方案。
因此,在实际应用Spark Structured Streaming进行实时数据处理时,关注行业动态和技术前沿,对比研究其他流处理框架的时间模型处理方式,将有助于我们更好地适应快速变化的数据环境,设计出更加符合业务需求的数据处理策略。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
free -m - 查看系统内存使用情况(单位MB)。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
Struts2实战:精确调试:拦截器顺序异常追踪与配置纠偏 04-28 亲手创建与应用AngularJS过滤器:从全名处理到自定义参数化数据格式化实践 03-09 Go语言中os包与io/ioutil实现文件系统操作:精准错误检查、并发控制与同步互斥实践 02-24 [转载]和菜鸟一起学android4.0.3源码之vibrator振动器移植心得 01-17 [转载]vsftp虚拟账户登录失败331 Please specify the password. 01-06 宽屏办公室租赁企业网站模板下载 11-16 响应式宽屏商务科技企业模板下载 11-05 响应式环保包装盒设计公司网站静态模板 11-04 Oracle数据库日志记录模式详解:Logging、Force Logging与Nologging对重做日志文件、数据安全及性能的影响 10-22 本次刷新还10个文章未展示,点击 更多查看。
简单实用的Bootstrap右键上下文菜单插件 10-08 [转载]Windows Knowledge 09-10 蓝色家居装修建材公司网站html模板下载 07-09 简洁红酒公司源码模板下载 07-02 Maven中Invalidlifecyclephase错误:识别原因与针对生命周期阶段、配置文件及插件的解决方案 05-18 支持移动设备的响应式js lightbox插件 03-25 [转载]Java的特点是什么 03-25 响应式家政生活服务类企业前端模板下载 03-10 Vue.js项目中proxyTable数据转发遭遇504错误:服务器响应时间与网络连接问题排查及解决方案 03-05 黑色建材建材企业官网html整站模板下载 03-04 简约质感网络营销公司HTML5模板下载 02-19
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"