前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[自定义DataGridView用户删除行...]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
DorisDB
...制、增量复制以及基于事件的复制,能够满足不同场景下的数据管理需求。 三、实现步骤 以下是一个简单的示例,展示如何在DorisDB中实现基本的数据复制和同步: 1. 创建数据源表 首先,我们需要创建两个数据源表,一个作为主表(Master),另一个作为从表(Slave)。这两个表结构应该完全相同,以便数据可以无缝复制。 sql -- 创建主表 CREATE TABLE master_table ( id INT, name STRING, age INT ) ENGINE = MergeTree() ORDER BY id; -- 创建从表 CREATE TABLE slave_table ( id INT, name STRING, age INT ) ENGINE = ReplicatedMergeTree('/data/replication', 'slave_replica', id, name, 8192); 2. 配置复制规则 为了实现数据同步,我们需要在DorisDB的配置文件中设置复制规则。对于本示例,我们假设使用默认的复制规则,即从表会自动从主表复制数据。 sql -- 查看当前复制规则配置 SHOW REPLICA RULES; -- 如果需要自定义规则,可以使用REPLICA RULE命令添加规则 -- 示例:REPLICA RULE 'slave_to_master' FROM TABLE 'master_table' TO TABLE 'slave_table'; 3. 触发数据同步 DorisDB会在数据变更时自动触发数据同步。为了确认数据小抄有没有搞定,咱们可以动手查查看,比对一下主文件和从文件里的信息是不是一模一样。就像侦探破案一样,咱们得找找看有没有啥遗漏或者错误的地方。这样咱就能确保数据复制的过程没出啥岔子,一切都顺利进行。 sql -- 查询主表数据 SELECT FROM master_table; -- 查询从表数据 SELECT FROM slave_table; 4. 检查数据一致性 为了确保数据的一致性,可以在主表进行数据修改后,立即检查从表是否更新了相应数据。如果从表的数据与主表保持一致,则表示数据复制和同步功能正常工作。 sql -- 在主表插入新数据 INSERT INTO master_table VALUES (5, 'John Doe', 30); -- 等待一段时间,让数据同步完成 SLEEP(5); -- 检查从表是否已同步新数据 SELECT FROM slave_table; 四、结论 通过上述步骤,我们不仅实现了在DorisDB中的基本数据复制功能,还通过实际操作验证了数据的一致性。DorisDB的强大之处在于其简洁的配置和自动化的数据同步机制,使得数据管理变得高效且可靠。嘿,兄弟!你得知道 DorisDB 这个家伙可厉害了,不管是用来备份数据,还是帮咱们平衡服务器的负载,或者是分发数据,它都能搞定,而且效率杠杠的,稳定性也是一流的。有了 DorisDB 的保驾护航,咱们企业的数据驱动战略就稳如泰山,打心底里感到放心和踏实! --- 在编写本文的过程中,我尝试将技术内容融入到更贴近人类交流的语言中,不仅介绍了DorisDB数据复制与同步的技术细节,还通过具体的SQL语句和代码示例,展示了实现这一功能的实际操作流程。这样的写作方式旨在帮助读者更好地理解和实践相关技术,同时也增加了文章的可读性和实用性。
2024-08-25 16:21:04
108
落叶归根
Element-UI
...其丰富的功能、良好的用户体验以及高度的可定制性,深受广大前端开发者喜爱。然而,在我们真正动手做项目开发的时候,常常会碰到一些让人挠头的问题。就拿使用ElSteps这个步骤条组件来说吧,当我们想耍个小聪明,动态切换当前的步骤时,却发现这小家伙有点儿迟钝,样式更新总跟不上趟,存在那么点延迟现象。这不仅影响了页面的交互流畅度,也可能给用户带来不愉快的体验。本篇文章将详细解析这个问题,并提供解决方案。 二、问题描述与复现 在Element-UI中,ElSteps组件用于展示一系列步骤流程,其包含一个active属性用于表示当前显示的步骤编号。当你尝试用编程的方式来捣鼓这个active值,比如通过v-model绑定数据或者自定义事件触发来让它动起来,你会发现这小家伙(组件样式)并不那么听话,不会马上涨价立马就变。它需要点时间,像喝杯茶缓缓神儿那样,等一会儿才能真正展现出新的状态。以下是一个简单的代码示例: html 在这个例子中,即使我们在handleChange方法中直接改变了currentStep的值并手动触发视图刷新,样式仍然会在一段时间后才被正确地应用到相应的步骤条上。 三、问题原因分析 深入探究ElSteps组件内部源码发现,当current属性发生变化时,组件并没有立即执行样式重置操作,而是依赖于浏览器的CSS渲染机制。你知道吗,浏览器在显示网页内容时,其实有点小“拖延症”,就像个排队等候的“画师”。我们把这称作“渲染队列”。也就是说,有时候你对网页做的改动,并不会马!上!就!呈现在页面上,就像是样式更新还在慢悠悠地等队伍排到自己呢,这就可能会造成样式更新的滞后现象。 此外,ElSteps组件在每次current属性变化时都会主动重新计算并设置CSS类名,但是在过渡动画还未结束之前,新旧类名之间的切换操作并未完全完成,因此样式未能及时生效。 四、解决方案 为了解决上述问题,我们可以采取以下两种策略: 1. 启用平滑过渡动画 ElSteps组件支持transition和animation属性来配置步进条的过渡效果,这可以在一定程度上改善样式更新的感知。将这两项属性设置为相同名称(如el-transfer)即可启用默认的平滑过渡动画,如下所示: html ... 此时,当current属性发生改变时,组件将会在现有状态和目标状态之间添加平滑过渡效果,减少了样式更新的滞后感。 2. 利用$forceUpdate()强制更新视图 尽管利用$nextTick()可以一定程度上优化视图渲染的顺序,但在某些情况下,我们还可以采用更激进的方式——强制更新视图。Vue有个很酷的功能,它有一个叫做$forceUpdate()的“刷新神器”,一旦你调用这个方法,就相当于给整个Vue实例来了个大扫除,所有响应式属性都会被更新到最新状态,同时,视图部分也会立马刷新重绘,就像变魔术一样。在handleChange方法中调用此方法可以帮助解决样式更新滞后问题: javascript handleChange(index) { this.currentStep = index; this.$forceUpdate(); } 这样虽然无法彻底避免浏览器渲染延迟带来的样式更新滞后,但在大多数场景下能显著提升视觉反馈的即时性。 总结来说,通过合理地结合平滑过渡动画和强制更新视图策略,我们可以有效地解决ElSteps步骤条在动态改变当前步骤时样式更新滞后的困扰。当然啦,在特定场景下让效果更上一层楼,就得根据实际情况和所在的具体环境对优化方案进行接地气的微调和完善,让它更适合咱们的需求。
2024-02-22 10:43:30
424
岁月如歌-t
PHP
...特别是对于大规模数据处理。同时,新的Blade模板引擎引入了更多灵活的特性,使得前端开发人员的工作效率得以提升。 对于开发者而言,了解并掌握Laravel的最佳实践至关重要。比如,使用Artisan命令行工具进行自动化任务,遵循PSR-4命名规范以提高团队协作效率,以及合理利用Laravel的事件系统来实现解耦和可扩展性。 然而,随着技术的迭代,保持学习和适应新变化也是关键。开发者应关注Laravel社区的最新动态,参与讨论,及时更新知识库,以确保项目始终处于最佳实践的前沿。同时,不断反思和优化自己的代码风格,以适应Laravel生态系统的持续进化。
2024-05-01 11:21:33
564
幽谷听泉_
ReactJS
...几个步骤: 步骤一:定义动画效果 首先,我们需要定义动画效果。这一步真的超级重要,要知道,动画效果做得好不好,那可是直接关系到整个APP用起来爽不爽的关键因素!比如,我们可以设计一个超酷的淡入动画效果,想象一下这样的情景:当你轻轻一点按钮,页面上的某个元素就像被施展了魔法一样,慢慢地、优雅地从隐形状态显现出来,给你带来意想不到的视觉惊喜。 步骤二:封装动画效果 接下来,我们需要封装动画效果。在做这个操作的时候,我们可以把动画效果单独打包成一个自定义的小部件或者函数,这样一来,你在其他任何需要的地方都能随时调用它,就像从工具箱里取出小工具一样方便。比如说,我们能创建一个名叫FadeIn的组件,这个小家伙呢,会接收一个props参数,这个参数的作用可大了,就是用来告诉我们它要让哪个元素逐渐显现出来,实现淡入效果。 步骤三:使用动画效果 最后,我们需要在应用程序中使用动画效果。在这个过程中,我们可以直接调用封装好的动画效果,而不必再次编写动画效果的代码。比如说,当你点击一个按钮的时候,我们可以在那个按钮的“事件响应小助手”里头,呼唤出一个叫FadeIn的小工具,让它帮忙让某个元素像魔术般慢慢显现出来,实现淡入的效果。 四、实战演示 现在,让我们来看一下如何利用React构建一个可复用的淡入动画库或组件。首先,我们需要定义动画效果。想在React项目里实现一个淡入动画效果?这里有个小窍门。首先,我们可以巧妙地利用React那个叫做useState的小工具来掌控状态的变化。然后呢,再搭配CSS动画的魔法,就能轻松把淡入效果玩转起来,让元素如同晨雾般自然显现。以下是代码示例: javascript import React, { useState } from 'react'; import './FadeIn.css'; const FadeIn = ({ children }) => { const [show, setShow] = useState(false); return ( {children} ); }; export default FadeIn; 在上述代码中,我们首先导入了useState钩子和相关的CSS文件。接下来,我们捣鼓出了一个名叫FadeIn的组件,这个小家伙有个特性,它可以接受一个叫children的属性,这个属性呢,就是用来告诉我们它要帮哪些内容慢慢变得可见,也就是淡入进来。在咱这组件里面,我们用了一个叫做useState的小玩意儿来捯饬"show"这个状态。简单来说,就是如果"show"这小家伙的值是true,那我们就把内容亮出来给大家瞅瞅;否则的话,就把它藏起来,不让大家看到。此外,我们还添加了一个CSS类名fade-in和hidden,用于控制淡入和隐藏的效果。 接下来,我们需要在应用程序中使用动画效果。以下是一个简单的示例,我们在点击按钮时,调用FadeIn组件来淡入某个元素: javascript import React, { useState } from 'react'; import FadeIn from './FadeIn'; function App() { const [showMessage, setShowMessage] = useState(false); const handleClick = () => { setShowMessage(true); }; return ( Click me {showMessage && {message} } ); } export default App; 在上述代码中,我们首先导入了FadeIn组件和useState钩子。然后,我们定义了一个App组件,这个组件包含一个按钮和一个FadeIn组件。当按钮被点击时,我们调用setShowMessage方法来改变showMessage的状态,从而触发FadeIn组件的淡入效果。
2023-03-14 20:38:59
105
草原牧歌-t
Logstash
在大数据处理和日志分析领域,Logstash作为Elastic Stack的核心组件之一,其对数据的高效过滤与排序功能对于提升数据分析准确性和效率至关重要。最近,在Logstash社区中,针对“Sortfilter: Cannot sort array of different types”这一经典问题的讨论热度不减,开发团队正积极寻求更为优化、智能的解决方案。 今年初,Elastic公司发布的新版本Logstash改进了对复杂数据类型的支持,增强了内部排序算法的能力,使其能够更灵活地处理混合类型的数组。例如,新增的自定义排序策略选项允许用户根据实际需求定义不同类型元素之间的比较规则,从而避免因类型不匹配导致的排序错误。 此外,为了更好地指导用户进行数据预处理,官方文档也更新了一系列详尽的最佳实践指南,深入剖析如何结合mutate、grok等插件对不同结构和类型的日志字段进行标准化转换,以确保后续排序操作顺利进行。 同时,业界专家建议,在设计日志收集和处理架构时,应当充分考虑数据质量及一致性的问题,从源头减少异构数据产生,通过合理配置Logstash管道,实现数据的规范化和有效利用。 总之,随着技术的发展和社区的共同努力,尽管“Sortfilter: Cannot sort array of different types”的挑战仍然存在,但通过不断完善的工具支持和持续演进的数据治理策略,这一问题已逐渐得到更加妥善且灵活的解决,有力推动了基于Elastic Stack的大数据处理与分析应用的进步。
2023-03-09 18:30:41
303
秋水共长天一色
Linux
...试能力,使得开发者在处理复杂软件崩溃问题时能更精准地定位错误源头。同时,SystemTap、LTTng等动态跟踪工具也在不断更新迭代,提供了实时监控内核事件、用户空间应用行为的能力,帮助运维人员更快发现并解决问题。 此外,对于软件日志管理方面,ELK Stack(Elasticsearch, Logstash, Kibana)等现代日志分析平台受到广泛关注。它们不仅能够收集、解析大量日志数据,还能通过可视化界面进行深度挖掘,使得排查Linux下软件故障的过程更为直观高效。 综上所述,在Linux世界里应对软件崩溃或异常运行问题的实战策略不断与时俱进,得益于开源生态的力量和业界技术的革新,使得我们面对此类挑战时拥有更为强大且全面的工具箱。了解并掌握这些最新的调试技术和日志分析方法,无疑将助力每一位IT从业者提升问题解决效率,确保服务稳定运行。
2023-01-30 23:07:13
127
青山绿水
Superset
...之后,我们了解到正确处理数据映射对于生成有效且准确的数据可视化至关重要。实际上,随着大数据与人工智能技术的飞速发展,数据可视化的应用场景日益丰富多元,不仅限于商业智能领域,在公共卫生、政策制定、科研探索等众多领域均有广泛应用。 近期,《Nature》杂志的一篇研究论文就揭示了数据可视化在新冠疫情数据分析中的关键作用,研究者通过精细的数据列映射和高级可视化技术,成功追踪并预测了疫情在全球范围内的传播趋势,为决策者提供了有力的科学依据。这也提醒我们,对数据科学家而言,掌握如何避免并修正数据映射错误,是提升其数据分析和可视化能力的关键环节。 同时,业界也在持续推动数据可视化工具的优化升级。例如,Apache Superset项目团队正积极研发新功能,以支持更复杂的数据集处理和自定义映射选项,旨在简化用户操作流程,降低由于人为疏忽导致的列映射异常发生率,进一步提升可视化结果的质量与可信度。 综上所述,理解并掌握数据列映射的相关知识和技术,结合实时的科研动态与行业发展趋势,将有助于我们在实际工作中更好地运用数据可视化工具,揭示隐藏在庞大数据背后的深层次信息,从而驱动决策优化和业务增长。
2023-09-13 11:26:54
100
清风徐来-t
Logstash
...富日志类型,如何有效处理这类日志以提升日志分析平台(如ELK栈)的性能与准确性,已成为众多IT运维人员关注的重点。 最近,Elastic公司持续优化其Logstash工具集,不仅强化了multiline codec的功能,还引入了更多高级配置选项以支持更广泛、更复杂的日志格式。例如,在新版本中,用户可以设置基于事件时间戳或特定关键字的合并策略,并实现对不同来源日志的差异化处理。 与此同时,开源社区也在积极探索创新解决方案,比如通过Grok模式匹配和自定义插件等手段,进一步增强对多行日志解析的灵活性。此外,一些云原生的日志管理系统也开始集成类似功能,利用容器和Kubernetes环境中的元数据信息,智能判断并合并跨行日志。 实践中,对于那些涉及敏感信息或者需要深度挖掘业务逻辑的日志内容,精细化的多行合并策略更是必不可少。通过对日志结构进行深入理解并合理运用正则表达式,不仅可以确保数据分析结果的准确性和完整性,更能助力企业实现高效运维、故障排查及安全审计。 因此,理解和掌握在Logstash或其他日志处理工具中处理多行日志合并的方法,对于提升整个IT基础设施的数据洞察力具有重要的现实意义。在这个快速迭代的数字化时代,紧跟技术发展趋势,不断更新和完善日志管理实践,无疑将为企业带来更为显著的技术竞争优势。
2023-08-19 08:55:43
249
春暖花开
转载文章
...83。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 AI之AutoML:autosklearn/Auto-Sklearn(基于scikit-learn库的自动化的机器学习工具)的简介、安装、使用方法之详细攻略 目录 autosklearn/Auto-Sklearn的简介 autosklearn/Auto-Sklearn(基于scikit-learn库的自动化的机器学习工具)的概述 autosklearn/Auto-Sklearn的安装 系统安装要求¶ autosklearn/Auto-Sklearn的使用方法 1、基础案例 autosklearn/Auto-Sklearn的简介 autosklearn/Auto-Sklearn(基于scikit-learn库的自动化的机器学习工具)的概述 简介 Auto-Sklearn,在2015年由德国图宾根大学的研究人员提出的,最初的版本于2016年发布。auto-sklearn基于scikit-learn库进行开发,支持多种机器学习任务,包括分类、回归、时间序列等。 核心技术点 Auto-Sklearn使用了贝叶斯优化的方法进行超参数优化,可以在较短的时间内找到最优的超参数组合,从而得到更好的模型性能。 功能 Auto-Sklearn是一款基于Python的自动机器学习工具,可以自动进行机器学习的各个步骤,包括特征选择、特征预处理、算法选择和超参数优化等。 自动特征选择与工程:可以自动选择最优特征子集,并进行归一化、缺失值处理等特征工程。 自动模型选择:可以自动选择最优的机器学习算法来解决问题,支持的算法包括SVM、KNN、随机森林等。 自动超参数优化:可以自动搜索机器学习模型的最优超参数,获得最高性能的模型配置。 特点 auto-sklearn的优势在于它的易用性和灵活性。用户只需要提供数据集和一些基本的配置,就可以自动进行模型构建和优化。 auto-sklearn可以自动选择和配置算法和超参数,从而让用户省去了手动调参的过程。 auto-sklearn还支持并行化处理,可以在多个CPU或GPU上运行,进一步加速模型训练和优化。 优缺点 自动化:auto-sklearn能够自动化地完成机器学习的各个环节,从而让用户省去手动调参和特征工程等繁琐的工作。 灵活性:auto-sklearn提供了多种配置选项,用户可以根据自己的需求进行自定义配置。 性能好:auto-sklearn使用贝叶斯优化技术进行超参数优化,能够在短时间内找到最优的超参数组合,从而得到更好的模型性能。 处理大数据集时较慢:auto-sklearn的处理速度受限于计算资源,处理大数据集时需要较长时间。 可解释性较差:由于auto-sklearn是自动化的,生成的模型可解释性较差。 应用案例 Kaggle竞赛:auto-sklearn在多个Kaggle竞赛中表现出色,包括房价预测、分类、回归等多个任务。 自动化机器学习平台:auto-sklearn可以作为自动化机器学习平台的核心组件,帮助用户快速构建和部署机器学习模型。 数据科学教育:auto-sklearn可以作为教学工具,帮助学生快速入门机器学习,并加深对机器学习原理的理解。 autosklearn/Auto-Sklearn的安装 pip install auto-sklearnpip install -i https://pypi.tuna.tsinghua.edu.cn/simple auto-sklearnconda install -c conda-forge auto-sklearn 系统安装要求¶ auto-sklearn 具有以下系统要求: Linux 操作系统(例如 Ubuntu)(在此处获取 Linux) Python (>=3.7)(在此处获取 Python), C++ 编译器(支持 C++11)(在此处获取 GCC)。 如果您尝试在没有提供 pyrfr 包的 wheel 文件的系统上安装 Auto-sklearn(请参阅此处了解可用的 wheels),您还需要: SWIG(在此处获取 SWIG)。 有关缺少 Microsoft Windows 和 macOS 支持的说明,请查看Windows/macOS 兼容性部分。 注意:auto-sklearn 当前不支持 Windows系统,因为auto-sklearn严重依赖 Python 模块resource。是 Python 的Unix 特定服务resource 的一部分 ,在 Windows 机器上不可用。因此,无法 在 Windows 机器上运行auto-sklearn 。 autosklearn/Auto-Sklearn的使用方法 1、基础案例 import sklearn.datasetsimport autosklearn.classification 加载Titanic数据集X, y = sklearn.datasets.load_breast_cancer(return_X_y=True) 使用Auto-Sklearn训练模型model = autosklearn.classification.AutoSklearnClassifier()model.fit(X, y) 输出模型评估结果print(model.sprint_statistics()) 本篇文章为转载内容。原文链接:https://blog.csdn.net/qq_41185868/article/details/83758383。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-06-13 13:27:17
114
转载
Netty
...个开源的高性能、异步事件驱动的网络应用框架,用于快速开发可维护的高性能协议服务器和客户端。在Java语言环境下,Netty极大地简化了对TCP、UDP和其他自定义协议的socket编程,尤其擅长处理高并发场景下的网络通信问题。 TCP KeepAlive , TCP保活机制是TCP协议提供的一种功能,用于检测连接双方的存活状态。在开启该机制后,即使没有数据传输,TCP也会定期发送“探测”报文(即心跳包)来确认连接是否仍然有效。如果对方主机崩溃或网络断开,KeepAlive机制可以较早地发现并断开无效连接,从而释放资源。 IdleStateHandler , IdleStateHandler是Netty中的一个处理器,用于检测Channel(通道)在一段时间内是否处于空闲状态。它可以监控读、写、所有类型的空闲时间,并在达到预设阈值时触发用户自定义的处理逻辑,如发送心跳包以维持长连接或者关闭长时间无活动的连接。 Channel , 在Netty中,Channel是网络连接的抽象表示,它封装了底层网络IO操作,如读取、写入数据等。开发者可以通过注册各种ChannelHandler到ChannelPipeline(管道)中来处理不同阶段的数据传输与事件通知,实现灵活且高效的网络通信模型。 EventLoopGroup , 在Netty中,EventLoopGroup是一组EventLoop的抽象,每个EventLoop负责处理与其关联的Channel上的所有IO操作。这种设计允许Netty采用线程池的方式高效地处理大量并发连接,确保了系统的高性能和可扩展性。
2023-09-11 19:24:16
220
海阔天空
转载文章
...44。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 18.准入控制器 Admission Controller准入控制器作为把手kubernetes系统安全的最后一道关卡,对已知且有权限用户的操作合规性验证是缺一不可的! 1.什么是准入控制器? 准入控制器(Admission Controller)位于API Server中,在对象被持久化之前,准入控制器拦截对API Server的请求,一般用来做身份验证和授权。 其中包含两个特殊的控制器钩子: MutatingAdmissionWebhook和ValidatingAdmissionWebhook 1.变更(Mutating)准入控制 工作逻辑为修改请求的对象 2.验证(Validating)准入控制 工作逻辑为验证请求的对象 以上两类控制器可以分而治之,也能合作运行 2.为什么我们需要它? 就像我在上一章节提到的那样,准入控制器的引入可以很好的帮助我们运维人员,站在一个集群管理者的角度,去“限定”和规划集群资源的合理利用策略和期望状态。 同时,很多kubernetes的高级功能,也是基于准入控制器之上进行建设的。 3.常用的准入控制器 1.AlwaysPullImages 总是拉取远端镜像; 好处:可以避免本地系统处于非安全状态时,被别人恶意篡改了本地的容器镜像 2.LimitRanger 此准入控制器将确保所有资源请求不会超过namespace级别的LimitRange(定义Pod级别的资源限额,如cpu、mem) 3.ResourceQuota 此准入控制器负责集群的计算资源配额,并确保用户不违反命名空间的ResourceQuota对象中列举的任何约束(定义名称空间级别的配额,如pod数量) 4.PodSecurityPolicy 此准入控制器用于创建和修改pod,并根据请求的安全上下文和可用的Pod安全策略确定是否应该允许它。 4.如何开启准入控制器 在kubernetes环境中,你可以使用kube-apiserver命令结合enable-admission-plugins的flag,后面需要跟上以逗号分割的准入控制器清单,如下所示: kube-apiserver --enable-admission-plugins=NamespaceLifecycle,LimitRanger … 5.如何关闭准入控制器 同理,你可以使用flag:disable-admission-plugins,来关闭不想要的准入控制器,如下所示: kube-apiserver --disable-admission-plugins=PodNodeSelector,AlwaysDeny … 6.实战:控制器的使用 1.LimitRanger 1)首先,编辑limitrange-demo.yaml文件,我们定义了一个cpu的准入控制器。 其中定义了默认值、最小值和最大值等。 apiVersion: v1kind: LimitRangemetadata:name: cpu-limit-rangenamespace: mynsspec:limits:- default: 默认上限cpu: 1000mdefaultRequest:cpu: 1000mmin:cpu: 500mmax:cpu: 2000mmaxLimitRequestRatio: 定义最大值是最小值的几倍,当前为4倍cpu: 4type: Container 2)apply -f之后,我们可以通过get命令来查看LimitRange的配置详情 [root@centos-1 dingqishi] kubectl get LimitRange cpu-limit-range -n mynsNAME CREATED ATcpu-limit-range 2021-10-10T07:38:29Z[root@centos-1 dingqishi] kubectl describe LimitRange cpu-limit-range -n mynsName: cpu-limit-rangeNamespace: mynsType Resource Min Max Default Request Default Limit Max Limit/Request Ratio---- -------- --- --- --------------- ------------- -----------------------Container cpu 500m 2 1 1 4 2.ResourceQuota 1)同理,编辑配置文件resoucequota-demo.yaml,并apply; 其中,我们定义了myns名称空间下的资源配额。 apiVersion: v1kind: ResourceQuotametadata:name: quota-examplenamespace: mynsspec:hard:pods: "5"requests.cpu: "1"requests.memory: 1Gilimits.cpu: "2"limits.memory: 2Gicount/deployments.apps: "2"count/deployments.extensions: "2"persistentvolumeclaims: "2" 2)此时,也可以查看到ResourceQuota的相关配置,是否生效 [root@centos-1 dingqishi] kubectl get ResourceQuota -n mynsNAME CREATED ATquota-example 2021-10-10T08:23:54Z[root@centos-1 dingqishi] kubectl describe ResourceQuota quota-example -n mynsName: quota-exampleNamespace: mynsResource Used Hard-------- ---- ----count/deployments.apps 0 2count/deployments.extensions 0 2limits.cpu 0 2limits.memory 0 2Gipersistentvolumeclaims 0 2pods 0 5requests.cpu 0 1requests.memory 0 1Gi 大家可以将生效后的控制器,结合相关pod自行测试资源配额的申请、限制和使用的情况 本篇文章为转载内容。原文链接:https://blog.csdn.net/flq18210105507/article/details/120845744。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-12-25 10:44:03
336
转载
转载文章
...组用两个方括号 定义,如int arr,其中每个内部数组(arr i )都可以独立设置长度。 SQL UNION ALL运算符 , 在SQL查询语句中,UNION ALL是将两个或更多SELECT语句的结果集合并为一个结果集的集合操作符。它不会去除重复行,与常规的UNION操作不同。在本文项目实例中,通过UNION ALL将包含特定值的记录与其他记录合并,确保特定值所在的记录始终出现在下拉菜单的最前面。 ASPxDropDownEdit控件 , ASPxDropDownEdit是 DevExpress公司开发的一款用于ASP.NET WebForms应用程序的高级编辑器控件,它提供了一种用户友好的界面,允许用户从下拉列表中选择一个值。这个控件在文章中被用来实现前端显示数据库信息的功能,支持丰富的定制化和事件处理功能。 TreeList控件 , TreeList控件同样是由DevExpress提供的ASP.NET WebForms组件,用于展示具有层次结构(树状结构)的数据,每一项可以展开以查看其子项。在项目中,TreeList控件嵌入到ASPxDropDownEdit控件内,实现了下拉菜单形式的树级结构选择,使得用户可以在下拉框中直观地浏览和选择层级数据。 CASE WHEN语句 , CASE WHEN是SQL中的一种条件表达式,用于根据给定的条件执行不同的计算或返回不同的值。在文章所提及的SQL查询示例中,CASE WHEN用于对 DUTIES_ID 字段进行判断,当其值等于特定值时返回0,否则返回1,以此作为排序依据,确保特定值对应的记录在下拉菜单中优先显示。
2023-06-20 18:50:13
307
转载
转载文章
..., 并查集是一种用于处理不相交集合的数据结构,常被用于判断两个元素是否属于同一集合以及合并两个集合。在该文章中,题目L2-007的家庭房产问题中,通过并查集数据结构来表示和处理家庭成员之间的关系,便于统计每个家庭的成员数、房产信息等。 逆文档频率(Inverse Document Frequency, IDF) , 虽然本文并未直接涉及逆文档频率,但在关键词提取或文本分析领域,IDF是一个常用的指标。它衡量一个词在所有文档中出现的相对频率,数值越高表示该词在整个语料库中的独特性越强。结合词频TF,可以计算出TF-IDF值,用以评估一个词对于某篇特定文档的重要性。 结构体(Struct) , 在C++编程语言中,结构体是一种用户自定义的数据类型,允许将不同类型的数据组合在一起形成一个新的数据类型。文中提到的“node”和“GG”结构体分别用来存储个人的房产信息和排序所需的家庭统计数据。例如,“node”结构体包含一个人的房产套数、总面积及其亲属关系信息;而“GG”结构体则用于保存按要求格式排序后的家庭信息,如家庭人口数、人均房产套数和面积等。 NLP(Natural Language Processing) , 自然语言处理是计算机科学和人工智能的一个分支,致力于研究如何让计算机理解、生成和学习人类语言。尽管文章主要讨论的是一个编程题目,但其中涉及的信息处理、输入输出格式解析等内容与NLP技术有密切关联。在实际应用中,利用NLP技术可以更好地理解和处理房产领域的文本型数据,提高房产信息管理的智能化水平。
2023-01-09 17:56:42
562
转载
转载文章
...89。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 创建数组 val 声明的数组只能改变元素 var 声明的数组可以改变引用 创建方式 举例 Array () 通用数组 Array(size: Int, init: (Int) -> T) val array: Array<Int> = Array(5) { i -> i 2 } 5是数组长度,i是索引值,元素赋值为索引值2 原生数组 IntArray (长度) Array (长度) val ys1 = IntArray(5) //元素都是0 val ys2 = BooleanArray(5) //元素都是false val ys3 = CharArray(5) //元素都是空格 arrayOfXXX () 指定元素(元素可为任意类型) arrayOf () val array1: Array<Any> = arrayOf(1, '你', "hahaah", false) for (element: Any in array1) print(element) val array2: Array<Int> = arrayOf(1, 2, 3) val array3: Array<Person> = arrayOf(person1, person2) 指定长度(元素都为null) arrayOfNulls () val arrayNull: Array<String> = arrayOfNulls<String>(6) 空数组 emptyArray () val empty: Array<String> = emptyArray<String>() 原生数组(避免拆装箱开销) intArrayOf () ArrayOf () val array3: IntArray = intArrayOf(1, 3, 5, 7) val array4: CharArray = charArrayOf('a', 'b', 'c') 原生数组 & 通用数组 为了避免不必要的拆装箱开销,或者与Java互操作,可以使用原生类型数组。这些类与Array没有继承关系,只是有相同的方法属性,因此 IntArray 和 Array<Int> 是完全不同的类型,但两者可以互转。 原生类型数组 对应Java中的基本数据类型数组 IntArray Array int [ ] [ ] 方法 说明 举例 toIntArray () toArray () 通用→原生 val ty: Array<Int> = arrayOf(1, 2, 3) val toIntArray: IntArray = ty.toIntArray() toTypedArray () 原生→通用 val ys: IntArray = intArrayOf(1, 2, 3) val toTypedArray: Array<Int> = ys.toTypedArray() Person[] people = {new Person(), new Person()}; //Javaval people: Array<Person> = arrayOf(Person(), Person()) //Kotlin 遍历 val arr = arrayOf(1,2,3,4,5)//通过forEach循环arr.forEach{println(it)}//通过iterator循环var iterable:Iterator<Integer> = arr.iterator();while(iterable.hasNext()){println(iterable.next())}for(element in arr.iterator()){println(element)}//for循环一for(element in arr){println(element)}//for循环二for(index in 0..arr.size-1){println(arr[index])}//for循环三for(index in arr.indices){println(arr[index])}//for循环四for((index, value) in arr.withIndex()){println("$index位置的元素是:$value")}// 上面写法等价于下面写法for (element in arr.withIndex()) {println("${element.index} : ${element.value}")} 操作 方法 说明 .size .indices 数组长度 数组最大索引值 get (索引) 获取元素,推荐使用操作符 [ ] arr[3] 等同于 arr.get(3) set (索引,目标值) 给元素赋值,推荐使用操作符 [ ] arr[3] = "哈" 等同于 arr.set(3,"哈") plus (目标值) 增加:返回一个数组长度+1并用目标值赋值新元素的新数组,不对原数组进行改动 arr + 6 等同于 arr.plus(6) slice (区间) 截取:返回一个截取该区间元素的新数组,不对原数组进行改动 fill (目标值) fill (目标值,起始索引,结束索引) 修改:将该区间的元素赋值为指定值 copyOf () copyOf (个数) copyOfRange (起始索引,结束索引) 返回一个 完全复制了原数组 的新数组 返回一个 正向复制原数组元素个数 的新数组,超过原数组大小的新元素值为null 返回一个 复制原数组该区间元素 的新数组,超过原数组索引范围报错 asList () 数组转集合 reverse () reversedArray () reversed () 反转:将数组中的元素顺序进行反转 返回一个反转后的新数组,不对原数组进行改动 返回一个反转后的list,不对原数组进行改动 sort () sortedArray () sorted () 排序:对数组中的元素进行自然排序 返回一个自然排序后的新数组,不对原数组进行改动 返回一个自然排序后的list,不对原数组进行改动 joinToString (字符串分隔符) 将Array原生数组拼接成一个String,默认分隔符是“,” all (predicate) any (predicate) 全部元素满足条件返回 true,否则 false 任一元素满足条件返回 true,否则 false val arr = arrayOf(1, 2, 3, 4, 5)val cc = charArrayOf('你','们','好')val brr = arrayOf(5,2,1,4,3)//数组长度val num1 = arr.size //5//最大索引val num2 = arr.indices //4for (i in arr.indices) print(i) //01234//条件判断val boolean1 = arr.all { i -> i > 3 } //false,不是全部元素>3//增val arr1 = arr.plus(6) //123456,长度+1并赋值为6val arr2 = arr + 6 //同上//改val arr3 = arr.slice(2..4) //345arr.fill(0) //00000,操作的是原数组val str1 = cc.joinToString("") //你们好brr.sort() //12345val list1 = brr.sorted() //返回一个排序后的listval brr4 = brr.sortedArray() //返回排序后的新数组val arr5 = arr.copyOf() //12345val arr6 = arr.copyOf(2) //12val arr7 = arr.copyOfRange(2,4) //34 多维数组 //方式一:数组里面存的元素是数组val aa = arrayOf(arrayOf(1, 2, 3),arrayOf(4, 5, 6))print(aa[1][2]) //6//方式二:元素为null但类型是数组val bb = arrayOfNulls<Array<Int>>(2) 本篇文章为转载内容。原文链接:https://blog.csdn.net/HugMua/article/details/121866989。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-03-31 12:34:25
66
转载
Scala
...儿可不只是搞定个异常处理那么简单,它还能让我们好好琢磨琢磨URL的构造、字符串怎么摆弄,还有怎么管好各种异常呢。在这过程中,我们会学到怎么正确处理URL,还会分享一些编程小窍门,让我们的代码变得更结实耐用,不容易出问题。 什么是MalformedURLException? 1. 定义与背景 MalformedURLException是Java世界里常见的一个异常,当程序尝试解析一个不符合标准格式的URL时,就会抛出这个异常。简单来说,就是你的URL地址格式不对,程序就无法识别它。在Scala中,由于Scala本质上是基于JVM的,因此我们也会遇到这个问题。 2. 实际案例分析 假设你正在编写一个Web爬虫程序,需要从网页上抓取链接并进行进一步处理。要是链接格式不对劲,比如忘了加“http://”这样的协议头,或者是里面夹杂了一些奇怪的字符,那你创建URL对象的时候就可能会碰到MalformedURLException这个麻烦事儿。想象一下,你满怀期待地运行程序,结果却因为一个小小的URL格式错误而崩溃,那种感觉就像是你心爱的代码花园里突然被一只调皮的小猫撒了泡尿,真是让人抓狂啊! 如何避免MalformedURLException? 3. 预防措施 检查URL格式 首先,我们需要确保提供的URL字符串是有效的。最简单的方法就是在生成URL对象之前,自己先手动检查一下这个字符串是不是符合咱们想要的格式。这里我们可以借助正则表达式来完成这一任务: scala import scala.util.matching.Regex val urlRegex: Regex = """https?://[\w.-]+(/[\w.-])""".r def isValidUrl(url: String): Boolean = url match { case urlRegex() => true case _ => false } // 测试 println(isValidUrl("http://example.com")) // 输出: true println(isValidUrl("www.example.com")) // 输出: false 使用try-catch块 其次,在实际创建URL对象时,可以将这部分代码包裹在一个try-catch块中,这样即使发生MalformedURLException,程序也不会完全崩溃,而是能够优雅地处理错误: scala try { val url = new java.net.URL("http://example.com") println(s"URL is valid: $url") } catch { case e: java.net.MalformedURLException => println("MalformedURLException occurred.") } 4. 处理异常 除了基本的异常捕获之外,我们还可以采取一些额外措施来增强程序的鲁棒性。例如,在catch块内部,我们可以记录错误日志,甚至向用户提供友好的提示信息,告知他们输入的URL存在格式问题,并建议正确的格式: scala try { val url = new java.net.URL("http://example.com") println(s"URL is valid: $url") } catch { case e: java.net.MalformedURLException => println("MalformedURLException occurred. Please ensure your URL is properly formatted.") // 记录错误日志 import java.io.PrintWriter import java.io.StringWriter val sw = new StringWriter() val pw = new PrintWriter(sw) e.printStackTrace(pw) println(sw.toString) } 进阶技巧:自定义URL验证函数 5. 自定义验证逻辑 为了进一步提高代码的可读性和复用性,我们可以封装上述功能,创建一个专门用于验证URL的函数。该函数不仅会检查URL格式,还会执行一些额外的安全检查,比如防止SQL注入等恶意行为: scala import java.net.URL def validateUrl(urlString: String): Option[URL] = { if (!isValidUrl(urlString)) { None } else { try { Some(new URL(urlString)) } catch { case _: MalformedURLException => None } } } // 测试 validateUrl("http://example.com") match { case Some(url) => println(s"Valid URL: $url") case None => println("Invalid URL.") } 结论 通过本文的学习,希望大家对Scala中处理URL相关的问题有了更深刻的理解。记住,预防总是优于治疗。在写代码的时候,提前想到可能会出的各种岔子,并且想办法避开它们,这样我们的程序就能更稳当、更靠谱了。当然,面对MalformedURLException这样的常见异常,保持冷静、合理应对同样重要。希望今天的分享能帮助大家写出更好的Scala代码! 最后,别忘了在日常开发中多实践、多总结经验,编程之路虽充满挑战,但每一步都值得骄傲。祝大家代码愉快!
2024-12-19 15:45:26
23
素颜如水
MemCache
...据短暂缺失的场景,如用户会话信息、热点新闻等,Memcached的数据丢失可能带来的影响相对有限。不过,在有些场景下,我们需要长期确保数据的一致性,比如你网购时的购物车信息、积分累计记录这些情况。万一这种数据丢失了,那可能就会影响你的使用体验,严重的话,甚至会引发一些让人头疼的业务逻辑问题。 3. 面对数据丢失的应对策略 (1)备份与恢复方案 虽然Memcached本身不具备数据持久化的功能,但我们可以通过其他方式间接实现数据的持久化。例如,可以定期将Memcached中的数据备份到数据库或其他持久化存储中: python 假设有一个从Memcached获取并持久化数据到MySQL的过程 def backup_to_mysql(): all_items = mc.get_multi(mc.keys()) for key, value in all_items.items(): save_to_mysql(key, value) 自定义保存到MySQL的函数 (2)组合使用Redis等具备持久化的缓存系统 另一个可行的方案是结合使用Redis等既具有高速缓存特性和又能持久化数据的系统。Redis不仅可以提供类似Memcached的内存缓存服务,还支持RDB和AOF两种持久化机制,能在一定程度上解决数据丢失的问题。 python import redis r = redis.Redis(host='localhost', port=6379, db=0) r.set('key', 'value') 在Redis中设置键值对,即使服务器重启,数据也能通过持久化机制得以恢复 (3)架构层面优化 在大型分布式系统中,可以通过设计冗余和分布式存储策略来降低单点故障带来的影响。比如,我们可以像搭积木那样部署多个Memcached实例,然后用一致性哈希这类聪明的算法给它们分配工作量和切分数据块。这样不仅能确保整体负载均衡,还能保证每一份数据都有好几个备份,分别存放在不同的节点上,就像把鸡蛋放在不同的篮子里一样,安全又可靠。 4. 结语 人类视角的理解与思考 面对Memcached数据丢失的问题,开发者们不能止步于理解其原理,更应积极寻求有效的应对策略。这就像生活中我们对待易逝的事物,尽管明白“天下无不散之筵席”,但我们依然会拍照留念、撰写日记,以期留住美好瞬间。同样,在我们使用Memcached这玩意儿的时候,也得充分了解它的脾性,借助一些巧妙的技术手段和设计架构,让数据既能痛快地享受高速缓存带来的速度福利,又能机智地避开数据丢失的坑。只有这样,我们的系统才能在效率与可靠性之间取得最佳平衡,更好地服务于业务需求。
2023-05-22 18:41:39
83
月影清风
Logstash
...级厉害的数据收集和预处理的能手!它就像是搭建数据处理流水线的专家,把各种各样的数据从源头捞起来,清洗得干干净净,然后送到我们需要的地方去。无论是网络流量、日志文件还是数据库里的数据,Logstash都能搞定,简直是数据处理界的多面手啊!哎呀,你知道吗?在我们真正用上这些配置的时候,如果搞错了,可能会让数据审计这事儿全盘皆输。就像你做一道菜,调料放不对,整道菜可能就毁了。这样一来,咱们做决策的时候,参考的数据就不准确了,就好像盲人摸象,摸到的只是一小块,以为这就是大象全貌呢。所以啊,配置这块得细心点,别大意了!本文旨在深入探讨Logstash配置中的常见问题以及如何避免这些问题,确保数据审计的顺利进行。 一、Logstash基础与重要性 Logstash是一个开源的数据处理管道工具,用于实时收集、解析、过滤并发送事件至各种目的地,如Elasticsearch、Kafka等。其灵活性和强大功能使其成为构建复杂数据流系统的核心组件。 二、错误类型与影响 1. 配置语法错误 不正确的JSON语法会导致Logstash无法解析配置文件,从而无法启动或运行。 2. 过滤规则错误 错误的过滤逻辑可能导致重要信息丢失或误报,影响数据分析的准确性。 3. 目标配置问题 错误的目标配置(如日志存储位置或传输协议)可能导致数据无法正确传递或存储。 4. 性能瓶颈 配置不当可能导致资源消耗过大,影响系统性能或稳定性。 三、案例分析 数据审计失败的场景 假设我们正在审计一家电商公司的用户购买行为数据,目的是识别异常交易模式。配置了如下Logstash管道: json input { beats { port => 5044 } } filter { grok { match => { "message" => "%{TIMESTAMP_ISO8601:time} %{SPACE} %{NUMBER:amount} %{SPACE} %{IPORHOST:host}" } } mutate { rename => { "amount" => "transactionAmount" } add_field => { "category" => "purchase" } } } output { elasticsearch { hosts => ["localhost:9200"] index => "purchase_data-%{+YYYY.MM.dd}" } } 在这段配置中,如果elasticsearch输出配置错误,例如将hosts配置为无效的URL或端口,那么数据将无法被正确地存储到Elasticsearch中,导致审计数据缺失。 四、避免错误的策略 1. 详细阅读文档 了解每个插件的使用方法和限制,避免常见的配置陷阱。 2. 单元测试 在部署前,对Logstash配置进行单元测试,确保所有组件都能按预期工作。 3. 代码审查 让团队成员进行代码审查,可以发现潜在的错误和优化点。 4. 使用模板和最佳实践 借鉴社区中成熟的配置模板和最佳实践,减少自定义配置时的试错成本。 5. 持续监控 部署后,持续监控Logstash的日志和系统性能,及时发现并修复可能出现的问题。 五、总结与展望 通过深入理解Logstash的工作原理和常见错误,我们可以更加有效地利用这一工具,确保数据审计流程的顺利进行。嘿,兄弟!听好了,你得记着,犯错不是啥坏事,那可是咱成长的阶梯。每次摔一跤,都是咱向成功迈进一步的机会。咱们就踏踏实实多练练手,不断调整,优化策略。这样,咱就能打造出让人心头一亮的实时数据处理系统,既高效又稳当,让别人羡慕去吧!哎呀,随着科技这艘大船的航行,未来的Logstash就像个超级多功能的瑞士军刀,越来越厉害了!它能干的事儿越来越多,改进也是一波接一波的,简直就是我们的得力助手,帮咱们轻松搞定大数据这滩浑水,让数据处理变得更简单,更高效!想象一下,未来,它能像魔术师一样,把复杂的数据问题变个无影无踪,咱们只需要坐享其成,享受数据分析的乐趣就好了!是不是超期待的?让我们一起期待Logstash在未来发挥更大的作用,推动数据驱动决策的进程。
2024-09-15 16:15:13
151
笑傲江湖
转载文章
...16。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 Java中的元组Tuple 文章目录 Java中的元组Tuple 1. 概念 2. 使用 2.1 依赖Jar包 2.2 基本使用 2.2.1 直接调用 2.2.2 自定义工具类 2.2.3 示例代码 1. 概念 Java中的Tuple是一种数据结构,可存放多个元素,每个元素的数据类型可不同。Tuple与List集合类似,但是不同的是,List集合只能存储一种数据类型,而Tuple可存储多种数据类型。 可能你会说,Object类型的List实际也是可以存储多种类型的啊?但是在创建List的时候,需要指定元素数据类型,也就是只能指定为Object类型,获取的元素类型就是Object,如有需要则要进行强转。而Tuple在创建的时候,则可以直接指定多个元素数据类型。 Tuple具体是怎么的数据结构呢? 元组(tuple)是关系数据库中的基本概念,关系是一张表,表中的每行(即数据库中的每条记录)就是一个元组,每列就是一个属性。 在二维表里,元组也称为行。 以上是百度百科中的"元组"概念,我们将一个元组理解为数据表中的一行,而一行中每个字段的类型是可以不同的。这样我们就可以简单理解Java中的Tuple数据结构了。 2. 使用 2.1 依赖Jar包 Maven坐标如下: <dependency><groupId>org.javatuples</groupId><artifactId>javatuples</artifactId><version>1.2</version></dependency> 引入相关依赖后,可以看出jar包中的结构很简单,其中的类主要是tuple基础类、扩展的一元组、二元组…十元组,以及键值对元组;接口的作用是提供【获取创建各元组时传入参数值】的方法。 2.2 基本使用 2.2.1 直接调用 以下以三元组为例,部分源码如下: package org.javatuples;import java.util.Collection;import java.util.Iterator;import org.javatuples.valueintf.IValue0;import org.javatuples.valueintf.IValue1;import org.javatuples.valueintf.IValue2;/ <p> A tuple of three elements. </p> @since 1.0 @author Daniel Fernández/public final class Triplet<A,B,C> extends Tupleimplements IValue0<A>,IValue1<B>,IValue2<C> {private static final long serialVersionUID = -1877265551599483740L;private static final int SIZE = 3;private final A val0;private final B val1;private final C val2;public static <A,B,C> Triplet<A,B,C> with(final A value0, final B value1, final C value2) {return new Triplet<A,B,C>(value0,value1,value2);} 我们一般调用静态方法with,传入元组数据,创建一个元组。当然了,也可以通过有参构造、数组Array、集合Collection、迭代器Iterator来创建一个元组,直接调用相应方法即可。 但是,我们可能记不住各元组对象的名称(Unit、Pair、Triplet、Quartet、Quintet、Sextet、Septet、Octet、Ennead、Decade),还要背下单词…因此,我们可以自定义一个工具类,提供公共方法,根据传入的参数个数,返回不同的元组对象。 2.2.2 自定义工具类 package com.superchen.demo.utils;import org.javatuples.Decade;import org.javatuples.Ennead;import org.javatuples.Octet;import org.javatuples.Pair;import org.javatuples.Quartet;import org.javatuples.Quintet;import org.javatuples.Septet;import org.javatuples.Sextet;import org.javatuples.Triplet;import org.javatuples.Unit;/ ClassName: TupleUtils Function: <p> Tuple helper to create numerous items of tuple. the maximum is 10. if you want to create tuple which elements count more than 10, a new class would be a better choice. if you don't want to new a class, just extends the class {@link org.javatuples.Tuple} and do your own implemention. </p> date: 2019/9/2 16:16 @version 1.0.0 @author Chavaer @since JDK 1.8/public class TupleUtils{/ <p>Create a tuple of one element.</p> @param value0 @param <A> @return a tuple of one element/public static <A> Unit<A> with(final A value0) {return Unit.with(value0);}/ <p>Create a tuple of two elements.</p> @param value0 @param value1 @param <A> @param <B> @return a tuple of two elements/public static <A, B> Pair<A, B> with(final A value0, final B value1) {return Pair.with(value0, value1);}/ <p>Create a tuple of three elements.</p> @param value0 @param value1 @param value2 @param <A> @param <B> @param <C> @return a tuple of three elements/public static <A, B, C> Triplet<A, B, C> with(final A value0, final B value1, final C value2) {return Triplet.with(value0, value1, value2);} } 以上的TupleUtils中提供了with的重载方法,调用时根据传入的参数值个数,返回对应的元组对象。 2.2.3 示例代码 若有需求: 现有pojo类Student、Teacher、Programmer,需要存储pojo类的字节码文件、对应数据库表的主键名称、对应数据库表的毕业院校字段名称,传到后层用于组装sql。 可以再定义一个对象类,但是如果还要再添加条件字段的话,又得重新定义…所以我们这里直接使用元组Tuple实现。 public class TupleTest {public static void main(String[] args) {List<Triplet<Class, String, String>> roleList = new ArrayList<Triplet<Class, String, String>>();/三元组,存储数据:对应实体类字节码文件、数据表主键名称、数据表毕业院校字段名称/Triplet<Class, String, String> studentTriplet = TupleUtils.with(Student.class, "sid", "graduate");Triplet<Class, String, String> teacherTriplet = TupleUtils.with(Teacher.class, "tid", "graduate");Triplet<Class, String, String> programmerTriplet = TupleUtils.with(Programmer.class, "id", "graduate");roleList.add(studentTriplet);roleList.add(teacherTriplet);roleList.add(programmerTriplet);for (Triplet<Class, String, String> triplet : roleList) {System.out.println(triplet);} }} 存储数据结构如下: 本篇文章为转载内容。原文链接:https://blog.csdn.net/qq_35006663/article/details/100301416。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-09-17 17:43:51
257
转载
Apache Atlas
...家知名企业因数据泄露事件引发公众关注,凸显了数据脱敏技术在防范敏感信息泄露、保障用户隐私方面的紧迫性和必要性。《华尔街日报》近期报道了一项关于数据脱敏最新趋势的研究,指出随着GDPR、CCPA等全球数据保护法规的实施,企业正在积极采用自动化和智能化的数据脱敏工具,如Apache Atlas,来强化内部数据管理和合规性建设。 进一步了解,Apache Atlas不仅支持自定义数据脱敏策略,还具备全面的数据血缘分析和分类能力,帮助企业更有效地识别敏感数据源头,精准定位风险点。此外,业界专家建议,企业在实施数据脱敏策略时,还需紧密结合业务需求,兼顾数据可用性和安全性,确保脱敏后的数据能满足内部分析、机器学习等应用场景的需求,同时避免因过度脱敏导致的信息价值丧失。 值得注意的是,Apache Atlas正持续更新其功能以适应快速变化的数据安全需求,如增强与大数据生态系统的集成,支持更多种类的数据源和脱敏算法。近日,Apache软件基金会宣布了Atlas项目的新一轮升级计划,其中就包括对实时数据流脱敏处理的支持,这一突破将进一步提升企业在大规模数据处理场景下的数据安全保障能力。 因此,深入研究和实践Apache Atlas等数据脱敏工具,既是对现行法规的响应,也是对未来数据安全挑战的前瞻准备。通过合理运用数据脱敏技术,企业能在保障数据安全的前提下充分挖掘数据价值,从而赢得市场竞争优势,建立可持续发展的信任资本。同时,相关监管机构和行业组织也在积极推动数据脱敏技术的标准制定和最佳实践分享,为企业提供更清晰的指导路径。
2024-03-26 11:34:39
469
桃李春风一杯酒-t
转载文章
...20。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 4、第四部分 (1) oname = ${patsubst %.c,%.o,${patsubst %.S,%.o,$(1)} } 自定义函数,$(1)表示调用oname这个函数的第一个参数,patsubst是make内置函数,即模式字符串替换函数。 oname函数实现的功能是: 将第一个参数中符合%.s模式的替换成%.o 再继续将上述结果中符合%.c模式的替换成%.o 也就是把所有 .s 和 .c文件名替换成 .o文件名。 这个函数的功能就是计算源文件名(c源文件,汇编源文件)所相对应的目标文件名(经过编译汇编后的文件)。 CONTIKI_OBJECTFILES = ${addprefix $(OBJECTDIR)/,${call oname, $(CONTIKI_SOURCEFILES)} }PROJECT_OBJECTFILES = ${addprefix $(OBJECTDIR)/,${call oname, $(PROJECT_SOURCEFILES)} } 定义CONTIKI_OBJECTFILES变量 首先用oname函数,将CONTIKI_SOURCEFILES所对应的源文件名,改为目标文件名,如process.c将会变为process.o 再在文件名前边加上前缀$(OBJECTDIR)/,前边我们知道这个变量为obj_native,故process.c会变为obj_native/process.o 这个变量应该是代表即将生成的Contiki操作系统的目标文件名 定义PROJECT_OBJECTFILES变量 功能同上 这个变量应该是代表即将生成的项目中的目标文件名 PROJECT_SOURCEFILES这个变量为空,所以PROJECT_OBJECTFILES也为空。 Provide way to create $(OBJECTDIR) if it has been removed by make clean$(OBJECTDIR):mkdir $@ $@是自动化变量,表示规则中的目标文件集。我们知道OBJECTDIR为obj_native,所以$@为obj_native。 mkdir $@生成obj_native目录。 但是这个依赖关系链,怎么会涉及到obj_native的? 调试了一下: 在生成CONTIKI_OBJECTFILES所代表的文件时,目录不存在,会先找依赖关系生成目录,再生成具体文件。 所以mkdir obj_native会被执行。 (2) ifdef APPSAPPDS = ${wildcard ${foreach DIR, $(APPDIRS), ${addprefix $(DIR)/, $(APPS)} }} \${wildcard ${addprefix $(CONTIKI)/apps/, $(APPS)} \${addprefix $(CONTIKI)/platform/$(TARGET)/apps/, $(APPS)} \$(APPS)}APPINCLUDES = ${foreach APP, $(APPS), ${wildcard ${foreach DIR, $(APPDS), $(DIR)/Makefile.$(APP)} }}-include $(APPINCLUDES)APP_SOURCES = ${foreach APP, $(APPS), $($(APP)_src)}DSC_SOURCES = ${foreach APP, $(APPS), $($(APP)_dsc)}CONTIKI_SOURCEFILES += $(APP_SOURCES) $(DSC_SOURCES)endif The project's makefile can also define in the APPS variable a list of applications from the apps/ directory that should be included in the Contiki system. hello-world这个例子没有定义APPS变量,故这段不会执行。 我们假设定义了APPS变量,其值为APPS += antelope unit-test。 相关知识点: wildcard函数: 返回所有符合pattern的文件名,以空格隔开。 $(wildcard pattern) The argument pattern is a file name pattern, typically containing wildcard characters (as in shell file name patterns). The result of wildcard is a space-separated list of the names of existing files that match the pattern. foreach函数: The syntax of the foreach function is: $(foreach var,list,text) The first two arguments, var and list, are expanded before anything else is done; note that the last argument, text, is not expanded at the same time. Then for each word of the expanded value of list, the variable named by the expanded value of var is set to that word, and text is expanded. Presumably text contains references to that variable, so its expansion will be different each time. The result is that text is expanded as many times as there are whitespace-separated words in list. The multiple expansions of text are concatenated, with spaces between them, to make the result of foreach. 每次从list中取出一个词(空格分隔),赋给var变量,然后text(一般有var变量)被拓展开来。 只要list中还有空格分隔符就会一直循环下去,每一次text返回的结果都会以空格分隔开。 ${wildcard ${foreach DIR, $(APPDIRS), ${addprefix $(DIR)/, $(APPS)} }} 先分析${foreach DIR, $(APPDIRS), ${addprefix $(DIR)/, $(APPS)} } 其中DIR是变量(var),$(APPDIRS)是列表(list),这个例子中没有定义APPDIRS这个变量,估计是用于定义除了$CONTIKI/apps/之外的apps目录。 ${addprefix $(DIR)/, $(APPS)}是text。我们假设定义了APPDIRS为a b。 那么第一次:DIR 会被赋值为a,${addprefix $(DIR)/, $(APPS)},又我们假定APPS为antelope unit-test,所以最终会被拓展为a/antelope a/unit-test。 DIR 会被赋值为b,${addprefix $(DIR)/, $(APPS)},又我们假定APPS为antelope unit-test,所以最终会被拓展为b/antelope b/unit-test。 最终这两次结果会以空格分隔开,即a/antelope a/unit-test b/antelope b/unit-test ${wildcard a/antelope a/unit-test b/antelope b/unit-test} 返回空,因为找不到符合这样的目录。 所以最终这句语句,实现的功能是,返回$APPDIRS目录中,所有符合$APPS的目录。 ${wildcard ${addprefix $(CONTIKI)/apps/, $(APPS)} 这句语句返回$(CONTIKI)/apps/目录下所有符合$APPS的目录,即contiki-release-2-7/apps/antelope contiki-release-2-7/apps/unit-test ${addprefix $(CONTIKI)/platform/$(TARGET)/apps/, $(APPS)} 这句语句返回$(CONTIKI)/platform/$(TARGET)/apps/目录下所有$APPS的目录,即contiki-release-2-7/platform/native/apps/antelope contiki-release-2-7/platform/native/apps/unit-test。 在contiki-release-2-7/platform/native目录下,并没有apps目录,后边有差错处理机制。 $(APPS) 在当前目录下的所有$APPS目录,即antelope unit-test。 在hello-world例子中,并没有这些目录。 所以APPDS变量是包含所有与$APPS有关的目录。 APPINCLUDES变量是所有需要导入的APP Makefile文件。 在所有APPDS目录下,所有Makefile.$(APPS)文件。 在我们的假设条件APPS = antelope unit-test, APPDIRS = 只会导入contiki-release-2-7/apps/antelope/Makefile.antelope contiki-release-2-7/apps/unit-test/Makefile.unit-test 其余的均不存在,所以在include指令前要有符号-,即出错继续执行后续指令。 contiki-release-2-7/apps/antelope/Makefile.antelope: 分别定义了两个变量,antelope_src用于保存antelope这个app的src文件,antelope_dsc用于保存antelope这个app的dsc文件。 contiki-release-2-7/apps/unit-test/Makefile.unit-test: 分别定义了两个变量,unit-test_src用于保存unit-test这个app的src文件,unit-tes_dsc用于保存unit-test这个app的dsc文件。 变量APP_SOURCES APP_SOURCES = ${foreach APP, $(APPS), $($(APP)_src)} 取出所有APPS中的src文件变量,这个例子是$(antelope_src) 和$(unit-test_src) 变量APP_SOURCES DSC_SOURCES = ${foreach APP, $(APPS), $($(APP)_dsc)} 取出所有APPS中的dsc文件变量,这个例子是$(antelope_dsc) 和$(unit-test_dsc) CONTIKI_SOURCEFILES += $(APP_SOURCES) $(DSC_SOURCES) 这段话的最终目的: 将$APPS相关的所有源文件添加进CONTIKI_SOURCEFILES变量中。 (3) target_makefile := $(wildcard $(CONTIKI)/platform/$(TARGET)/Makefile.$(TARGET) ${foreach TDIR, $(TARGETDIRS), $(TDIR)/$(TARGET)/Makefile.$(TARGET)}) Check if the target makefile exists, and create the object directory if necessary.ifeq ($(strip $(target_makefile)),)${error The target platform "$(TARGET)" does not exist (maybe it was misspelled?)}elseifneq (1, ${words $(target_makefile)})${error More than one TARGET Makefile found: $(target_makefile)}endifinclude $(target_makefile)endif 这断代码主要做的就是,找到在所有TAGET目录下找到符合的Makefile.$(TARGET)文件,放到target_makefile变量中。 再检查是否存在或者重复。并做相应的错误提示信息。 ${error The target platform "$(TARGET)" does not exist (maybe it was misspelled?)} ${error More than one TARGET Makefile found: $(target_makefile)} 我们这个例子中 TARGET = native 并且 TARGETDIRS为空 所以最后会导入$(CONTIKI)/platform/native/Makefile.native 接下去要开始分析target和cpu的makefile文件了。 转载于:https://www.cnblogs.com/songdechiu/p/6012718.html 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_34399060/article/details/94095820。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-03-28 09:49:23
282
转载
Flink
...lan:解锁实时数据处理的秘密 嘿,朋友们!今天我要带你们一起探索一个神奇的世界——Apache Flink中的JobGraph和ExecutionPlan。这两个概念可是Flink实时数据处理架构里的大明星,有了它们,咱们就能打造出又快又稳的数据流应用啦!在这篇文章中,我们将深入探讨它们的作用,以及如何通过实际的例子来更好地理解和运用它们。 1. JobGraph 构建数据流的蓝图 首先,让我们从JobGraph开始。想一想吧,在Flink里写数据流程序的时候,其实你就是在画一幅任务的蓝图,这幅蓝图就叫JobGraph。JobGraph就像是一个虚拟的工作流程图,里面装着所有干活的小工具(我们叫它们“算子”)和数据的来源(也就是“数据源”),还有这些小工具和来源之间是怎么串在一起的。 为什么JobGraph如此重要? - 抽象与简化:它将复杂的业务逻辑抽象成一系列简单的算子和数据流,使得开发者能够专注于核心业务逻辑,而无需关心底层的执行细节。 - 灵活性:由于它是基于算子的模型,因此可以根据需要轻松地添加、删除或修改算子,以适应不同的业务需求。 示例代码: java StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); DataStream source = env.addSource(new SocketTextStreamFunction("localhost", 9999)); DataStream transformed = source.map(new MapFunction() { @Override public String map(String value) throws Exception { return value.toUpperCase(); } }); transformed.print(); env.execute("Simple Flink Job"); 这段代码展示了如何创建一个简单的Flink任务,该任务从一个Socket接收字符串数据,将其转换为大写,并打印结果。这里的source和transformed就是构成JobGraph的一部分。 2. ExecutionPlan 通往高效执行的道路 接下来,我们来看看ExecutionPlan。当你的JobGraph准备好之后,Flink会根据它生成一个ExecutionPlan。这个计划详细说明了怎么在集群上同时跑数据流,包括怎么安排任务、分配资源之类的。 为什么ExecutionPlan至关重要? - 性能优化:ExecutionPlan考虑到了各种因素(如网络延迟、机器负载等)来优化任务的执行效率,确保数据流能够快速准确地流动。 - 容错机制:通过合理的任务划分和错误恢复策略,ExecutionPlan可以保证即使在某些节点失败的情况下,整个系统也能稳定运行。 示例代码: 虽然ExecutionPlan本身并不直接提供给用户进行编程操作,但你可以通过配置参数来影响它的生成。例如: java env.setParallelism(4); // 设置并行度为4 这条语句会影响ExecutionPlan中任务的并行执行方式。更高的并行度通常能让吞吐量变得更好,但同时也可能会让网络通信变得更复杂,增加不少额外的工作量。 3. 探索背后的秘密 JobGraph与ExecutionPlan的互动 现在,让我们思考一下JobGraph和ExecutionPlan之间的关系。可以说,JobGraph是ExecutionPlan的基础,没有一个清晰的JobGraph,就无法生成有效的ExecutionPlan。ExecutionPlan就是JobGraph的具体操作指南,它告诉你怎么把这些抽象的想法变成实实在在的计算任务。 思考与探讨: - 在设计你的Flink应用程序时,是否考虑过JobGraph的结构对最终性能的影响? - 你有没有尝试过调整ExecutionPlan的某些参数来提升应用程序的效率? 4. 实践中的挑战与解决方案 最后,我想分享一些我在使用Flink过程中遇到的实际问题及解决方案。 问题1:数据倾斜导致性能瓶颈 - 原因分析:数据分布不均匀可能导致某些算子处理的数据量远大于其他算子,从而形成性能瓶颈。 - 解决办法:可以通过重新设计JobGraph,比如引入更多的分区策略或调整算子的并行度来缓解这个问题。 问题2:内存溢出 - 原因分析:长时间运行的任务可能会消耗大量内存,尤其是在处理大数据集时。 - 解决办法:合理设置Flink的内存管理策略,比如增加JVM堆内存或利用Flink的内存管理API来控制内存使用。 --- 好了,朋友们,这就是我对Flink中的JobGraph和ExecutionPlan的理解和分享。希望这篇文章能让你深深体会到它们的价值,然后在你的项目里大展身手,随意挥洒!如果你有任何疑问或者想要进一步讨论的话题,欢迎随时留言交流! 记住,学习技术就像一场旅行,重要的是享受过程,不断探索未知的领域。希望我们在数据流的世界里都能成为勇敢的探险家!
2024-11-05 16:08:03
111
雪落无痕
转载文章
...05。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 1、插件说明 jstree官方地址:https://www.jstree.com bootstrap官方地址:https://v3.bootcss.com font-awesome官方地址:http://www.fontawesome.com.cn/faicons/ github项目地址:https://github.com/chengchuanqiang/jstreeDemo 2、jstreedemo主要文件 2.1、html页面代码 <!DOCTYPE html><html lang="en"><head><meta charset="UTF-8"><title>jstree demo</title><link rel="stylesheet" href="jstree/dist/themes/default/style.min.css" /><link rel="stylesheet" type="text/css" href="bootstrap-3.3.7-dist/css/bootstrap.min.css" /> <link rel="stylesheet" type="text/css" href="font-awesome-4.7.0/css/font-awesome.min.css" /> </head><body><div class="container"> <div class="row" style="height: 100px;"></div><div class="row"><div > <button class="btn btn-info" onclick="node_create()"> 新增 </button><button class="btn btn-info" onclick="node_rename()"> 编辑</button><button class="btn btn-info" onclick="node_delete()"> 删除</button></div></div><div class="row" style="height: 5px;"></div><div class="row"> <div class="col-md-3"> <!-- 描述:搜索框 --> <div class="input-group row"> <span class="input-group-addon" id="basic-addon1"><i class="glyphicon glyphicon-screenshot"></i></span> <input type="text" class="form-control" placeholder="请输入功能名称..." id="search_ay" aria-describedby="basic-addon1"> </div> <!--描述:jstree 树形菜单容器--> <div id="jstree_demo_div" class="row"> </div> </div> <div lass="col-md-9"> <button class="btn btn-tab" var='json/data.json'>data.json</button> <!--点击切换资源--> <button class="btn btn-tab" var='json/data2.json'>data2.json</button> <!--点击切换资源--> <button class="btn refresh "><i class="glyphicon glyphicon-refresh"></i></button> <!--点击刷新资源--> </div> </div> </div> <script src="jquery/jquery.min.js"></script><script src="jstree/dist/jstree.min.js"></script><script src="jstreeDemo.js?20180125"></script></body></html> 2.2、jstreeDemo.js代码 function jstree_fun(url){var $tree = $("jstree_demo_div").jstree({"core":{//'multiple': false, // 是否可以选择多个节点//"check_callback": true, // 允许拖动菜单 唯一 右键菜单"check_callback" : true,//设置为true,当用户修改数时,允许所有的交互和更好的控制(例如增删改)"themes" : { "stripes" : true },//主题配置对象,表示树背景是否有条带"data" : {//'url' : url,//'data' : function(node){//return { 'id' : node.id };//}"url" : url,"dataType" : "json"},"check_callback" : function(operation, node, node_parent, node_position, more){if(operation === "move_node"){var node = this.get_node(node_parent);if(node.id === ""){alert("根结点不可以删除");return false;}if(node.state.disabled){alert("禁用的不可以删除");return false;} }else if(operation === "delete_node"){var node = this.get_node(node_parent);if(node.id === ""){alert("根结点不可以删除");return false;} }return true;} },"plugins": [ //插件 "search", //允许插件搜索 // "sort", //排序插件 "state", //状态插件 "types", //类型插件 "unique", //唯一插件 "wholerow", //整行插件"contextmenu"],types:{ "default": { //设置默认的icon 图 "icon": "glyphicon glyphicon-folder-close", } } });$tree.on("open_node.jstree", function(e,data){ //监听打开事件var currentNode = data.node; data.instance.set_icon(currentNode, "glyphicon glyphicon-folder-open"); });$tree.on("close_node.jstree", function(e,data){ //监听关闭事件 var currentNode = data.node; data.instance.set_icon(currentNode, "glyphicon glyphicon-folder-close"); });$tree.on("activate_node.jstree", function(e, data){var currentNode = data.node; //获取当前节点的json .node //alert(currentNode.a_attr.id) //alert(currentNode.a_attr.href) //获取超链接的 .a_attr.href "链接" .a_attr.id ID //alert(currentNode.li_attr.href) //获取属性的 .li_attr.href "链接" .li_attr.id ID });// 创建$tree.on("create_node.jstree", function(e, data){alert("创建node节点");});// 修改$tree.on("rename_node.jstree", function(e, data){alert("修改node节点");});// 删除$tree.on("delete_node.jstree", function(e, data){alert("删除node节点");});// 查询节点名称var to = false;$("search_ay").keyup(function(){if(to){clearTimeout(to);}to = setTimeout(function(){$tree.jstree(true).search($('search_ay').val()); //开启插件查询后 使用这个方法可模糊查询节点 },250);});$('.btn-tab').click(function(){ //选项事件 //alert($(this).attr("var")) $tree.jstree(true).destroy(); //可做联级 $tree = jstree_fun($(this).attr("var"));//可做联级 //alert($(this).attr("var")) }); $('.refresh').click(function(){ //刷新事件 $tree.jstree(true).refresh () }); return $tree; }function node_create(){var ref = $("jstree_demo_div").jstree(true);var sel = ref.get_selected();if(!sel.length){alert("请先选择一个节点");return;}sel = sel[0];sel = ref.create_node(sel);if(sel){ref.edit(sel); } }function node_rename(){var ref = $("jstree_demo_div").jstree(true);var sel = ref.get_selected();if(!sel.length){alert("请先选择一个节点");return;}sel = sel[0];ref.edit(sel);}function node_delete(){var ref = $("jstree_demo_div").jstree(true);var sel = ref.get_selected();if(!sel.length){alert("请先选择一个节点");return;}sel = sel[0];if(ref.get_node(sel).parent==''){alert("根节点不允许删除");return;}ref.delete_node(sel);}// 初始化操作function init(){var $tree = jstree_fun("json/data.json");}init(); 3、图片效果展示 本篇文章为转载内容。原文链接:https://blog.csdn.net/qq_27717967/article/details/79167605。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-09-08 13:23:58
53
转载
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
uptime
- 查看系统运行时间及负载信息。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"