前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[全局统一锁排序规则设计 ]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
ZooKeeper
...源的分布式协调服务,设计目标是提供高效且可靠的分布式应用程序协同服务,如数据发布/订阅、负载均衡、命名服务、分布式锁和集群管理等。在分布式系统中,ZooKeeper通过其数据模型(树形结构存储数据)和原子广播原语,为客户端应用提供了强一致性保证,实现高可用性和容错性。 JMX (Java Management Extensions) , JMX是一种Java平台提供的标准管理接口,用于监控和管理系统资源,包括内存使用、线程状态、运行时环境配置参数以及自定义的应用程序度量指标等。在ZooKeeper中,通过启用并配置JMX端口,可以将ZooKeeper内部的各项性能指标导出,便于集成到第三方监控工具如Prometheus和Grafana中进行可视化展示和报警设置。 Prometheus , Prometheus是一款开源的系统监控与警报工具,遵循Pull(拉取)模型从被监控的目标节点获取指标数据,并将其存储在本地时序数据库中。结合ZooKeeper Metrics,Prometheus可以定期抓取ZooKeeper的性能指标,通过强大的查询语言PromQL对这些数据进行分析,并结合Grafana进行可视化展示,帮助运维人员及时发现和处理潜在的问题。 Grafana , Grafana是一款功能强大的数据可视化和分析平台,支持多种数据源,包括Prometheus。当与Prometheus配合使用时,Grafana能够接收并展示来自ZooKeeper的性能指标数据,通过构建丰富的图表和仪表板,使得运维人员能够直观地监控ZooKeeper集群的健康状况、性能表现以及潜在问题,从而实现对ZooKeeper集群的有效管理和优化。
2023-05-20 18:39:53
444
山涧溪流
HBase
...e的Bigtable设计思想,利用Hadoop HDFS提供存储支持,并通过Zookeeper管理集群状态和服务协调。他们家这玩意儿,独门绝技就是RowKey的设计,再加上那牛哄哄的原子性操作,妥妥地帮咱们在分布式锁这块儿打开了新世界的大门。 3. 利用HBase实现分布式锁的基本思路 在HBase中,我们可以创建一个特定的表,用于表示锁的状态。每一行代表一把锁,RowKey可以是锁的名称或者需要锁定的资源标识。每个行只有一个列族(例如:"Lock"),并且这个列族下的唯一一个列(例如:"lock")的值并不重要,我们只需要关注它的存在与否来判断锁是否被占用。 4. 示例代码详解 下面是一个使用Java API实现HBase分布式锁的示例: java import org.apache.hadoop.hbase.TableName; import org.apache.hadoop.hbase.client.Connection; import org.apache.hadoop.hbase.client.ConnectionFactory; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.client.Table; public class HBaseDistributedLock { private final Connection connection; private final TableName lockTable = TableName.valueOf("distributed_locks"); public HBaseDistributedLock(Configuration conf) throws IOException { this.connection = ConnectionFactory.createConnection(conf); } // 尝试获取锁 public boolean tryLock(String lockName) throws IOException { Table table = connection.getTable(lockTable); Put put = new Put(Bytes.toBytes(lockName)); put.addColumn("Lock".getBytes(), "lock".getBytes(), System.currentTimeMillis(), null); try { table.put(put); // 如果这行已存在,则会抛出异常,表示锁已被占用 return true; // 无异常则表示成功获取锁 } catch (ConcurrentModificationException e) { return false; // 表示锁已被其他客户端占有 } finally { table.close(); } } // 释放锁 public void unlock(String lockName) throws IOException { Table table = connection.getTable(lockTable); Delete delete = new Delete(Bytes.toBytes(lockName)); table.delete(delete); table.close(); } } 5. 分析与讨论 上述代码展示了如何借助HBase实现分布式锁的核心逻辑。当你试着去拿锁的时候,就相当于你要在一张表里插一条新记录。如果发现这条记录竟然已经存在了(这就意味着这把锁已经被别的家伙抢先一步拿走了),系统就会毫不客气地抛出一个异常,然后告诉你“没戏,锁没拿到”,也就是返回个false。而在解锁时,只需删除对应的行即可。 然而,这种简单实现并未考虑超时、锁续期等问题,实际应用中还需要结合Zookeeper进行优化,如借助Zookeeper的临时有序节点特性实现更完善的分布式锁服务。 6. 结语 HBase的分布式锁实现是一种基于数据库事务特性的方法,它简洁且直接。不过呢,每种技术方案都有它能施展拳脚的地方,也有它的局限性。就好比选择分布式锁的实现方式,咱们得看实际情况,比如应用场景的具体需求、对性能的高标准严要求,还有团队掌握的技术工具箱。这就好比选工具干活,得看活儿是什么、要干得多精细,再看看咱手头有什么趁手的家伙事儿,综合考虑才能选对最合适的那个。明白了这个原理之后,咱们就可以动手实操起来,并且不断摸索、优化它,让这玩意儿更好地为我们设计的分布式系统架构服务,让它发挥更大的作用。
2023-11-04 13:27:56
437
晚秋落叶
ClickHouse
...数据架构和运维流程的设计时,千万不能忘了把权限控制和数据完整性这两块大骨头放进思考篮子里。这样一来,咱们才能稳稳当当地保障整个数据链路健健康康地运转起来。
2023-09-29 09:56:06
467
落叶归根
Mongo
...ngoDB的这个异步设计妙就妙在,即使你的应用程序正在处理海量数据读写,也能稳稳保证响应速度贼快,运行起来流畅得飞起,一点儿不卡顿。 2. 连接MongoDB数据库的异步过程 (以下示例采用Node.js环境及官方mongodb库) javascript const MongoClient = require('mongodb').MongoClient; // 异步连接MongoDB MongoClient.connect('mongodb://localhost:27017/mydatabase', { useNewUrlParser: true, useUnifiedTopology: true }, (err, client) => { if (err) { console.error('Error connecting to MongoDB:', err); return; } console.log('Connected successfully to MongoDB'); // 使用client对象进行数据库操作... const db = client.db(); // ... // 在完成所有数据库操作后,记得关闭连接 client.close(); }); 上述代码展示了如何异步地连接到MongoDB数据库。这里,MongoClient.connect()方法接受一个连接字符串、配置选项以及一个回调函数。当连接成功建立或发生错误时,回调函数会被调用。这正是异步编程的体现,主线程不会被阻塞,直到连接操作完成才执行后续逻辑。 3. 向MongoDB数据库异步写入数据 同样,向MongoDB插入或更新数据也是异步执行的。下面是一个向集合中插入文档的例子: javascript db.collection('mycollection').insertOne({ name: 'John Doe', age: 30 }, (err, result) => { if (err) { console.error('Error inserting document:', err); return; } console.log('Document inserted successfully:', result.insertedId); // 插入操作完成后,可以在这里执行其他逻辑 }); // 注意:这里的db是上一步异步连接成功后获取的数据库实例 这段代码展示了如何异步地向MongoDB的一个集合插入一个文档。你知道吗,这个insertOne()方法就像是个贴心的小帮手,它会接收一个文档对象作为“礼物”,然后再加上一个神奇的回调函数。当你把这个“礼物”放进去,或者在插入过程中不小心出了点小差错的时候,这个神奇的回调函数就会立马跳出来开始干活儿啦! 4. 思考与探讨 在实际开发过程中,异步操作无疑提升了我们的应用性能和用户体验。然而,这也带来了回调地狱、复杂的流程控制等问题。还好啦,现代的JavaScript可真是够意思的,它引入了Promise、async/await这些超级实用的工具,让咱们在处理异步编程时简直如虎添翼。这样一来,我们在和MongoDB打交道的时候,就能写出更加顺溜、更好懂、更好维护的代码,那感觉别提多棒了! 总结来说,MongoDB在连接数据库和写入数据时采取异步机制,这种设计让我们能够在高并发环境下更好地优化资源利用,提升系统效率。同时,作为开发者大兄弟,咱们得深入理解并灵活玩转异步编程这门艺术,才能应对各种意想不到的挑战,把MongoDB那牛哄哄的功能发挥到极致。
2024-03-10 10:44:19
167
林中小径_
NodeJS
...权访问、不安全的接口设计以及敏感数据泄露等常见API安全隐患,并提供了针对性的防护策略。 同时,Node.js社区也在不断推出新的工具和技术以增强API安全性。例如,Fastify作为另一个高性能的Node.js web框架,其内置的安全特性为API开发带来了更多选择。另外,JSON Web Tokens (JWT) 和OAuth2.0等认证授权机制的深度应用,也是提升API安全性的有效手段。 此外,对于实时更新的数据传输安全措施,可以参考NIST(美国国家标准与技术研究院)发布的最新网络安全指南,其中强调了加密算法的选择与升级、密钥管理策略的重要性,以及对零信任架构的应用推广。这些都为我们设计和实现安全的Node.js Express API提供了有力的理论依据和操作指导。 综上所述,在实际开发过程中,持续关注行业标准、紧跟安全领域最新研究成果,并结合具体业务场景灵活运用各类安全技术和框架,才能确保所构建的API既满足高效易用的需求,又能有效抵御各种潜在威胁,保障数据传输的安全性和用户隐私权益。
2024-02-13 10:50:50
80
烟雨江南-t
ActiveMQ
...消息处理逻辑的不合理设计。针对这些问题,研究人员提出了一系列解决方案,如采用异步处理机制、优化网络架构以及引入负载均衡技术等。 此外,国内外多个企业也在积极探索更高效的消费者性能监控方法。例如,阿里巴巴集团在其自研的消息中间件RocketMQ中引入了动态扩缩容机制,能够根据实际负载自动调整消费者数量,从而有效缓解消息堆积问题。这一创新举措不仅提高了系统的可靠性,还显著提升了用户体验。 与此同时,行业专家也强调了系统设计初期应充分考虑消费者性能的重要性。《IT经理世界》的一篇文章指出,合理规划系统架构、选择合适的中间件产品以及实施有效的监控策略,是保障系统稳定运行的关键。这些观点为我们提供了一个全新的视角,帮助我们在设计和运维过程中更好地应对可能出现的问题。 总之,通过对上述案例和技术方案的分析,我们可以得出结论:消费者性能监控不仅是技术层面的问题,更是企业战略决策的一部分。只有充分认识到这一点,并采取科学合理的措施,才能构建出更加可靠、高效的分布式系统。
2024-10-30 15:36:10
83
山涧溪流
DorisDB
...一种存储和计算分开的设计,这样数据管理和计算就能各干各的了。这样的设计让系统变得超级灵活,也更容易维护。 3.2 优势 - 高性能:DorisDB通过列式存储和向量化执行引擎,能够在大规模数据集上提供卓越的查询性能。 - 易用性:提供直观的SQL接口,简化了数据操作和管理。 - 高可用性:支持多副本机制,确保数据的安全性和可靠性。 - 灵活扩展:可以通过添加节点轻松地扩展集群规模,以应对不断增长的数据量需求。 4. 数据迁移挑战及解决方案 在面对数据迁移时,我们常常会遇到以下几个挑战: - 数据一致性:如何保证迁移过程中的数据完整性和一致性? - 迁移效率:如何快速高效地完成大规模数据的迁移? - 兼容性问题:不同版本或不同类型的数据源之间可能存在兼容性问题,如何解决? 接下来,我们将逐一探讨DorisDB是如何应对这些挑战的。 4.1 数据一致性 4.1.1 使用DorisDB的Import功能 DorisDB提供了一个强大的Import功能,用于将外部数据导入到DorisDB中。这个功能挺厉害的,能搞定各种数据来源,比如CSV文件、HDFS啥的。而且它还提供了一大堆设置选项,啥需求都能应对。 示例代码 sql -- 创建表 CREATE TABLE example_table ( id INT, name STRING, age INT ) ENGINE=OLAP DUPLICATE KEY(id) DISTRIBUTED BY HASH(id) BUCKETS 3 PROPERTIES ( "replication_num" = "1" ); -- 导入数据 LOAD LABEL example_label ( DATA INFILE("hdfs://localhost:9000/example.csv") INTO TABLE example_table COLUMNS TERMINATED BY "," (id, name, age) ); 4.1.2 使用事务机制 DorisDB支持事务机制,可以确保在复杂的数据迁移场景下保持数据的一致性。比如说,当你需要做多个插入操作时,可以用事务把它们包在一起。这样,这些操作就会像一个动作一样,要么全都成功,要么全都不算,确保数据的一致性。 示例代码 sql BEGIN; INSERT INTO example_table VALUES (1, 'Alice', 25); INSERT INTO example_table VALUES (2, 'Bob', 30); COMMIT; 4.2 迁移效率 4.2.1 利用分区和分片 DorisDB支持数据分区和分片,可以根据特定字段(如日期)对数据进行切分,从而提高查询效率。在搬数据的时候,如果能好好规划一下怎么分割和分布这些数据,就能大大加快导入速度。 示例代码 sql CREATE TABLE partitioned_table ( date DATE, value INT ) ENGINE=OLAP PARTITION BY RANGE(date) ( PARTITION p202301 VALUES LESS THAN ("2023-02-01"), PARTITION p202302 VALUES LESS THAN ("2023-03-01") ) DISTRIBUTED BY HASH(date) BUCKETS 3 PROPERTIES ( "replication_num" = "1" ); 4.2.2 并行导入 DorisDB支持并行导入,可以在多个节点上同时进行数据加载,极大地提升了导入速度。在实际应用中,可以通过配置多个数据源并行加载数据来达到最佳效果。 示例代码 sql -- 在多个节点上并行加载数据 LOAD LABEL example_label ( DATA INFILE("hdfs://localhost:9000/data1.csv") INTO TABLE example_table COLUMNS TERMINATED BY "," (id, name, age), DATA INFILE("hdfs://localhost:9000/data2.csv") INTO TABLE example_table COLUMNS TERMINATED BY "," (id, name, age) ); 4.3 兼容性问题 4.3.1 数据格式转换 在数据迁移过程中,可能会遇到不同数据源之间的格式不一致问题。DorisDB提供了强大的数据类型转换功能,可以方便地处理各种数据格式的转换。 示例代码 sql -- 将CSV文件中的字符串转换为日期类型 LOAD LABEL example_label ( DATA INFILE("hdfs://localhost:9000/data.csv") INTO TABLE example_table COLUMNS TERMINATED BY "," (id, CAST(date_str AS DATE), age) ); 4.3.2 使用ETL工具 除了直接使用DorisDB的功能外,还可以借助ETL(Extract, Transform, Load)工具来处理数据迁移过程中的兼容性问题。DorisDB与多种ETL工具(如Apache NiFi、Talend等)无缝集成,使得数据迁移变得更加简单高效。 5. 结论 通过以上讨论,我们可以看到DorisDB在数据迁移方面的强大能力和灵活性。不管你是想保持数据的一致性、加快搬家的速度,还是解决不同系统之间的兼容问题,DorisDB 都能给你不少帮手。作为一名数据库爱好者,我深深地被DorisDB的魅力所吸引。希望本文能帮助大家更好地理解和运用DorisDB进行数据迁移工作。 最后,我想说的是,技术永远是为人服务的。不管多牛的技术,归根结底都是为了让我们生活得更爽,更方便,过得更滋润。让我们一起努力,探索更多可能性吧!
2025-02-28 15:48:51
36
素颜如水
Tornado
...thon项目提供更加统一且灵活的构建和依赖管理方案。这对于Tornado等项目在不同环境下的无缝部署具有重要意义,开发团队可以借此提升部署过程的稳定性和可靠性。 总之,在紧跟Python及Tornado框架演进的同时,深入研究相关实战案例和最佳实践,能够帮助开发者更好地应对复杂部署问题,确保服务高效稳定运行。不断学习新技术趋势和优化方案,是每一位Web开发者持续提升技术水平的关键所在。
2023-03-14 20:18:35
61
冬日暖阳
转载文章
...对目前业务需求,我们设计一款APP,来支撑我们的业务需求,主要提供文本,语音,图片分类功能。AI智能垃圾分类主要通过构建基于深度学习技术的图像分类模型,实现垃圾图片类别的精准识别重点处理图片分类问题。 采用深圳市垃圾分类标准,输出该物品属于可回收物、厨余垃圾、有害垃圾和其他垃圾分类。 垃圾分类-数据分析和预处理 整体数据探测 分析数据不同类别分布 分析图片长宽比例分布 切分数据集和验证集 数据可视化展示(可视化工具 pyecharts,seaborn,matplotlib) 代码结构 ├── data│ ├── garbage-classify-for-pytorch│ │ ├── train│ │ ├── train.txt│ │ ├── val│ │ └── val.txt│ └── garbage_label.txt├── analyzer│ ├── 01 垃圾分类_一级分类 数据分布.ipynb│ ├── 02 垃圾分类_二级分类 数据分析.ipynb│ ├── 03 数据加载以及可视化.ipynb│ ├── 03 数据预处理-缩放&裁剪&标准化.ipynb│ ├── garbage_label_40 标签生成.ipynb├── models│ ├── alexnet.py│ ├── densenet.py│ ├── inception.py│ ├── resnet.py│ ├── squeezenet.py│ └── vgg.py├── facebook│ ├── app_resnext101_WSL.py│ ├── facebookresearch_WSL-Images_resnext.ipynb│ ├── ResNeXt101_pre_trained_model.ipynb├── checkpoint│ ├── checkpoint.pth.tar│ ├── garbage_resnext101_model_9_9547_9588.pth├── utils│ ├── eval.py│ ├── json_utils.py│ ├── logger.py│ ├── misc.py│ └── utils.py├── args.py├── model.py├── transform.py├── garbage-classification-using-pytorch.py├── app_garbage.py data: 训练数据和验证数据、标签数据 checkpoint: 日志数据、模型文件、训练过程checkpoint中间数据 app_garbage.py:在线预测服务 garbage-classification-using-pytorch.py:训练模型 models:提供各种pre_trained_model ,例如:alexlet、densenet、resnet,resnext等 utils:提供各种工具类,例如;重新flask json 格式,日志工具类、效果评估 facebook: 提供facebook 分类器神奇的分类预测和数据预处理 analyzer: 数据分析和数据预处理模块 transform.py:通过pytorch 进行数据预处理 model.py: resnext101 模型集成以及调整、模型训练和验证函数封装 resnext101网络架构 pre_trained_model resnext101 网络架构原理 基于pytorch 数据处理、resnext101 模型分类预测 在线服务API 接口 垃圾分类-训练 python garbage-classification-using-pytorch.py \--model_name resnext101_32x16d \--lr 0.001 \--optimizer adam \--start_epoch 1 \--epochs 10 \--num_classes 40 model_name 模型名称 lr 学习率 optimizer 优化器 start_epoch 训练过程断点重新训练 num_classes 分类个数 垃圾分类-评估 python garbage-classification-using-pytorch.py \--model_name resnext101_32x16d \--evaluate \--resume checkpoint/checkpoint.pth.tar \--num_classes 40 model_name 模型名称 evaluate 模型评估 resume 指定checkpoint 文件路径,保存模型以及训练过程参数 垃圾分类-在线预测 python app_garbage.py \--model_name resnext101_32x16d \--resume checkpoint/garbage_resnext101_model_2_1111_4211.pth model_name 模型名称 resume 训练模型文件路径 模型预测 命令行验证和postman 方式验证 举例说明:命令行模式下预测 curl -X POST -F file=@cat.jpg http://ip:port/predict 最后,我们从0到1教大家掌握如何进行垃圾分类。通过本学习,让你彻底掌握AI图像分类技术在我们实际工作中的应用。 1. 你是什么垃圾? 2. 告诉你,你是什么垃圾 3. 使用它告诉你,你是啥垃圾 本篇文章为转载内容。原文链接:https://blog.csdn.net/shenfuli/article/details/103008003。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-02-10 23:48:11
518
转载
DorisDB
...掰扯它那些独具匠心的设计和功能点,是怎么巧妙地把这些问题一一摆平的。 1. 数据一致性问题的痛点剖析 在分布式环境下,由于网络延迟、节点故障等各种不确定性因素,数据一致性问题尤为凸显。想象一下,假如我们在处理一项业务操作时,需要同时把数据塞进很多个不同的节点里头。如果没有一套相当硬核的并发控制方法保驾护航,那么这数据就很容易出岔子,可能会出现不一致的情况,甚至于重复写入的问题。这样的情况不仅影响了数据分析的准确性,还可能导致决策失误,对企业造成严重影响。 2. DorisDB 以强一致性为设计理念 DorisDB从底层架构上就对数据一致性给予了高度重视。它采用基于Raft协议的多副本一致性模型,保证在任何情况下,数据的读写都能保持强一致性。这意味着,甭管在网络出现分区啦、节点罢工等啥不正常的场景下,DorisDB都能稳稳地保证同一份数据在同一时间段里只被正确无误地写入一回,这样一来,就彻底跟数据不一致和重复写入的麻烦事儿说拜拜了。 java // 假设我们在DorisDB中进行数据插入操作 String sql = "INSERT INTO my_table (column1, column2) VALUES ('value1', 'value2')"; dorisClient.execute(sql); 上述代码展示了在DorisDB中执行一条简单的插入语句,尽管实际过程涉及到了复杂的分布式事务处理逻辑,但用户无需关心这些细节,DorisDB会自动保障数据的一致性。 3. 多版本并发控制(MVCC)实现无锁并发写入 DorisDB引入了多版本并发控制(MVCC)机制,进一步提升了并发写入的性能和数据一致性。在MVCC这个机制里头,每当有写操作的时候,它不会直接去碰原有的数据,而是巧妙地创建一个新的数据版本来进行更新。这样一来,读和写的操作就能同时开足马力进行了,完全不用担心像传统锁那样,一个操作卡住,其他的操作就得干等着的情况发生。 sql -- 在DorisDB中,即使有多个并发写入请求,也能保证数据一致性 BEGIN TRANSACTION; UPDATE my_table SET column1='new_value1' WHERE key=1; COMMIT; -- 同时发生的另一个写入操作 BEGIN TRANSACTION; UPDATE my_table SET column2='new_value2' WHERE key=1; COMMIT; 上述两个并发更新操作,即便针对的是同一行数据,DorisDB也能借助MVCC机制在保证数据一致性的前提下顺利完成,且不会产生数据冲突。 4. 高效的错误恢复与重试机制 对于可能出现的数据写入失败情况,DorisDB具备高效的错误恢复与重试机制。如果你在写东西时,突然网络抽风或者节点罢工导致没写成功,别担心,系统可机灵着呢,它能自动察觉到这个小插曲。然后,它会不厌其烦地尝试再次写入,直到你的数据稳稳当当地落到所有备份里头,确保最后数据的完整性是一致滴。 5. 总结与展望 面对数据一致性这一棘手难题,DorisDB凭借其独特的强一致性模型、多版本并发控制以及高效错误恢复机制,为企业提供了可靠的数据存储解决方案。甭管是那种超大型的实时数据分析活儿,还是对数据准确性要求严苛到极致的关键业务场景,DorisDB都能稳稳接住挑战,确保数据的价值被淋漓尽致地挖掘出来,发挥到最大效能。随着技术的不断进步和升级,我们对DorisDB寄予厚望,期待它在未来能够更加给力,提供更牛的数据一致性保障,帮助更多的企业轻松搭上数字化转型这趟高速列车,跑得更快更稳。
2023-07-01 11:32:13
486
飞鸟与鱼
Kubernetes
...可扩展性。云原生应用设计时考虑到了分布式、微服务、容器化、自动化部署、持续集成/持续部署(CI/CD)以及基础设施即代码(IaC)等特性,以实现高度灵活、快速迭代和成本效益高的应用开发和运营。 名词 , Kubernetes。 解释 , Kubernetes,简称K8s,是一款开源的容器编排系统,由Google开发并于2014年开源。Kubernetes提供了一套自动化的机制来部署、扩展和管理容器化应用,支持跨多个物理或虚拟服务器的部署,同时提供了资源调度、自动重启、滚动更新、服务发现等功能。它通过抽象出一组API和工具,使得开发者能够集中精力编写应用代码,而不是管理底层的基础设施。 名词 , 微服务。 解释 , 微服务是一种架构风格,将单一应用程序分解为一组小的、独立部署的服务,每个服务专注于特定的业务功能。这种架构允许各个服务独立开发、部署和扩展,提高了系统的可维护性和可扩展性。微服务通常通过API进行通信,可以运行在不同的服务器上,甚至可以运行在不同的数据中心或云环境中,支持快速迭代和独立发布。在云原生背景下,微服务与容器技术(如Docker)、Kubernetes等结合,形成了灵活、高效、可伸缩的应用部署方式。
2024-09-05 16:21:55
61
昨夜星辰昨夜风
转载文章
...me0n1等新的命名规则来标识,其中“0”代表控制器编号,“n1”则代表该控制器上的第一个逻辑命名空间。 近期,Linux Kernel 5.15版本引入了对Zoned Block Device (ZBD) 的支持,这是一种新型的磁盘分区技术,特别适用于大容量、低延迟的SSD。ZBD允许将硬盘划分为多个区域,并为每个区域定义特定的写入策略,以优化数据管理和性能。 此外,在容器化和虚拟化日益盛行的今天,Linux对于存储资源的抽象与管理也变得更加重要。像LVM(Logical Volume Manager)这样的工具不仅可以动态调整分区大小,还可以提供快照功能,极大地增强了系统的灵活性和可用性。同时,联合文件系统如OverlayFS和aufs也为容器和虚拟机提供了高效的存储解决方案。 值得注意的是,随着硬件技术进步和存储需求的变化,Linux社区正在积极研究和发展下一代文件系统,如Btrfs和Stratis,它们旨在提供更高级别的数据完整性、可扩展性和管理便利性,以适应未来数据中心和云计算环境的需求。 总之,了解Linux中的硬盘分区原理是基础,而关注其如何适应并推动存储技术的演进与发展,则能帮助我们更好地把握操作系统层面的存储管理趋势,从而有效提升数据存储的安全性、稳定性和效率。
2023-04-26 12:47:34
117
转载
Tornado
...并发服务时,通过精心设计的异步模型可以有效减少资源占用,提高服务响应速度。一些最新的研究和案例分析展示了如何将AsyncIO和Tornado这样的异步框架应用于微服务架构,实现更好的横向扩展能力和更高的系统吞吐量。 综上所述,对于热衷于利用Python开发高性能Web服务的开发者而言,紧跟AsyncIO及Tornado框架的最新进展,并了解其在实际应用场景中的最佳实践,无疑是不断提升技术水平和优化项目性能的关键所在。建议读者继续关注相关技术博客、官方文档更新以及行业会议演讲,以便及时获取第一手资料和实践经验。
2023-10-30 22:07:28
140
烟雨江南
Kylin
...Kylin Cube设计更上一层楼,从而提升查询性能’的文章大框架,并且还能提供一些实例内容给您参考。 如何优化Kylin Cube的设计以提高查询性能? 1. 理解Kylin Cube基础架构 在我们深入探讨优化策略之前,首先需要理解Apache Kylin的核心——Cube。Kylin Cube是预计算的数据存储模型,通过预先聚合和索引数据来大幅提升大数据查询速度。想象一下,这就像是一个超级有趣的立体魔方,每一个面都是由各种不同的数据拼接而成的小世界。用户只需要轻轻转动到对应的那一面,就能瞬间抓取到他们想要的信息,就像是变魔术一样神奇又便捷。 java // 创建Cube的基本步骤(伪代码) CubeInstance cube = new CubeInstance(); cube.setName("my_cube"); cube.setDimensions(Arrays.asList("dimension1", "dimension2")); // 设置维度 cube.setMeasures(Arrays.asList("measure1", "measure2")); // 设置度量 kylinServer.createCube(cube); 2. Cube设计的关键决策点 2.1 维度选择与层级设计 (1) 精简维度:并非所有维度都需要加入Cube。过于复杂的维度组合会显著增加Cube大小,降低构建效率和查询性能。例如,对于某个特定场景,可能只需要基于"时间"和"地区"两个维度进行分析: java // 示例:只包含关键维度的Cube设计 List tables = ...; // 获取数据表引用 List dimensions = Arrays.asList("cal_dt", "region_code"); CubeDesc cubeDesc = new CubeDesc(); cubeDesc.setDimensions(dimensions); cubeDesc.setTables(tables); (2) 层次维度设计:对于具有层次结构的维度(如行政区划),合理设置维度层级能有效减少Cube大小并提升查询效率。比如,我们可以仅保留省、市两级: java // 示例:层级维度设计 DimensionDesc dimension = new DimensionDesc(); dimension.setName("location"); dimension.setLevelTypes(Arrays.asList(LevelType.COUNTRY, LevelType.PROVINCE)); 2.2 度量的选择与聚合函数 根据业务需求选择合适的度量字段,并配置恰当的聚合函数。例如,如果主要关注销售额的总和和平均值,可以这样配置: java // 示例:定义度量及其聚合函数 MeasureDesc measureSales = new MeasureDesc(); measureSales.setName("sales_amount"); measureSales.setFunctionClass(AggregateFunction.SUM); cubeDesc.addMeasure(measureSales); MeasureDesc avgSales = new MeasureDesc(); avgSales.setName("avg_sales"); avgSales.setFunctionClass(AggregateFunction.AVG); cubeDesc.addMeasure(avgSales); 2.3 切片设计与分区策略 合理的切片划分和分区策略有助于分散计算压力,加快Cube构建和查询响应速度。例如,可以根据时间维度进行分区: java // 示例:按时间分区 PartitionDesc partitionDesc = new PartitionDesc(); partitionDesc.setPartitionDateColumn("cal_dt"); partitionDesc.setPartitionDateFormat("yyyyMM"); cubeDesc.setPartition(partitionDesc); 3. 实践中的调优策略与技巧 这部分我们将围绕实际案例,探讨如何针对具体场景调整Cube设计,包括但不限于动态调整Cube粒度、使用联合维度、考虑数据倾斜问题等。这些策略将依据实际业务需求、数据分布特性以及硬件资源状况灵活运用。 --- 请注意,以上代码仅为示意性的伪代码,真实操作中需参考Apache Kylin官方文档进行详细配置。同时呢,在写整篇文章的时候,我会在每个小节都给你们添上更丰富的细节描述和讨论,就像画画时的细腻笔触一样。而且,我会配上更多的代码实例,就像是烹饪时撒上的调料,让你们能更直观、更深入地明白怎么去优化Kylin Cube的设计,从而把查询性能提得更高。这样一来,保证你们读起来既过瘾又容易消化吸收!
2023-05-22 18:58:46
45
青山绿水
Mongo
...平台文档型数据库,其设计初衷是为了处理大量数据,特别是对于需要快速插入、读取和删除数据的应用场景。它的最大亮点就在于那个文档模型设计,就好比给数据准备了个JSON格式的房间,这样一来,甭管是半结构化的还是非结构化的数据,都能在这间房里舒舒服服地“住”下来,并且表现得格外出色。 二、连接数据库 简单易行 2.1 连接MongoDB 首先,让我们通过Node.js的官方驱动程序mongodb来连接到MongoDB服务器。这个过程其实就像这样,连接这一步呢,是同步进行的,就相当于大家一起整齐划一地行动。不过,接下来的查询操作嘛,通常会选择异步的方式来进行,这样做就像是让各个部分灵活自主地去干活,不耽误彼此的时间,从而大大提升整体的工作效率! javascript const MongoClient = require('mongodb').MongoClient; const url = 'mongodb://localhost:27017'; const dbName = 'test'; MongoClient.connect(url, {useNewUrlParser: true}, (err, client) => { if (err) throw err; console.log("Connected to MongoDB"); const db = client.db(dbName); // ...进行数据库操作 client.close(); // 关闭连接 }); 2.2 异步与同步的区别 在上述代码中,MongoClient.connect函数会立即返回,即使连接尚未建立。这是因为它采用了异步模式,这样可以让你的代码继续执行,而不会阻塞。一旦连接成功,回调函数会被调用。这就是异步编程的魅力,它让我们的应用更加响应式。 三、异步写入 提升性能的关键 3.1 写入操作的异步性 当我们向MongoDB写入数据时,通常也采用异步方式,因为这可以避免阻塞主线程,尤其是在高并发环境下。例如,使用insertOne方法: javascript db.collection('users').insertOne({name: 'John Doe'}, (err, result) => { if (err) console.error(err); console.log(Inserted document with _id: ${result.insertedId}); }); 3.2 为什么要异步写入? 异步写入的优势在于,如果数据库正在处理其他请求,当前请求不会被阻塞,而是立即返回。这样,应用程序可以继续处理其他任务,提高了整体的吞吐量。 四、异步操作的处理与错误处理 4.1 错误处理 在异步操作中,错误通常通过回调函数传递。我们需要确保正确处理这些可能发生的异常,以便于应用程序的健壮性。 javascript db.collection('users').insertOne({name: 'Jane Doe'}, (err, result) => { if (err) { console.error('Error inserting document:', err); } else { console.log(Inserted document with _id: ${result.insertedId}); } }); 4.2 回调地狱与Promise/Async/Await 为了避免回调地狱,我们可以利用Promise、async/await等现代JavaScript特性来更优雅地处理异步操作。 javascript async function insertUser(user) { try { const result = await db.collection('users').insertOne(user); console.log(Inserted document with _id: ${result.insertedId}); } catch (error) { console.error('Error inserting document:', error); } } insertUser({name: 'Alice Smith'}); 五、结论 MongoDB的异步特性使得数据库操作更加高效,尤其在处理大规模数据和高并发场景下。你知道吗,只要咱们掌握了异步编程的窍门,灵活运用回调、Promise或者那个超好用的async/await,就能把MongoDB的大招完全发挥出来。这样一来,咱的应用程序不仅速度嗖嗖地提升,用户体验也能蹭蹭上涨,保证让用户用得爽歪歪!同时呢,异步操作这个小东西也悄悄告诉我们,在编程的过程中,咱可千万不能忽视代码的维护性和扩展性,毕竟业务需求这玩意儿是说变就变的,咱们得随时做好准备,让代码灵活适应这些变化。
2024-03-13 11:19:09
262
寂静森林_t
转载文章
...面部署 流畅专业界面设计,良好的用户体验 指纹验证,升级无忧 低维护成本 国际语言支持 会员互动,让您的网站火起来 DedeCMS 产品使用说明 一、平台需求 1.Windows 平台: IIS/Apache/Nginx + PHP4/PHP5.2+/PHP5.3+ + MySQL4/5 如果在windows环境中使用,建议用DedeCMS提供的DedeAMPZ套件以达到最佳使用性能。 2.Linux/Unix 平台 Apache + PHP4/PHP5 + MySQL3/4/5 (PHP必须在非安全模式下运行) 建议使用平台:Linux + Apache2.2 + PHP5.2/PHP5.3 + MySQL5.0 3.PHP必须环境或启用的系统函数: allow_url_fopen GD扩展库 MySQL扩展库 系统函数 —— phpinfo、dir 4.基本目录结构 / ..../install 安装程序目录,安装完后可删除[安装时必须有可写入权限] ..../dede 默认后台管理目录(可任意改名) ..../include 类库文件目录 ..../plus 附助程序目录 ..../member 会员目录 ..../images 系统默认模板图片存放目录 ..../uploads 默认上传目录[必须可写入] ..../a 默认HTML文件存放目录[必须可写入] ..../templets 系统默认内核模板目录 ..../data 系统缓存或其它可写入数据存放目录[必须可写入] ..../special 专题目录[生成一次专题后可以删除special/index.php,必须可写入] 5.PHP环境容易碰到的不兼容性问题 (1)data目录没写入权限,导致系统session无法使用,这将导致无法登录管理后台(直接表现为验证码不能正常显示); (2)php的上传的临时文件夹没设置好或没写入权限,这会导致文件上传的功能无法使用; (3)出现莫名的错误,如安装时显示空白,这样能是由于系统没装载mysql扩展导致的,对于初级用户,可以下载dede的php套件包,以方便简单的使用。 二、程序安装使用 1.下载程序解压到本地目录; 2.上传程序目录中的/uploads到网站根目录 3.运行http://www.yourname.com/install/index.php(yourname表示你的域名),按照安装提速说明进行程序安装 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_31879641/article/details/115616068。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-09-24 09:08:23
279
转载
转载文章
...cl命令完成,ACL规则会附加到文件的inode中,不影响基本的用户、组和其他权限设置。在需要更多粒度控制的多用户环境中,ACL是重要的安全机制之一。
2023-01-10 22:43:08
548
转载
转载文章
...的柔性数组成员,但在设计变长字段存储时借鉴了这种思路,实现了更高效的空间利用率。 此外,学术界对于柔性数组的研究也在持续深入。有研究论文探讨了柔性数组在嵌入式系统、网络协议栈等场景下的优劣表现,分析了不同应用场景下柔性数组与传统指针方式在内存安全、性能以及代码可读性等方面的对比。 综上所述,柔性数组作为C99引入的重要特性,其设计理念对当今软件工程有着深远的影响,尤其在内存管理精细化、系统性能优化等方面提供了新的解决方案。关注和学习柔性数组的原理与应用,有助于开发者在实际工作中更好地应对各种复杂场景,编写出更为高效且易于维护的代码。
2023-01-21 13:56:11
502
转载
Hive
...入。Iceberg的设计目标是提供更好的数据管理,包括增量加载、在线修改和数据修复,这对于处理大规模实时数据和高并发更新的场景尤为重要。它通过将数据分割成行块(row-based)和数据文件(data files),使得数据读写效率得到提升,尤其是在处理频繁的插入和删除操作时,能够实现实时分析。 Hive ML , Hive ML是Hive的一个扩展模块,专为在Hive SQL环境中进行机器学习而设计。它允许用户在SQL查询中直接调用预定义的机器学习函数,无需编写复杂的脚本或切换到专门的机器学习工具。这样可以简化数据分析流程,提高数据科学家的生产力,同时也降低了学习曲线,使得非专业开发人员也能利用Hive进行基本的机器学习任务。 Hive-on-Spark , 这是一个Hive与Apache Spark的集成项目,它允许用户在Hive SQL中利用Spark的分布式计算能力。Hive-on-Spark通过将Hive SQL编译为Spark SQL,然后在Spark集群上执行,实现了Hive查询的高性能执行。这对于处理大数据集和复杂分析场景非常有效,因为它可以利用Spark的内存计算优势,避免了Hive自身的磁盘I/O瓶颈。
2024-04-04 10:40:57
769
百转千回
SpringCloud
...在现代分布式系统架构设计中,Spring Cloud 微服务框架以其强大的功能和易用性赢得了开发者的青睐。当我们谈论微服务时,往往绕不开一个重要组件——注册中心。那么问题来了,在构建Spring Cloud微服务架构时,注册中心是否是必不可少的环节呢?我们是否可以直接通过远程调用来访问其他服务的Service层方法? 1.1 注册中心的重要性 注册中心在微服务架构中的角色就像一个中央通讯录,例如Eureka、Consul或Nacos等,它们负责服务实例的注册与发现。当每个微服务启动后,它们就像一个个小员工,兴奋地跑到注册中心那报到,把自己的详细地址(也就是IP和端口)登记在册。这样一来,消费者服务这个“需求方”就可以像查电话簿一样,轻松找到生产者服务这个“供给方”的具体位置了。没有注册中心,各个服务之间的交互将变得异常复杂且难以管理。 java // Spring Cloud Eureka客户端配置示例 @Configuration @EnableEurekaClient public class EurekaClientConfig { } 2. 可以不用注册中心吗? 答案是理论上可以,但实际上不推荐。 - 无注册中心方案:在没有注册中心的情况下,服务间通信需要硬编码或者使用配置中心存储服务实例地址。这种做法在服务数量不多,变动也不是很频繁的时候,勉勉强强还能对付过去。不过,一旦服务规模开始吹气球般地膨胀起来,或者需要灵活调整服务数量时,手动去管理这些服务之间的“牵一发动全身”的依赖关系,那就真的会让人头疼得不行,甚至很可能成为引发系统故障的罪魁祸首。 - 可用性挑战:没有注册中心意味着服务发现能力的缺失,无法实时感知服务实例的上线、下线以及健康状态的变化,这会直接影响系统的稳定性和高可用性。 3. 直接调用Service层? 对于这个问题,从技术角度讲,直接跨服务调用Service层是可能的,但这并不符合微服务的设计原则。 - 侵入式调用:假设两个微服务A和B,如果服务A直接通过RPC或RESTful API的方式调用服务B的Service层方法,这就打破了微服务的边界,使得服务之间高度耦合。如果服务B的内部结构或者方式发生变动,那可能就像多米诺骨牌一样,引发一连串反应影响到服务A,这样一来,我们整个系统的维护保养和未来扩展升级就可能会遇到麻烦了。 java @Service public class ServiceA { @Autowired private RestTemplate restTemplate; public void callServiceB() { // 这里虽然可以实现远程调用,但不符合微服务的最佳实践 String serviceBUrl = "http://service-b/service-method"; ResponseEntity response = restTemplate.getForEntity(serviceBUrl, String.class); // ... } } - 面向接口而非实现:遵循微服务的原则,服务间的通信应当基于API契约进行,即调用方只关心服务提供的接口及其返回结果,而不应关心对方具体的实现细节。所以,正确的做法就像是这样:给各个服务之间设立明确、易懂的API接口,然后就像过家家一样,通过网关或者直接“喊话”调用这些接口来实现彼此的沟通交流。 4. 探讨与建议 在实践中,构建健康的微服务生态系统离不开注册中心的支持。它不仅简化了服务间的依赖管理和通信,也极大地提升了系统的健壮性和弹性。讲到直接调用Service层这事儿,乍一看在一些简单场景里确实好像省事儿不少,不过你要是从长远角度琢磨一下,其实并不利于咱们系统的松耦合和扩展性发展。 结论:即使面临短期成本或复杂度增加的问题,为了保障系统的长期稳定和易于维护,我们强烈建议在Spring Cloud微服务架构中采用注册中心,并遵循服务间通过API进行通信的最佳实践。这样才能充分发挥微服务架构的优势,让每个服务都能独立部署、迭代和扩展。
2023-11-23 11:39:17
37
岁月如歌_
MemCache
...景下,单一缓存系统的设计缺陷和应急响应机制的不足。为了避免类似问题再次发生,该企业迅速采取了多项改进措施,包括引入多级缓存架构、优化缓存过期策略以及增强系统监控和报警机制。这些举措不仅提升了系统的稳定性,也为其他面临相似挑战的企业提供了宝贵的参考经验。 与此同时,有研究团队针对缓存击穿现象进行了深入分析,发现热点数据的频繁访问是导致缓存击穿的主要原因之一。研究人员提出了一种基于机器学习的预测模型,能够提前识别出潜在的热点数据,并采取预加载等策略进行预防。这一创新方法已经在多个实际应用场景中得到了验证,显著降低了缓存击穿的风险,提高了系统的整体性能和可用性。 此外,根据Gartner发布的最新报告,未来几年内,随着边缘计算和物联网技术的普及,缓存系统将面临更加复杂和多变的环境。因此,企业需要不断优化现有的缓存策略,探索新的技术和方法,以应对日益增长的数据处理需求和更高的性能要求。例如,采用分布式缓存方案、引入内存数据库以及利用容器化技术提高系统的灵活性和扩展性,都是值得考虑的方向。这些技术的应用不仅能有效缓解缓存雪崩和缓存击穿问题,还能为企业带来更高效、更稳定的IT基础设施支持。
2024-11-22 15:40:26
60
岁月静好
Impala
...特点 Impala的设计目标是在大规模数据集上提供高性能的查询。为了达到这个目标,Impala采用了许多独特的技术和优化策略。以下是其中的一些特点: 基于内存的计算:Impala的所有计算都在内存中完成,这大大提高了查询速度。跟那些老式批处理系统可不一样,Impala能在几秒钟内就把查询给搞定了,哪还需要等个几分钟甚至更久的时间! 多线程执行:Impala采用多线程执行查询,可以充分利用多核CPU的优势。每个线程都会独立地处理一部分数据,然后将结果合并在一起。 列式存储:Impala使用列式存储方式,可以显著减少I/O操作,提高查询性能。在列式存储中,每行数据都是一个列块,而不是一个完整的记录。这就意味着,当你在查询时只挑了部分列,Impala这个小机灵鬼就会聪明地只去读取那些被你点名的列所在的区块,压根儿不用浪费时间去翻看整条记录。 高速缓存:Impala有一个内置的查询缓存机制,可以将经常使用的查询结果缓存起来,减少不必要的计算。此外,Impala还可以利用Hadoop的内存管理机制,将结果缓存在HDFS上。 这些特点使Impala能够在大数据环境中提供卓越的查询性能。其实吧,实际情况是这样的,性能到底怎么样,得看多个因素的脸色。就好比硬件配置啦,查询的复杂程度啦,还有数据分布什么的,这些家伙都对最终的表现有着举足轻重的影响呢! 如何优化Impala查询性能? 虽然Impala已经非常强大,但是仍然有一些方法可以进一步提高其查询性能。以下是一些常见的优化技巧: 合理设计查询语句:首先,你需要确保你的查询语句是最优的。这通常就是说,咱得尽量避开那个费时费力的全表扫一遍的大动作,学会巧妙地利用索引这个神器,还有啊,JOIN操作也得玩得溜,用得恰到好处才行。如果你不确定如何编写最优的查询语句,可以尝试使用Impala自带的优化器。 调整资源设置:Impala的性能受到许多资源因素的影响,如内存、CPU、磁盘等。你可以通过调整这些参数来优化查询性能。比如说,你完全可以尝试给Impala喂饱更多的内存,或者把更重的计算任务分配给那些运算速度飞快的核心CPU,就像让短跑健将去跑更重要的赛段一样。 使用分区:分区是一种有效的方法,可以将大型表分割成较小的部分,从而提高查询性能。你知道吗,通过给数据分区这么一个操作,你就能把它们分散存到多个不同的硬件设备上。这样一来,当你需要查找信息的时候,效率嗖嗖地提升,就像在图书馆分门别类放书一样,找起来又快又准! 缓存查询结果:Impala有一个内置的查询缓存机制,可以将经常使用的查询结果缓存起来,减少不必要的计算。此外,Impala还可以利用Hadoop的内存管理机制,将结果缓存在HDFS上。 以上只是优化Impala查询性能的一小部分方法。实际上,还有很多其他的技术和工具可以帮助你提高查询性能。关键在于,你得像了解自家后院一样熟悉你的数据和工作负载,这样才能做出最棒、最合适的决策。 总结 Impala是一种强大的查询工具,能够在大数据环境中提供卓越的查询性能。如果你想让你的Impala查询速度嗖嗖提升,这里有几个小妙招可以试试:首先,设计查询时要够精明合理,别让它成为拖慢速度的小尾巴;其次,灵活调整资源分配,确保每一份计算力都用在刀刃上;最后,巧妙运用分区功能,让数据查找和处理变得更加高效。这样一来,你的Impala就能跑得飞快啦!最后,千万记住这事儿啊,你得像了解自家的后花园一样深入了解你的数据和工作负载,这样才能够做出最棒、最合适的决策,一点儿都不含糊。
2023-03-25 22:18:41
487
凌波微步-t
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
sudo apt update && sudo apt upgrade (适用于基于Debian/Ubuntu)
- 更新软件包列表并升级所有已安装软件包。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"