前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[快照文件 Snapshot ]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
Etcd
...无法加载先前持久化的快照文件问题解析及解决方案 1. 引言 Etcd,作为分布式键值存储系统,常被用于服务发现、配置共享和一致性保证等场景。在实际运行过程中,Etcd会周期性地将数据持久化为快照文件以防止数据丢失。然而,当我们重启Etcd服务时,可能会遇到无法加载先前持久化的快照文件的问题,这无疑对系统的稳定性构成了威胁。这篇东西,咱们会好好挖一挖这个问题背后的为啥,然后我还会甩出些实例代码和实战经历,实实在在地给你亮出解决方案。 2. 快照文件加载失败的可能原因 2.1 文件损坏或不完整 在Etcd进行持久化操作时,如果出现如磁盘空间不足、写入过程中服务器宕机等情况,可能导致生成的快照文件损坏或不完整,从而使得Etcd在重启时无法成功加载这些文件。 bash 示例:Etcd启动日志中可能显示的错误信息 etcd: snapshot file /var/lib/etcd/member/snap/db.snap is corrupted or has a wrong version 2.2 版本不兼容 Etcd在升级版本时,旧版本创建的快照文件可能与新版本存在兼容性问题,导致新版本的Etcd服务无法正确加载旧版本的快照文件。 2.3 文件权限问题 如果Etcd进程没有足够的权限访问快照文件,也会导致加载失败。 2.4 配置路径不一致 在Etcd启动配置中,如果指定的数据目录与快照文件的实际存放路径不匹配,自然会导致Etcd找不到并加载快照文件。 3. 解决方案及实战示例 3.1 检查和修复快照文件 首先,我们需要确认快照文件是否损坏或不完整。可以尝试使用etcdctl工具来检查快照文件: bash etcdctl snapshot status /path/to/snapshot.db 如果确实存在问题,可以考虑从备份恢复或者重新启动一个全新的Etcd集群,然后重新导入数据。 3.2 确保版本兼容性 在升级Etcd版本时,应遵循官方发布的升级指南,确保有正确的迁移步骤。如有必要,可先将旧版Etcd的数据进行备份,并在新版Etcd启动后执行恢复操作。 3.3 调整文件权限 确保Etcd进程用户有足够的权限访问快照文件,例如: bash chown -R etcd:etcd /var/lib/etcd/ 3.4 核实启动配置中的数据目录 请确保Etcd启动命令或配置文件中的数据目录参数(--data-dir)指向包含快照文件的实际路径。 bash ./etcd --data-dir=/var/lib/etcd/member --snapshot-count=10000 4. 总结与思考 在处理Etcd无法加载先前持久化快照文件的问题时,我们不仅需要排查具体的技术原因,还要根据实际情况灵活运用各种应对策略。同时呢,这也正好敲响了我们日常运维的小闹钟,告诉我们得把Etcd集群数据的定期备份和检查工作给提上日程,可不能马虎。而且呀,在进行版本升级的时候,也要瞪大眼睛留意一下兼容性问题,别让它成了那只捣蛋的小鬼。说到底,只有真正把它的运作机理摸得门儿清,把那些潜在的风险点都研究透彻了,咱们才能把这个强大的分布式存储工具玩转起来,保证咱的业务系统能够稳稳当当地跑起来。就像医生看病那样,解决技术问题也得我们像老中医似的,耐着性子慢慢来,得“望闻问切”全套做齐了,也就是说,得仔细观察、耐心倾听、多角度询问、深度剖析,一步步把各种可能的问题排除掉,最后才能揪出那个隐藏的“罪魁祸首”。
2023-07-24 14:09:40
778
月下独酌
Etcd
...的可靠性和一致性。 Snapshot , 在计算机存储领域,snapshot(快照)是指在某一时间点对整个文件系统或数据库的一种完全拷贝,用以保留该时间点的数据状态。对于 Etcd 来说,snapshot 文件是一种特殊的快照,用于保存 Etcd 当前状态的完整拷贝。通过定期创建这些快照,系统管理员可以确保即使发生数据丢失或系统故障,也可以恢复到最近的健康状态。Snapshot 文件对于数据保护和灾难恢复具有重要意义。 监控 , 在 IT 系统管理中,监控是指持续跟踪和评估系统资源、性能指标和服务状态的过程。通过部署合适的监控工具和技术,管理员可以及时发现潜在问题并采取相应措施,避免系统故障对业务造成影响。在文章中提到的 Etcd 系统中,有效的监控机制可以帮助快速识别 snapshot 文件损坏等问题,从而缩短恢复时间,提高系统的可用性和稳定性。
2024-12-03 16:04:28
98
山涧溪流
Etcd
...定目录),并定期进行快照(snapshot)和日志记录,确保即使在异常情况下也能尽可能减少数据丢失的风险。 bash 启动etcd时设置数据存储目录 etcd --data-dir=/var/lib/etcd 2. 非正常关闭与重启恢复流程 当Etcd非正常关闭后,重启时会自动执行以下恢复流程: (1)检测数据完整性:Etcd启动时,首先会检查data-dir下的快照文件和日志文件是否完整。要是发现文件受损或者不齐全,它会像个贴心的小助手那样,主动去其它Raft节点那里借个肩膀,复制丢失的日志条目,以便把状态恢复重建起来。 (2)恢复Raft状态:基于Raft协议,Etcd通过读取并应用已有的日志和快照文件来恢复集群的最新状态。这一过程包括回放所有未提交的日志,直至达到最新的已提交状态。 (3)恢复成员关系与领导选举:Etcd根据持久化的成员信息重新建立集群成员间的联系,并参与领导选举,以恢复集群的服务能力。 go // 这是一个简化的示例,实际逻辑远比这复杂 func (s EtcdServer) start() error { // 恢复raft状态 err := s raft.Restore() if err != nil { return err } // 恢复成员关系 s.restoreCluster() // 开始参与领导选举 s.startElection() // ... } 3. 数据安全与备份策略 尽管Etcd具备一定的自我恢复能力,但为了应对极端情况下的数据丢失,我们仍需要制定合理的备份策略。例如,可以使用Etcd自带的etcdctl snapshot save命令定期创建数据快照,并将其存储到远程位置。 bash 创建Etcd快照并保存到指定路径 etcdctl snapshot save /path/to/snapshot.db \ --endpoint=https://etcd-cluster-0:2379,https://etcd-cluster-1:2379 如遇数据丢失,可使用etcdctl snapshot restore命令从快照恢复数据,并重新加入至集群。 bash 从快照恢复数据并启动一个新的etcd节点 etcdctl snapshot restore /path/to/snapshot.db \ --data-dir=/var/lib/etcd-restore \ --initial-cluster-token=etcd-cluster-unique-token 4. 结语与思考 面对Etcd非正常关闭后的重启数据恢复问题,我们可以看到Etcd本身已经做了很多工作来保障数据的安全性和系统的稳定性。但这可不代表咱们能对此放松警惕,摸透并熟练掌握Etcd的运行原理,再适时采取一些实打实的备份策略,对提高咱整个系统的稳定性、坚韧性可是至关重要滴!就像人的心跳一旦不给力,虽然身体自带修复技能,但还是得靠医生及时出手治疗,才能最大程度地把生命危险降到最低。同样,我们在运维Etcd集群时,也应该做好“医生”的角色,确保数据的“心跳”永不停息。
2023-06-17 09:26:09
712
落叶归根
转载文章
...合命令,我们可以放在文件中,可以实现程序之间的命令集复用。 3.1 在Redis中调用Lua脚本 使用 eval /ɪ’væl/ 方法,语法格式: redis> eval lua-script key-num [key1 key2 key3 ....] [value1 value2 value3 ....] eval代表执行Lua语言的命令。 lua-script代表Lua语言脚本内容。 key-num表示参数中有多少个key,需要注意的是Redis中key是从1开始的,如果没有key的参数,那么写0。 [key1key2key3…]是key作为参数传递给Lua语言,也可以不填,但是需要和key-num的个数对应起来。 [value1 value2 value3 …]这些参数传递给 Lua 语言,它们是可填可不填的。 示例,返回一个字符串,0 个参数: redis> eval "return 'Hello World'" 0 3.2 在Lua脚本中调用Redis命令 使用 redis.call(command, key [param1, param2…])进行操作。语法格式: redis> eval "redis.call('set',KEYS[1],ARGV[1])" 1 lua-key lua-value command是命令,包括set、get、del等。 key是被操作的键。 param1,param2…代表给key的参数。 注意跟 Java 不一样,定义只有形参,调用只有实参。 Lua 是在调用时用 key 表示形参,argv 表示参数值(实参)。 3.2.1 设置键值对 在 Redis 中调用 Lua 脚本执行 Redis 命令 redis> eval "return redis.call('set',KEYS[1],ARGV[1])" 1 gupao 2673 redis> get gupao 以上命令等价于 set gupao 2673。 在 redis-cli 中直接写 Lua 脚本不够方便,也不能实现编辑和复用,通常我们会把脚本放在文件里面,然后执行这个文件。 3.2.2 在 Redis 中调用 Lua 脚本文件中的命令,操作 Redis 创建 Lua 脚本文件: cd /usr/local/soft/redis5.0.5/src vim gupao.lua Lua 脚本内容,先设置,再取值: cd /usr/local/soft/redis5.0.5/src redis-cli --eval gupao.lua 0 得到返回值: root@localhost src] redis-cli --eval gupao.lua 0 "lua666" 3.2.3 案例:对 IP 进行限流 需求:在 X 秒内只能访问 Y 次。 设计思路:用 key 记录 IP,用 value 记录访问次数。 拿到 IP 以后,对 IP+1。如果是第一次访问,对 key 设置过期时间(参数 1)。否则判断次数,超过限定的次数(参数 2),返回 0。如果没有超过次数则返回 1。超过时间, key 过期之后,可以再次访问。 KEY[1]是 IP, ARGV[1]是过期时间 X,ARGV[2]是限制访问的次数 Y。 -- ip_limit.lua-- IP 限流,对某个 IP 频率进行限制 ,6 秒钟访问 10 次 local num=redis.call('incr',KEYS[1])if tonumber(num)==1 thenredis.call('expire',KEYS[1],ARGV[1])return 1elseif tonumber(num)>tonumber(ARGV[2]) thenreturn 0 elsereturn 1 end 6 秒钟内限制访问 10 次,调用测试(连续调用 10 次): ./redis-cli --eval "ip_limit.lua" app:ip:limit:192.168.8.111 , 6 10 app:ip:limit:192.168.8.111 是 key 值 ,后面是参数值,中间要加上一个空格和一个逗号,再加上一个空格 。 即:./redis-cli –eval [lua 脚本] [key…]空格,空格[args…] 多个参数之间用一个空格分割 。 代码:LuaTest.java 3.2.4 缓存 Lua 脚本 为什么要缓存 在脚本比较长的情况下,如果每次调用脚本都需要把整个脚本传给 Redis 服务端, 会产生比较大的网络开销。为了解决这个问题,Redis 提供了 EVALSHA 命令,允许开发者通过脚本内容的 SHA1 摘要来执行脚本。 如何缓存 Redis 在执行 script load 命令时会计算脚本的 SHA1 摘要并记录在脚本缓存中,执行 EVALSHA 命令时 Redis 会根据提供的摘要从脚本缓存中查找对应的脚本内容,如果找到了则执行脚本,否则会返回错误:“NOSCRIPT No matching script. Please use EVAL.” 127.0.0.1:6379> script load "return 'Hello World'" "470877a599ac74fbfda41caa908de682c5fc7d4b"127.0.0.1:6379> evalsha "470877a599ac74fbfda41caa908de682c5fc7d4b" 0 "Hello World" 3.2.5 自乘案例 Redis 有 incrby 这样的自增命令,但是没有自乘,比如乘以 3,乘以 5。我们可以写一个自乘的运算,让它乘以后面的参数: local curVal = redis.call("get", KEYS[1]) if curVal == false thencurVal = 0 elsecurVal = tonumber(curVal)endcurVal = curVal tonumber(ARGV[1]) redis.call("set", KEYS[1], curVal) return curVal 把这个脚本变成单行,语句之间使用分号隔开 local curVal = redis.call("get", KEYS[1]); if curVal == false then curVal = 0 else curVal = tonumber(curVal) end; curVal = curVal tonumber(ARGV[1]); redis.call("set", KEYS[1], curVal); return curVal script load ‘命令’ 127.0.0.1:6379> script load 'local curVal = redis.call("get", KEYS[1]); if curVal == false then curVal = 0 else curVal = tonumber(curVal) end; curVal = curVal tonumber(ARGV[1]); redis.call("set", KEYS[1], curVal); return curVal' "be4f93d8a5379e5e5b768a74e77c8a4eb0434441" 调用: 127.0.0.1:6379> set num 2OK127.0.0.1:6379> evalsha be4f93d8a5379e5e5b768a74e77c8a4eb0434441 1 num 6 (integer) 12 3.2.6 脚本超时 Redis 的指令执行本身是单线程的,这个线程还要执行客户端的 Lua 脚本,如果 Lua 脚本执行超时或者陷入了死循环,是不是没有办法为客户端提供服务了呢? eval 'while(true) do end' 0 为了防止某个脚本执行时间过长导致 Redis 无法提供服务,Redis 提供了 lua-time-limit 参数限制脚本的最长运行时间,默认为 5 秒钟。 lua-time-limit 5000(redis.conf 配置文件中) 当脚本运行时间超过这一限制后,Redis 将开始接受其他命令但不会执行(以确保脚本的原子性,因为此时脚本并没有被终止),而是会返回“BUSY”错误。 Redis 提供了一个 script kill 的命令来中止脚本的执行。新开一个客户端: script kill 如果当前执行的 Lua 脚本对 Redis 的数据进行了修改(SET、DEL 等),那么通过 script kill 命令是不能终止脚本运行的。 127.0.0.1:6379> eval "redis.call('set','gupao','666') while true do end" 0 因为要保证脚本运行的原子性,如果脚本执行了一部分终止,那就违背了脚本原子性的要求。最终要保证脚本要么都执行,要么都不执行。 127.0.0.1:6379> script kill(error) UNKILLABLE Sorry the script already executed write commands against the dataset. You can either wait the scripttermination or kill the server in a hard way using the SHUTDOWN NOSAVE command. 遇到这种情况,只能通过 shutdown nosave 命令来强行终止 redis。 shutdown nosave 和 shutdown 的区别在于 shutdown nosave 不会进行持久化操作,意味着发生在上一次快照后的数据库修改都会丢失。 4、Redis 为什么这么快? 4.1 Redis到底有多快? 根据官方的数据,Redis 的 QPS 可以达到 10 万左右(每秒请求数)。 4.2 Redis为什么这么快? 总结:1)纯内存结构、2)单线程、3)多路复用 4.2.1 内存 KV 结构的内存数据库,时间复杂度 O(1)。 第二个,要实现这么高的并发性能,是不是要创建非常多的线程? 恰恰相反,Redis 是单线程的。 4.2.2 单线程 单线程有什么好处呢? 1、没有创建线程、销毁线程带来的消耗 2、避免了上线文切换导致的 CPU 消耗 3、避免了线程之间带来的竞争问题,例如加锁释放锁死锁等等 4.2.3 异步非阻塞 异步非阻塞 I/O,多路复用处理并发连接。 4.3 Redis为什么是单线程的? 不是白白浪费了 CPU 的资源吗? 因为单线程已经够用了,CPU 不是 redis 的瓶颈。Redis 的瓶颈最有可能是机器内存或者网络带宽。既然单线程容易实现,而且 CPU 不会成为瓶颈,那就顺理成章地采用单线程的方案了。 4.4 单线程为什么这么快? 因为 Redis 是基于内存的操作,我们先从内存开始说起。 4.4.1 虚拟存储器(虚拟内存 Vitual Memory) 名词解释:主存:内存;辅存:磁盘(硬盘) 计算机主存(内存)可看作一个由 M 个连续的字节大小的单元组成的数组,每个字节有一个唯一的地址,这个地址叫做物理地址(PA)。早期的计算机中,如果 CPU 需要内存,使用物理寻址,直接访问主存储器。 这种方式有几个弊端: 1、在多用户多任务操作系统中,所有的进程共享主存,如果每个进程都独占一块物理地址空间,主存很快就会被用完。我们希望在不同的时刻,不同的进程可以共用同一块物理地址空间。 2、如果所有进程都是直接访问物理内存,那么一个进程就可以修改其他进程的内存数据,导致物理地址空间被破坏,程序运行就会出现异常。 为了解决这些问题,我们就想了一个办法,在 CPU 和主存之间增加一个中间层。CPU 不再使用物理地址访问,而是访问一个虚拟地址,由这个中间层把地址转换成物理地址,最终获得数据。这个中间层就叫做虚拟存储器(Virtual Memory)。 具体的操作如下所示: 在每一个进程开始创建的时候,都会分配一段虚拟地址,然后通过虚拟地址和物理地址的映射来获取真实数据,这样进程就不会直接接触到物理地址,甚至不知道自己调用的哪块物理地址的数据。 目前,大多数操作系统都使用了虚拟内存,如 Windows 系统的虚拟内存、Linux 系统的交换空间等等。Windows 的虚拟内存(pagefile.sys)是磁盘空间的一部分。 在 32 位的系统上,虚拟地址空间大小是 2^32bit=4G。在 64 位系统上,最大虚拟地址空间大小是多少? 是不是 2^64bit=10241014TB=1024PB=16EB?实际上没有用到 64 位,因为用不到这么大的空间,而且会造成很大的系统开销。Linux 一般用低 48 位来表示虚拟地址空间,也就是 2^48bit=256T。 cat /proc/cpuinfo address sizes : 40 bits physical, 48 bits virtual 实际的物理内存可能远远小于虚拟内存的大小。 总结:引入虚拟内存,可以提供更大的地址空间,并且地址空间是连续的,使得程序编写、链接更加简单。并且可以对物理内存进行隔离,不同的进程操作互不影响。还可以通过把同一块物理内存映射到不同的虚拟地址空间实现内存共享。 4.4.2 用户空间和内核空间 为了避免用户进程直接操作内核,保证内核安全,操作系统将虚拟内存划分为两部分,一部分是内核空间(Kernel-space)/ˈkɜːnl /,一部分是用户空间(User-space)。 内核是操作系统的核心,独立于普通的应用程序,可以访问受保护的内存空间,也有访问底层硬件设备的权限。 内核空间中存放的是内核代码和数据,而进程的用户空间中存放的是用户程序的代码和数据。不管是内核空间还是用户空间,它们都处于虚拟空间中,都是对物理地址的映射。 在 Linux 系统中, 内核进程和用户进程所占的虚拟内存比例是 1:3。 当进程运行在内核空间时就处于内核态,而进程运行在用户空间时则处于用户态。 进程在内核空间以执行任意命令,调用系统的一切资源;在用户空间只能执行简单的运算,不能直接调用系统资源,必须通过系统接口(又称 system call),才能向内核发出指令。 top 命令: us 代表 CPU 消耗在 User space 的时间百分比; sy 代表 CPU 消耗在 Kernel space 的时间百分比。 4.4.3 进程切换(上下文切换) 多任务操作系统是怎么实现运行远大于 CPU 数量的任务个数的? 当然,这些任务实际上并不是真的在同时运行,而是因为系统通过时间片分片算法,在很短的时间内,将 CPU 轮流分配给它们,造成多任务同时运行的错觉。 为了控制进程的执行,内核必须有能力挂起正在 CPU 上运行的进程,并恢复以前挂起的某个进程的执行。这种行为被称为进程切换。 什么叫上下文? 在每个任务运行前,CPU 都需要知道任务从哪里加载、又从哪里开始运行,也就是说,需要系统事先帮它设置好 CPU 寄存器和程序计数器(ProgramCounter),这个叫做 CPU 的上下文。 而这些保存下来的上下文,会存储在系统内核中,并在任务重新调度执行时再次加载进来。这样就能保证任务原来的状态不受影响,让任务看起来还是连续运行。 在切换上下文的时候,需要完成一系列的工作,这是一个很消耗资源的操作。 4.4.4 进程的阻塞 正在运行的进程由于提出系统服务请求(如 I/O 操作),但因为某种原因未得到操作系统的立即响应,该进程只能把自己变成阻塞状态,等待相应的事件出现后才被唤醒。 进程在阻塞状态不占用 CPU 资源。 4.4.5 文件描述符 FD Linux 系统将所有设备都当作文件来处理,而 Linux 用文件描述符来标识每个文件对象。 文件描述符(File Descriptor)是内核为了高效管理已被打开的文件所创建的索引,用于指向被打开的文件,所有执行 I/O 操作的系统调用都通过文件描述符;文件描述符是一个简单的非负整数,用以表明每个被进程打开的文件。 Linux 系统里面有三个标准文件描述符。 0:标准输入(键盘); 1:标准输出(显示器); 2:标准错误输出(显示器)。 4.4.6 传统 I/O 数据拷贝 以读操作为例: 当应用程序执行 read 系统调用读取文件描述符(FD)的时候,如果这块数据已经存在于用户进程的页内存中,就直接从内存中读取数据。如果数据不存在,则先将数据从磁盘加载数据到内核缓冲区中,再从内核缓冲区拷贝到用户进程的页内存中。(两次拷贝,两次 user 和 kernel 的上下文切换)。 I/O 的阻塞到底阻塞在哪里? 4.4.7 Blocking I/O 当使用 read 或 write 对某个文件描述符进行过读写时,如果当前 FD 不可读,系统就不会对其他的操作做出响应。从设备复制数据到内核缓冲区是阻塞的,从内核缓冲区拷贝到用户空间,也是阻塞的,直到 copy complete,内核返回结果,用户进程才解除 block 的状态。 为了解决阻塞的问题,我们有几个思路。 1、在服务端创建多个线程或者使用线程池,但是在高并发的情况下需要的线程会很多,系统无法承受,而且创建和释放线程都需要消耗资源。 2、由请求方定期轮询,在数据准备完毕后再从内核缓存缓冲区复制数据到用户空间 (非阻塞式 I/O),这种方式会存在一定的延迟。 能不能用一个线程处理多个客户端请求? 4.4.8 I/O 多路复用(I/O Multiplexing) I/O 指的是网络 I/O。 多路指的是多个 TCP 连接(Socket 或 Channel)。 复用指的是复用一个或多个线程。它的基本原理就是不再由应用程序自己监视连接,而是由内核替应用程序监视文件描述符。 客户端在操作的时候,会产生具有不同事件类型的 socket。在服务端,I/O 多路复用程序(I/O Multiplexing Module)会把消息放入队列中,然后通过文件事件分派器(File event Dispatcher),转发到不同的事件处理器中。 多路复用有很多的实现,以 select 为例,当用户进程调用了多路复用器,进程会被阻塞。内核会监视多路复用器负责的所有 socket,当任何一个 socket 的数据准备好了,多路复用器就会返回。这时候用户进程再调用 read 操作,把数据从内核缓冲区拷贝到用户空间。 所以,I/O 多路复用的特点是通过一种机制一个进程能同时等待多个文件描述符,而这些文件描述符(套接字描述符)其中的任意一个进入读就绪(readable)状态,select() 函数就可以返回。 Redis 的多路复用, 提供了 select, epoll, evport, kqueue 几种选择,在编译的时 候来选择一种。 evport 是 Solaris 系统内核提供支持的; epoll 是 LINUX 系统内核提供支持的; kqueue 是 Mac 系统提供支持的; select 是 POSIX 提供的,一般的操作系统都有支撑(保底方案); 源码 ae_epoll.c、ae_select.c、ae_kqueue.c、ae_evport.c 5、内存回收 Reids 所有的数据都是存储在内存中的,在某些情况下需要对占用的内存空间进行回 收。内存回收主要分为两类,一类是 key 过期,一类是内存使用达到上限(max_memory) 触发内存淘汰。 5.1 过期策略 要实现 key 过期,我们有几种思路。 5.1.1 定时过期(主动淘汰) 每个设置过期时间的 key 都需要创建一个定时器,到过期时间就会立即清除。该策略可以立即清除过期的数据,对内存很友好;但是会占用大量的 CPU 资源去处理过期的 数据,从而影响缓存的响应时间和吞吐量。 5.1.2 惰性过期(被动淘汰) 只有当访问一个 key 时,才会判断该 key 是否已过期,过期则清除。该策略可以最大化地节省 CPU 资源,却对内存非常不友好。极端情况可能出现大量的过期 key 没有再次被访问,从而不会被清除,占用大量内存。 例如 String,在 getCommand 里面会调用 expireIfNeeded server.c expireIfNeeded(redisDb db, robj key) 第二种情况,每次写入 key 时,发现内存不够,调用 activeExpireCycle 释放一部分内存。 expire.c activeExpireCycle(int type) 5.1.3 定期过期 源码:server.h typedef struct redisDb { dict dict; / 所有的键值对 /dict expires; / 设置了过期时间的键值对 /dict blocking_keys; dict ready_keys; dict watched_keys; int id;long long avg_ttl;list defrag_later; } redisDb; 每隔一定的时间,会扫描一定数量的数据库的 expires 字典中一定数量的 key,并清除其中已过期的 key。该策略是前两者的一个折中方案。通过调整定时扫描的时间间隔和每次扫描的限定耗时,可以在不同情况下使得 CPU 和内存资源达到最优的平衡效果。 Redis 中同时使用了惰性过期和定期过期两种过期策略。 5.2 淘汰策略 Redis 的内存淘汰策略,是指当内存使用达到最大内存极限时,需要使用淘汰算法来决定清理掉哪些数据,以保证新数据的存入。 5.2.1 最大内存设置 redis.conf 参数配置: maxmemory <bytes> 如果不设置 maxmemory 或者设置为 0,64 位系统不限制内存,32 位系统最多使用 3GB 内存。 动态修改: redis> config set maxmemory 2GB 到达最大内存以后怎么办? 5.2.2 淘汰策略 https://redis.io/topics/lru-cache redis.conf maxmemory-policy noeviction 先从算法来看: LRU,Least Recently Used:最近最少使用。判断最近被使用的时间,目前最远的数据优先被淘汰。 LFU,Least Frequently Used,最不常用,4.0 版本新增。 random,随机删除。 如果没有符合前提条件的 key 被淘汰,那么 volatile-lru、volatile-random、 volatile-ttl 相当于 noeviction(不做内存回收)。 动态修改淘汰策略: redis> config set maxmemory-policy volatile-lru 建议使用 volatile-lru,在保证正常服务的情况下,优先删除最近最少使用的 key。 5.2.3 LRU 淘汰原理 问题:如果基于传统 LRU 算法实现 Redis LRU 会有什么问题? 需要额外的数据结构存储,消耗内存。 Redis LRU 对传统的 LRU 算法进行了改良,通过随机采样来调整算法的精度。如果淘汰策略是 LRU,则根据配置的采样值 maxmemory_samples(默认是 5 个), 随机从数据库中选择 m 个 key, 淘汰其中热度最低的 key 对应的缓存数据。所以采样参数m配置的数值越大, 就越能精确的查找到待淘汰的缓存数据,但是也消耗更多的CPU计算,执行效率降低。 问题:如何找出热度最低的数据? Redis 中所有对象结构都有一个 lru 字段, 且使用了 unsigned 的低 24 位,这个字段用来记录对象的热度。对象被创建时会记录 lru 值。在被访问的时候也会更新 lru 的值。 但是不是获取系统当前的时间戳,而是设置为全局变量 server.lruclock 的值。 源码:server.h typedef struct redisObject {unsigned type:4;unsigned encoding:4;unsigned lru:LRU_BITS;int refcount;void ptr; } robj; server.lruclock 的值怎么来的? Redis 中有个定时处理的函数 serverCron,默认每 100 毫秒调用函数 updateCachedTime 更新一次全局变量的 server.lruclock 的值,它记录的是当前 unix 时间戳。 源码:server.c void updateCachedTime(void) { time_t unixtime = time(NULL); atomicSet(server.unixtime,unixtime); server.mstime = mstime();struct tm tm; localtime_r(&server.unixtime,&tm);server.daylight_active = tm.tm_isdst; } 问题:为什么不获取精确的时间而是放在全局变量中?不会有延迟的问题吗? 这样函数 lookupKey 中更新数据的 lru 热度值时,就不用每次调用系统函数 time,可以提高执行效率。 OK,当对象里面已经有了 LRU 字段的值,就可以评估对象的热度了。 函数 estimateObjectIdleTime 评估指定对象的 lru 热度,思想就是对象的 lru 值和全局的 server.lruclock 的差值越大(越久没有得到更新),该对象热度越低。 源码 evict.c / Given an object returns the min number of milliseconds the object was never requested, using an approximated LRU algorithm. /unsigned long long estimateObjectIdleTime(robj o) {unsigned long long lruclock = LRU_CLOCK(); if (lruclock >= o->lru) {return (lruclock - o->lru) LRU_CLOCK_RESOLUTION; } else {return (lruclock + (LRU_CLOCK_MAX - o->lru)) LRU_CLOCK_RESOLUTION;} } server.lruclock 只有 24 位,按秒为单位来表示才能存储 194 天。当超过 24bit 能表 示的最大时间的时候,它会从头开始计算。 server.h define LRU_CLOCK_MAX ((1<<LRU_BITS)-1) / Max value of obj->lru / 在这种情况下,可能会出现对象的 lru 大于 server.lruclock 的情况,如果这种情况 出现那么就两个相加而不是相减来求最久的 key。 为什么不用常规的哈希表+双向链表的方式实现?需要额外的数据结构,消耗资源。而 Redis LRU 算法在 sample 为 10 的情况下,已经能接近传统 LRU 算法了。 问题:除了消耗资源之外,传统 LRU 还有什么问题? 如图,假设 A 在 10 秒内被访问了 5 次,而 B 在 10 秒内被访问了 3 次。因为 B 最后一次被访问的时间比 A 要晚,在同等的情况下,A 反而先被回收。 问题:要实现基于访问频率的淘汰机制,怎么做? 5.2.4 LFU server.h typedef struct redisObject {unsigned type:4;unsigned encoding:4;unsigned lru:LRU_BITS;int refcount;void ptr; } robj; 当这 24 bits 用作 LFU 时,其被分为两部分: 高 16 位用来记录访问时间(单位为分钟,ldt,last decrement time) 低 8 位用来记录访问频率,简称 counter(logc,logistic counter) counter 是用基于概率的对数计数器实现的,8 位可以表示百万次的访问频率。 对象被读写的时候,lfu 的值会被更新。 db.c——lookupKey void updateLFU(robj val) {unsigned long counter = LFUDecrAndReturn(val); counter = LFULogIncr(counter);val->lru = (LFUGetTimeInMinutes()<<8) | counter;} 增长的速率由,lfu-log-factor 越大,counter 增长的越慢 redis.conf 配置文件。 lfu-log-factor 10 如果计数器只会递增不会递减,也不能体现对象的热度。没有被访问的时候,计数器怎么递减呢? 减少的值由衰减因子 lfu-decay-time(分钟)来控制,如果值是 1 的话,N 分钟没有访问就要减少 N。 redis.conf 配置文件 lfu-decay-time 1 6、持久化机制 https://redis.io/topics/persistence Redis 速度快,很大一部分原因是因为它所有的数据都存储在内存中。如果断电或者宕机,都会导致内存中的数据丢失。为了实现重启后数据不丢失,Redis 提供了两种持久化的方案,一种是 RDB 快照(Redis DataBase),一种是 AOF(Append Only File)。 6.1 RDB RDB 是 Redis 默认的持久化方案。当满足一定条件的时候,会把当前内存中的数据写入磁盘,生成一个快照文件 dump.rdb。Redis 重启会通过加载 dump.rdb 文件恢复数据。 什么时候写入 rdb 文件? 6.1.1 RDB 触发 1、自动触发 a)配置规则触发。 redis.conf, SNAPSHOTTING,其中定义了触发把数据保存到磁盘的触发频率。 如果不需要 RDB 方案,注释 save 或者配置成空字符串""。 save 900 1 900 秒内至少有一个 key 被修改(包括添加) save 300 10 400 秒内至少有 10 个 key 被修改save 60 10000 60 秒内至少有 10000 个 key 被修改 注意上面的配置是不冲突的,只要满足任意一个都会触发。 RDB 文件位置和目录: 文件路径,dir ./ 文件名称dbfilename dump.rdb 是否是LZF压缩rdb文件 rdbcompression yes 开启数据校验 rdbchecksum yes 问题:为什么停止 Redis 服务的时候没有 save,重启数据还在? RDB 还有两种触发方式: b)shutdown 触发,保证服务器正常关闭。 c)flushall,RDB 文件是空的,没什么意义(删掉 dump.rdb 演示一下)。 2、手动触发 如果我们需要重启服务或者迁移数据,这个时候就需要手动触 RDB 快照保存。Redis 提供了两条命令: a)save save 在生成快照的时候会阻塞当前 Redis 服务器, Redis 不能处理其他命令。如果内存中的数据比较多,会造成 Redis 长时间的阻塞。生产环境不建议使用这个命令。 为了解决这个问题,Redis 提供了第二种方式。 执行 bgsave 时,Redis 会在后台异步进行快照操作,快照同时还可以响应客户端请求。 具体操作是 Redis 进程执行 fork 操作创建子进程(copy-on-write),RDB 持久化过程由子进程负责,完成后自动结束。它不会记录 fork 之后后续的命令。阻塞只发生在 fork 阶段,一般时间很短。 用 lastsave 命令可以查看最近一次成功生成快照的时间。 6.1.2 RDB 数据的恢复(演示) 1、shutdown 持久化添加键值 添加键值 redis> set k1 1 redis> set k2 2 redis> set k3 3 redis> set k4 4 redis> set k5 5 停服务器,触发 save redis> shutdown 备份 dump.rdb 文件 cp dump.rdb dump.rdb.bak 启动服务器 /usr/local/soft/redis-5.0.5/src/redis-server /usr/local/soft/redis-5.0.5/redis.conf 啥都没有: redis> keys 3、通过备份文件恢复数据停服务器 redis> shutdown 重命名备份文件 mv dump.rdb.bak dump.rdb 启动服务器 /usr/local/soft/redis-5.0.5/src/redis-server /usr/local/soft/redis-5.0.5/redis.conf 查看数据 redis> keys 6.1.3 RDB 文件的优势和劣势 一、优势 1.RDB 是一个非常紧凑(compact)的文件,它保存了 redis 在某个时间点上的数据集。这种文件非常适合用于进行备份和灾难恢复。 2.生成 RDB 文件的时候,redis 主进程会 fork()一个子进程来处理所有保存工作,主进程不需要进行任何磁盘 IO 操作。 3.RDB 在恢复大数据集时的速度比 AOF 的恢复速度要快。 二、劣势 1、RDB 方式数据没办法做到实时持久化/秒级持久化。因为 bgsave 每次运行都要执行 fork 操作创建子进程,频繁执行成本过高。 2、在一定间隔时间做一次备份,所以如果 redis 意外 down 掉的话,就会丢失最后一次快照之后的所有修改(数据有丢失)。 如果数据相对来说比较重要,希望将损失降到最小,则可以使用 AOF 方式进行持久化。 6.2 AOF Append Only File AOF:Redis 默认不开启。AOF 采用日志的形式来记录每个写操作,并追加到文件中。开启后,执行更改 Redis 数据的命令时,就会把命令写入到 AOF 文件中。 Redis 重启时会根据日志文件的内容把写指令从前到后执行一次以完成数据的恢复工作。 6.2.1 AOF 配置 配置文件 redis.conf 开关appendonly no 文件名appendfilename "appendonly.aof" AOF 文件的内容(vim 查看): 问题:数据都是实时持久化到磁盘吗? 由于操作系统的缓存机制,AOF 数据并没有真正地写入硬盘,而是进入了系统的硬盘缓存。什么时候把缓冲区的内容写入到 AOF 文件? 问题:文件越来越大,怎么办? 由于 AOF 持久化是 Redis 不断将写命令记录到 AOF 文件中,随着 Redis 不断的进行,AOF 的文件会越来越大,文件越大,占用服务器内存越大以及 AOF 恢复要求时间越长。 例如 set xxx 666,执行 1000 次,结果都是 xxx=666。 为了解决这个问题,Redis 新增了重写机制,当 AOF 文件的大小超过所设定的阈值时,Redis 就会启动 AOF 文件的内容压缩,只保留可以恢复数据的最小指令集。 可以使用命令 bgrewriteaof 来重写。 AOF 文件重写并不是对原文件进行重新整理,而是直接读取服务器现有的键值对,然后用一条命令去代替之前记录这个键值对的多条命令,生成一个新的文件后去替换原来的 AOF 文件。 重写触发机制 auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb 问题:重写过程中,AOF 文件被更改了怎么办? 另外有两个与 AOF 相关的参数: 6.2.2 AOF 数据恢复 重启 Redis 之后就会进行 AOF 文件的恢复。 6.2.3 AOF 优势与劣势 优点: 1、AOF 持久化的方法提供了多种的同步频率,即使使用默认的同步频率每秒同步一次,Redis 最多也就丢失 1 秒的数据而已。 缺点: 1、对于具有相同数据的的 Redis,AOF 文件通常会比 RDB 文件体积更大(RDB 存的是数据快照)。 2、虽然 AOF 提供了多种同步的频率,默认情况下,每秒同步一次的频率也具有较高的性能。在高并发的情况下,RDB 比 AOF 具好更好的性能保证。 6.3 两种方案比较 那么对于 AOF 和 RDB 两种持久化方式,我们应该如何选择呢? 如果可以忍受一小段时间内数据的丢失,毫无疑问使用 RDB 是最好的,定时生成 RDB 快照(snapshot)非常便于进行数据库备份, 并且 RDB 恢复数据集的速度也要比 AOF 恢复的速度要快。 否则就使用 AOF 重写。但是一般情况下建议不要单独使用某一种持久化机制,而是应该两种一起用,在这种情况下,当 redis 重启的时候会优先载入 AOF 文件来恢复原始的数据,因为在通常情况下 AOF 文件保存的数据集要比 RDB 文件保存的数据集要完整。 本篇文章为转载内容。原文链接:https://blog.csdn.net/zhoutaochun/article/details/120075092。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2024-03-18 12:25:04
541
转载
ZooKeeper
...务等,通过一种类似于文件系统的数据模型实现数据的一致性和有序性,并支持高可用性和容错性。 事务日志 , 在ZooKeeper的上下文中,事务日志是记录所有对ZooKeeper服务器上数据变更操作的一种持久化存储机制。每当ZooKeeper接收到客户端的写请求并完成事务处理时,都会将该事务的相关信息按照严格的全局顺序写入事务日志,以确保即使在系统崩溃或重启后也能恢复到一致的状态。 快照文件(Snapshot) , 在ZooKeeper中,快照文件是对某一时刻ZooKeeper服务器内存数据库状态的全量备份。当ZooKeeper服务器运行一段时间后,为了减少恢复时扫描事务日志的时间开销,会定期将当前内存数据库状态生成一个快照文件保存到磁盘。在后续的恢复过程中,ZooKeeper首先加载最近的快照文件,然后重放从快照时间点之后的事务日志,以此快速重建出完整的数据视图。 SSD硬盘(Solid State Drive) , SSD是一种采用闪存作为永久性存储介质的硬盘驱动器,相比于传统的机械硬盘(HDD),具有更快的数据读写速度、更低的延迟以及更高的耐用性。在解决ZooKeeper磁盘I/O性能瓶颈问题时,更换为SSD硬盘可以显著提高数据的读写效率,进而提升整个系统的性能表现。 FPGA加速 , FPGA(Field-Programmable Gate Array)是一种可编程逻辑器件,可以通过编程来实现特定的硬件加速功能。在ZooKeeper优化场景下,基于FPGA的数据同步算法可以定制化地加速数据处理过程,尤其针对频繁的I/O操作进行优化,从而在保证数据一致性的同时降低对磁盘I/O资源的需求,有效改善集群整体性能。
2023-02-19 10:34:57
127
夜色朦胧
Cassandra
...LogTooManySnapshotsInProgressException”:深度剖析与解决策略 一、引言 问题的起源与重要性 在大规模数据处理和存储的场景中,Apache Cassandra无疑是一颗璀璨的明星。哎呀,这家伙在分布式系统这一块儿,那可是大名鼎鼎的,不仅可扩展性好到没话说,还特别可靠,就像是个超级能干的小伙伴,无论你系统有多大,它都能稳稳地撑住,从不掉链子。这玩意儿在业界的地位,那可是相当高的,可以说是分布式领域的扛把子了。嘿,兄弟!话说在这么牛的系统里头,咱们可得小心点,毕竟里面藏的坑也不少。其中,有一个老问题让好多编程大神头疼不已,那就是“CommitLogTooManySnapshotsInProgressException”。这事儿就像你在厨房里忙活,突然发现烤箱里的东西太多,一个接一个,你都不知道该先处理哪个了。这个错误信息就是告诉开发者,你的系统里同时进行的快照操作太多了,得赶紧优化一下,不然就炸锅啦!本文将深入探讨这一问题的根源,以及如何有效解决和预防。 二、问题详解 理解“CommitLogTooManySnapshotsInProgressException” 在Cassandra中,数据是通过多个副本在集群的不同节点上进行复制来保证数据的高可用性和容错能力。嘿,兄弟!你听说过数据的故事吗?每次我们打开或者修改文件,就像在日记本上写下了一句话。这些“一句话”就是我们所说的日志条目。而这个神奇的日记本,名字叫做commit log。每次有新故事(即数据操作)发生,我们就会把新写下的那一页(日志条目)放进去,好让所有人都能知道发生了什么变化。这样,每当有人想了解过去发生了什么,只要翻翻这个日记本就行啦!为了提供一种高效的恢复机制,Cassandra支持通过快照(snapshots)从commit log中恢复数据。然而,在某些情况下,系统可能会尝试创建过多的快照,导致“CommitLogTooManySnapshotsInProgressException”异常发生。 三、问题原因分析 此异常通常由以下几种情况触发: 1. 频繁的快照操作 在短时间内连续执行大量的快照操作,超过了系统能够处理的并发快照数量限制。 2. 配置不当 默认的快照并发创建数可能不适合特定的部署环境,导致在实际运行时出现问题。 3. 资源限制 系统资源(如CPU、内存)不足,无法支持更多的并发快照创建操作。 四、解决策略与实践 1. 优化快照策略 - 减少快照频率:根据业务需求合理调整快照的触发条件和频率,避免不必要的快照操作。 - 使用增量快照:在一些不需要完整数据集的情况下,考虑使用增量快照来节省资源和时间。 2. 调整Cassandra配置 - 增加快照并发创建数:在Cassandra配置文件cassandra.yaml中增加snapshots.concurrent_compactions的值,但需注意不要超过系统资源的承受范围。 - 优化磁盘I/O性能:确保磁盘I/O性能满足需求,使用SSD或者优化磁盘阵列配置,可以显著提高快照操作的效率。 3. 监控与警报 - 实时监控:使用监控工具(如Prometheus + Grafana)对Cassandra的关键指标进行实时监控,如commit log大小、快照操作状态等。 - 设置警报:当检测到异常操作或资源使用达到阈值时,及时发送警报通知,以便快速响应和调整。 五、案例研究与代码示例 假设我们正在管理一个Cassandra集群,并遇到了“CommitLogTooManySnapshotsInProgressException”。 步骤1:配置调整 yaml 在cassandra.yaml中增加快照并发创建数 snapshots.concurrent_compactions: 10 步骤2:监控配置 yaml 配置Prometheus监控,用于实时监控集群状态 prometheus: enabled: true bind_address: '0.0.0.0' port: 9100 步骤3:实施监控与警报 在Prometheus中添加Cassandra监控指标,设置警报规则,当快照操作异常或磁盘使用率过高时触发警报。 yaml Prometheus监控规则 rules: - alert: HighSnapshotConcurrency expr: cassandra_snapshot_concurrency > 5 for: 1m labels: severity: critical annotations: description: "The snapshot concurrency is high, which might lead to the CommitLogTooManySnapshotsInProgressException." runbook_url: "https://your-runbook-url.com" - alert: DiskUsageHigh expr: cassandra_disk_usage_percentage > 80 for: 1m labels: severity: warning annotations: description: "Disk usage is high, potentially causing performance degradation and failure of snapshot operations." runbook_url: "https://your-runbook-url.com" 六、总结与反思 面对“CommitLogTooManySnapshotsInProgressException”,关键在于综合考虑业务需求、系统资源和配置策略。通过合理的配置调整、有效的监控与警报机制,可以有效地预防和解决此类问题,确保Cassandra集群稳定高效地运行。哎呀,每次碰到这些难题然后搞定它们,就像是在给咱们的系统管理与优化上加了个经验值似的,每次都能让我们在分布式数据库这块领域里走得更远,不断尝试新的东西,不断创新!就像打游戏升级一样,每一次挑战都让咱们变得更强大!
2024-09-27 16:14:44
124
蝶舞花间
Etcd
...的配置和服务信息。 Snapshot(快照) , 在Etcd的上下文中,Snapshot是指对Etcd数据库某一时间点状态的完整备份。当Etcd集群的数据量达到一定阈值或者经过一定时间周期后,会自动触发创建Snapshot以节省存储空间和提高性能。Snapshot文件可用于恢复Etcd集群的状态,以防数据丢失或故障时进行快速恢复。 Raft一致性算法 , Raft是一种为分布式系统设计的共识算法,其目标是确保在一个由多个服务器组成的集群中,即使面临网络延迟、消息丢失等问题,也能保证所有服务器上的数据状态始终保持一致。在Etcd中,Raft算法被用来管理集群中的日志复制和领导者选举,确保在任何时候都有一个明确的领导者负责处理客户端请求和维护集群状态,从而实现数据的一致性和持久性。
2023-01-07 12:31:32
511
岁月静好-t
Etcd
...eus.yml 配置文件示例 global: scrape_interval: 15s scrape_configs: - job_name: 'etcd' static_configs: - targets: ['localhost:9101'] etcd-exporter监听端口 metrics_path: '/metrics' 同时,编写针对Etcd的Prometheus查询语句,可以让我们洞察集群性能: promql 查询过去5分钟内所有Etcd节点的平均写操作延迟 avg(etcd_request_duration_seconds_bucket{operation="set", le="+Inf"})[5m] 2. 内建诊断工具 etcdctl etcdctl 是官方提供的命令行工具,不仅可以用来与Etcd进行交互(如读写键值对),还内置了一系列诊断命令来排查问题。例如,查看成员列表、检查leader选举状态或执行一致性检查: bash 查看集群当前成员信息 etcdctl member list 检查Etcd的领导者状态 etcdctl endpoint status --write-out=table 执行一次快照以诊断数据完整性 etcdctl snapshot save /path/to/snapshot.db 此外,etcdctl debug 子命令提供了一组调试工具,比如dump.consistent-snap.db可以导出一致性的快照数据,便于进一步分析潜在问题。 3. 日志和跟踪 对于更深层次的问题定位,Etcd的日志输出是必不可少的资源。通过调整日志级别(如设置为debug模式),可以获得详细的内部处理流程。同时,结合分布式追踪系统如Jaeger,可以收集和可视化Etcd调用链路,理解跨节点间的通信延迟和错误来源。 bash 设置etcd日志级别为debug ETCD_DEBUG=true etcd --config-file=/etc/etcd/etcd.conf.yaml 4. 性能调优与压力测试 在了解了基本的监控和诊断手段后,我们还可以利用像etcd-bench这样的工具来进行压力测试,模拟大规模并发读写请求,评估Etcd在极限条件下的性能表现,并据此优化配置参数。 bash 使用etcd-bench进行基准测试 ./etcd-bench -endpoints=localhost:2379 -total=10000 -conns=100 -keys=100 在面对复杂的生产环境时,人类工程师的理解、思考和决策至关重要。用上这些监视和诊断神器,咱们就能化身大侦探,像剥洋葱那样层层深入,把躲藏在集群最旮旯的性能瓶颈和一致性问题给揪出来。这样一来,Etcd就能始终保持稳如磐石、靠谱无比的运行状态啦!记住了啊,老话说得好,“实践出真知”,想要彻底驯服Etcd这匹“分布式系统的千里马”,就得不断地去摸索、试验和改进。只有这样,才能让它在你的系统里跑得飞快,发挥出最大的效能,成为你最得力的助手。
2023-11-29 10:56:26
385
清风徐来
Gradle
...on = '1.0-SNAPSHOT' sourceCompatibility = 1.8 repositories { mavenCentral() } dependencies { implementation 'org.springframework.boot:spring-boot-starter-web' } 2. 定义构建任务 在构建脚本中,我们可以通过apply方法来添加Gradle插件,然后通过tasks方法来定义构建任务。例如,我们可以通过下面的代码来定义一个名为"clean"的任务,用于清理构建目录: groovy task clean(type: Delete) { delete buildDir } 3. 使用Gradle进行版本控制 Gradle可以与Git等版本控制系统集成,这样就可以方便地跟踪项目的更改历史。以下是如何使用Gradle将本地仓库与远程仓库关联起来的例子: groovy allprojects { repositories { maven { url "https://repo.spring.io/libs-milestone" } mavenLocal() jcenter() google() mavenCentral() if (project.hasProperty('sonatypeSnapshots')) { maven { url "https://oss.sonatype.org/content/repositories/snapshots/" } } maven { url "file://${projectDir}/../libs" } } } 四、结论 总的来说,Gradle作为一个强大的构建工具,已经成为了大型项目不可或缺的一部分。用Gradle,咱们就能像变魔术一样,让项目的构建流程管理变得更溜、更稳当。这样一来,开发速度嗖嗖提升,产品质量也是妥妥的往上蹭,可带劲儿了!此外,随着Gradle社区的日益壮大和活跃,它的功能会越来越强大,实用性也会越来越高,这无疑让咱们在未来做项目时有了更多可以挖掘和利用的价值,绝对值得咱们进一步去探索和尝试。
2024-01-13 12:54:38
481
梦幻星空_t
Maven
...创建一个独立的POM文件作为BOM(Bill Of Materials),这个文件的主要作用就是声明我们想要使用的springboot相关组件的版本,并将其打包成一个可下载的jar包。 xml xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> 4.0.0 com.example bom 1.0-SNAPSHOT pom BOM - Spring Boot Dependencies This is a Bill of Materials (BOM) for managing Spring Boot dependencies. 2.3.3.RELEASE 1.0.0 org.springframework.boot spring-boot-dependencies ${spring-boot.version} pom import com.example example-library ${other-dependency-version} 注意:在这个例子中,我们只是列出了两个依赖项,但实际上你可以列出所有的依赖项。 2. 在项目的顶级POM文件中引入这个BOM文件,这样其他的module就可以依赖这个BOM文件了。 xml xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> 4.0.0 com.example my-project 1.0-SNAPSHOT pom
2023-11-20 15:46:13
180
幽谷听泉_t
Maven
...项目的pom.xml文件中添加对新插件的依赖。 下面,我们将通过一个具体的例子来演示如何创建一个简单的Maven插件并将其添加到我们的Maven项目中。 四、实例 首先,我们需要创建一个新的Maven插件。以下是一个简单的插件的例子: java package com.example.myplugin; import org.apache.maven.plugin.AbstractMojo; import org.apache.maven.plugin.MojoExecutionException; import org.apache.maven.plugins.annotations.LifecyclePhase; import org.apache.maven.plugins.annotations.Mojo; import org.apache.maven.plugins.annotations.Parameter; @Mojo(name = "sayHello", defaultPhase = LifecyclePhase.INITIALIZE) public class HelloWorldMojo extends AbstractMojo { @Parameter(property = "name", defaultValue = "World") private String name; public void execute() throws MojoExecutionException { getLog().info("Hello, " + name); } } 在这个例子中,我们创建了一个名为“sayHello”的Maven插件,它会在Maven构建的初始化阶段打印出一条信息。 接下来,我们需要在我们的Maven项目中添加对这个新插件的依赖。在项目的pom.xml文件中,添加以下代码: xml com.example myplugin 1.0-SNAPSHOT 这将会把我们的新插件添加到我们的项目中。 最后,我们可以通过在命令行中运行mvn sayHello -Dname=YourName来调用我们的新插件。这将会打印出"Hello, YourName"的信息。 五、总结 通过上面的示例,你应该已经了解了如何在Maven项目中添加自定义的任务或目标。自己动手创建个Maven插件,就能让你的工作活脱脱地实现自动化,这样一来,手动操作的时间嗖嗖地就省下来啦!另外,Maven真正牛的地方就是它的超强可扩展性,这意味着你完全可以按照自己的需求,随心所欲地打造出五花八门的Maven插件,就像DIY一样自由灵活。
2023-04-26 12:59:41
159
柳暗花明又一村-t
SpringBoot
...执行的jar或war文件,我们就需要用到Maven进行打包。这一步真的超级关键,它可是直接关系到咱们的应用程序能否在目标环境里头既准确又溜溜地跑起来! 2. 准备工作 配置SpringBoot Maven插件 首先,让我们打开你的pom.xml文件,确保已包含SpringBoot Maven插件的配置。如下所示: xml org.springframework.boot spring-boot-maven-plugin 这个插件是SpringBoot项目的标配,它能帮我们构建可执行的jar(或war)文件,并包含了内嵌的Tomcat服务器等运行环境信息。 3. 打包实战 生成可执行的Jar (1)在IDEA中右键点击项目 -> Maven -> Packages -> Package,或者直接在命令行中执行mvn package命令,Maven将会自动为我们构建项目并生成打包文件。 (2)查看target目录,你应该能看到一个名为your-project-0.0.1-SNAPSHOT.jar的文件,这就是Maven为你生成的可执行jar包。你可以通过java -jar your-project-0.0.1-SNAPSHOT.jar命令启动你的SpringBoot应用。 小贴士: 如果你想定制打包后的jar名字,可以在标签内添加finalName属性: xml customized-name 4. 深入理解 SpringBoot的Fat Jar SpringBoot的打包方式独特之处在于其支持Fat Jar(胖 jar)。这就意味着所有的相关小帮手(依赖库)都会被塞进同一个“大包裹”(jar文件)里,这样一来,应用程序就能自个儿独立跑起来,完全不需要你再额外费心去设置什么类路径了。这是通过SpringBoot Maven插件实现的。 xml ZIP 5. 遇到的问题与解决方案 5.1 Main-Class找不到? 有时候,即使你按照上述步骤打包了,但在运行jar时可能会遇到"Could not find or load main class"的问题。这是因为Maven没有正确识别到主类。 解决办法是在pom.xml中显式指定主类: xml org.springframework.boot spring-boot-maven-plugin com.yourcompany.yourproject.YourMainApplicationClass 5.2 运行时依赖缺失? 如果你发现有些依赖在运行时无法加载,检查一下是否将它们声明为了provided或test范围。这两种类型的依赖在打包时不会被包含进来。你需要根据实际情况调整依赖范围。 好了,以上就是在IDEA中使用Maven对SpringBoot项目进行打包的一些基本操作和常见问题处理。希望这篇文章能帮你解决实际开发中的疑惑,也欢迎你在打包过程中产生更多的思考和探索。毕竟,编程的魅力就在于不断尝试、不断解决问题的过程,不是吗?让我们一起在Java世界里愉快地“打包旅行”吧!
2023-02-09 19:33:58
67
飞鸟与鱼_
Maven
...程中动态替换项目资源文件中的占位符,如${property}。不过,在实际操作的时候,我们免不了会碰到一些“资源过滤错误”,今天咱就来好好唠唠这类问题究竟是怎么冒出来的,又该如何把它给摆平。 1. Resource Filtering基础概念与应用场景 首先,让我们回顾一下Maven的Resource Filtering机制。通过在pom.xml中配置build > resources > resource标签,并设置filtering属性为true,Maven会在构建时扫描并替换资源文件中的变量。例如: xml src/main/resources true 这样一来,当资源文件如config.properties中有${version}这样的变量时,Maven会从项目或系统的属性中查找对应的值进行替换。 2. 遇到的Resource Filtering错误实例 然而,在实际应用中,我们可能会遇到如下几种典型的"Resourcefilteringerrors": 2.1 变量未定义错误 假设我们的config.properties文件中有这样一行: properties app.version=${project.version} 但如果我们没有在POM文件或其他地方定义project.version这个属性,Maven在构建时就会抛出类似“找不到对应属性值”的错误。 2.2 过滤规则冲突错误 另外一种常见问题是,由于过滤规则设置不当导致的冲突。比如,某个应该被过滤的文件意外地被设置为不进行过滤,或者反之,导致预期的内容替换未能发生。 2.3 特殊字符处理错误 在某些场景下,资源文件中可能包含特殊字符,如${}, 如果这些字符不是用来表示Maven属性占位符,但在过滤过程中却被误解析,也会引发错误。 3. 解决Resource Filtering错误的方法 对于上述提到的问题,我们可以采取以下措施来应对: 3.1 定义缺失的属性 对于变量未定义的情况,我们需要确保所有使用的属性都有相应的定义。可以在pom.xml中增加版本信息等属性,如下所示: xml 1.0.0-SNAPSHOT 3.2 正确配置过滤规则 针对过滤规则冲突,应精确指定哪些资源需要过滤,哪些不需要。例如,如果只希望对特定的资源配置过滤,可以细化资源配置: xml src/main/resources /config.properties true 3.3 特殊字符转义 对于含有非属性占位符${}的特殊字符问题,可以在资源文件中使用\进行转义,例如${literal}应写为\\${literal},以防止被Maven误解析。 4. 总结与思考 在Maven的世界里,Resource Filtering无疑是一项强大且实用的功能,它能够帮助我们实现资源文件的动态化配置,大大增强了项目的灵活性。但同时,我们也需要正确理解和合理使用这一特性,避免陷入Resource Filtering错误的困境。只有当我们把这些玩意儿的工作原理摸得门儿清,把那些可能潜伏的坑都给填平了,才能让它们真正火力全开,帮我们把开发效率往上猛提,保证每一个构建环节都顺滑无比,一点儿磕绊都没有。当你遇到问题时,就得化身成福尔摩斯那样,瞪大眼睛、开动脑筋,仔仔细细地观察、抽丝剥茧地分析。然后,再通过实实在在的代码实例去摸透、动手尝试,一步步解决这个难题。这,就是编程那让人着迷的地方,也是每一位开发者在成长道路上必定会经历的一段精彩旅程。
2023-03-30 22:47:35
107
草原牧歌_
Maven
...项目的目录结构和基本文件配置。当我们要捣鼓新项目的时候,完全可以省去从零开始的繁琐步骤,直接拿这些现成的模板来用就OK啦!这样一来,不仅能够告别枯燥无味的手动创建过程,还能让咱们的项目启动变得超级轻松快捷,效率嗖嗖地往上涨! 2. 安装与配置Maven环境 在开始使用archetype插件前,请确保你的系统已安装并配置好Maven环境。这里假设你已经完成了这一基础工作,接下来就可以直接进入实战环节了。 3. 使用archetype:generate命令创建项目模板 3.1 初始化一个新的Maven项目模板 打开命令行界面,输入以下命令: shell mvn archetype:generate \ -DarchetypeGroupId=org.apache.maven.archetypes \ -DarchetypeArtifactId=maven-archetype-quickstart \ -DarchetypeVersion=1.4 \ -DgroupId=com.example \ -DartifactId=my-new-project \ -Dversion=1.0-SNAPSHOT 上述命令的作用是使用Maven内置的maven-archetype-quickstart模板创建一个新项目。其中: - -DarchetypeGroupId,-DarchetypeArtifactId和-DarchetypeVersion分别指定了要使用的模板的Group ID,Artifact ID和版本。 - -DgroupId,-DartifactId和-Dversion则是用于定义新项目的基本信息。 执行完该命令后,Maven会提示你确认一些参数,并在指定目录下生成新的项目结构。 3.2 创建自定义的archetype项目模板 当然,你也可以创建自己的项目模板,供后续多次复用。首先,咱先来新建一个普普通通的Maven项目,接着就可以按照你的小心思,尽情地设计和调整目录结构,别忘了把初始文件内容也填充得妥妥当当的哈。接着,在pom.xml中添加archetype相关的配置: xml 4.0.0 com.example my-custom-archetype 1.0-SNAPSHOT maven-archetype org.apache.maven.archetype archetype-packaging 3.2.0 org.apache.maven.plugins maven-archetype-plugin 3.2.0 generate-resources generate-resources 最后,通过mvn clean install命令打包并发布到本地仓库,这样就创建了一个自定义的archetype模板。 3.3 使用自定义的archetype创建新项目 有了自定义的archetype模板后,创建新项目的方式同上,只需替换相关参数即可: shell mvn archetype:generate \ -DarchetypeGroupId=com.example \ -DarchetypeArtifactId=my-custom-archetype \ -DarchetypeVersion=1.0-SNAPSHOT \ -DgroupId=com.new.example \ -DartifactId=my-new-project-from-custom-template \ -Dversion=1.0-SNAPSHOT 在这个过程中,我深感Maven archetype的强大之处,它就像一位贴心助手,帮我们在繁杂的项目初始化工作中解脱出来,专注于更重要的业务逻辑开发。而且,我们能够通过定制自己的archetype,把团队里那些最牛掰的工作模式给固定下来,这样一来,不仅能让整个团队的开发速度嗖嗖提升,还能让大伙儿干活儿时更有默契,一致性蹭蹭上涨,就像乐队排练久了,配合起来那叫一个天衣无缝! 总结一下,Maven archetype插件为我们提供了一种快速创建项目模板的机制,无论是内置的模板还是自定义模板,都能极大地简化项目创建流程。只要我们把这个工具玩得溜溜的,再灵活巧妙地运用起来,就能在Java开发这条路上走得更顺溜,轻松应对各种挑战,简直如有神助。所以,不妨现在就动手试试吧,感受一下Maven archetype带来的便利与高效!
2024-03-20 10:55:20
109
断桥残雪
Maven
...所有被依赖和编译过的文件。 - initialize:初始化项目信息。 - compile:编译源代码。 - test:运行测试。 - package:创建可分发的软件包。 - install:将项目安装到本地仓库。 - deploy:将项目部署到远程仓库。 序号三:Invalidlifecyclephase 的原因 那么,为什么会出现 Invalidlifecyclephase 这个错误呢? 主要原因可能有以下几点: 1. 执行了不存在的生命周期阶段 如果我们在命令行中尝试执行一个并不存在的生命周期阶段,如 mvn invalidphase:do-something,就会抛出 Invalidlifecyclephase 错误。 2. 拼写错误或者大小写错误 如果我们在配置文件中指定了生命周期阶段的名称,并且拼写错误或大小写错误,也会导致 Invalidlifecyclephase 错误。 3. 不正确的生命周期顺序 如果你在生命周期配置中指定了不正确的顺序,也可能会导致这个问题。 4. Maven插件的问题 某些Maven插件可能会引发此问题,特别是那些不符合Maven规范的插件。 序号四:解决 Invalidlifecyclephase 的方法 知道了问题的原因之后,我们就可以采取相应的措施来解决问题了。 1. 确认生命周期阶段是否正确 首先,你需要确认你正在尝试执行的是一个有效的生命周期阶段。你可以在Maven的官方文档中查找所有的生命周期阶段及其对应的步骤。 2. 检查生命周期阶段的拼写和大小写 如果你在配置文件中指定了生命周期阶段的名称,并且拼写错误或大小写错误,你需要修正这些问题。 3. 确保生命周期顺序正确 在Maven的生命周期配置中,有一些阶段是必须按照特定的顺序执行的。你需要确保你的配置符合这些规则。 4. 检查Maven插件 如果你使用了某些Maven插件,并且发现它们引发了 Invalidlifecyclephase 错误,你可以尝试更新或禁用这些插件。 序号五:代码示例 下面是一个简单的Maven项目配置文件(pom.xml),其中包含了一些常见的生命周期阶段。 xml 4.0.0 com.example maven-lifecycle-example 1.0-SNAPSHOT org.apache.maven.plugins maven-clean-plugin 3.1.0 default-clean clean org.apache.maven.plugins maven-compiler-plugin 3.8.1 default-compile compile org.apache.maven.plugins maven-resources-plugin 3.1.0 default-resources resources org.apache.maven.plugins maven-test-plugin 3.1.0 default-test test org.apache.maven.plugins maven-package-plugin 3.1.0 default-package package org.apache.maven.plugins maven-install-plugin 3.0.0-M1 default-install install org.apache.maven.plugins maven-deploy-plugin 3.0.0-M1 default-deploy deploy 在这个例子中,我们定义了一系列的生命周期阶段,并为每一个阶段指定了具体的插件和目标。 序号六:总结 通过本文的学习,你应该对 Invalidlifecyclephase 有了更深入的理解。记住了啊,只要你严格按照Maven的那些最佳操作步骤来,并且仔仔细细地审查了你的配置设定,这个错误就能被你轻松躲过去。希望你在未来的开发工作中能够顺利地使用Maven!
2023-05-18 13:56:53
155
凌波微步_t
Maven
...名为pom.xml的文件来管理项目的配置和依赖关系。这个文件就像是Java项目的“大脑”,控制着整个构建过程。让我们先来看看一个简单的pom.xml示例: xml xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> 4.0.0 com.example my-app 1.0-SNAPSHOT junit junit 4.12 test org.apache.maven.plugins maven-compiler-plugin 3.8.1 1.8 1.8 在这个例子中,我们定义了一个简单的Java项目,它依赖于JUnit,并且指定了编译器版本为Java 8。这样一来,不管是你在自己的电脑上搞开发,还是把东西搬到服务器上去跑,我们都能确保整个项目稳稳当当,每次都能得到一样的结果。 3. npm之旅 Node.js的魔法盒 与Maven类似,npm(Node Package Manager)是Node.js生态系统中的一个核心组件,它负责管理JavaScript库和模块。npm通过package.json文件来记录项目的依赖和配置信息。下面是一个基本的package.json示例: json { "name": "my-app", "version": "1.0.0", "description": "A simple Node.js application", "main": "index.js", "scripts": { "start": "node index.js" }, "author": "Your Name", "license": "ISC", "dependencies": { "express": "^4.17.1" } } 在这个例子中,我们创建了一个使用Express框架的简单Node.js应用。用npm,我们就能超级方便地装和管这些依赖,让项目的维护变得简单多了。 4. 跨平台部署的挑战与解决方案 尽管Maven和npm各自在其领域内表现出色,但在跨平台部署时,我们仍然会遇到一些挑战。例如,不同操作系统之间的差异可能会导致构建失败。为了应对这些问题,我们可以采取以下几种策略: - 标准化构建环境:确保所有开发和生产环境都使用相同的工具版本和配置。 - 容器化技术:利用Docker等容器技术来封装整个应用及其依赖,从而实现真正的跨平台一致性。 - 持续集成/持续部署(CI/CD):通过Jenkins、GitLab CI等工具实现自动化的构建和部署流程,减少人为错误。 5. 结语 拥抱变化,享受技术带来的乐趣 在这次旅程中,我们不仅了解了Maven和npm的基本概念和使用方法,还探讨了如何利用它们进行跨平台部署。技术这东西啊,变化莫测,但只要你保持好奇心,愿意不断学习,就能一步步往前走,还能从中找到不少乐子呢!不管是搞Java的小伙伴还是喜欢Node.js的朋友,都能用上这些给力的工具,让你的项目管理技能更上一层楼!希望这篇分享能够激发你对技术的好奇心,让我们一起在编程的海洋中畅游吧! --- 通过这样的结构和内容安排,我们不仅介绍了Maven和npm的基本知识,还穿插了个人思考和实际操作的例子,力求让文章更加生动有趣。希望这样的方式能让你感受到技术背后的温度和乐趣!
2024-12-07 16:20:37
30
青春印记
Apache Solr
...据恢复与重建 1. 快照与恢复 在Solr中,定期创建快照是防止数据丢失的有效手段。一旦发生故障,可以从最近的快照中恢复数据。哎呀,你知道的,这个方法可是大大提高了数据恢复的速度!而且呢,它还能帮咱们守住数据,防止那些无法挽回的损失。简直就像是给咱的数据上了双保险,既快又稳,用起来超安心的! 代码示例: bash curl -X PUT 'http://localhost:8983/solr/core1/_admin/persistent?action=CREATE&name=snapshot&value=20230701' 这里通过CURL命令创建了一个快照。 2. 数据重建 在故障节点恢复后,需要重建其索引数据。Solr提供了/admin/cores?action=REBUILD接口来帮助完成这一任务。 第四部分:性能优化与容错策略 1. 负载均衡 通过合理分配索引和查询负载,可以提高系统的整体性能。使用Solr的路由策略,如query.routing,可以动态地将请求分发到不同的节点。 代码示例: xml : AND json round-robin 2. 失败重试与超时设置 在处理分布式事务时,合理的失败重试策略和超时设置至关重要。这有助于系统在面对网络延迟或短暂的节点故障时保持稳定。 结语 处理Apache Solr的分布式故障需要综合考虑监控、警报、故障检测与隔离、数据恢复与重建、性能优化以及容错策略等多个方面。哎呀,小伙伴们!要是我们按照这些招数来操作,就能让Solr集群变得超级棒,既稳定又高效,保证咱们的搜索服务能一直在线,质量杠杠的,让你用起来爽歪歪!这招真的挺实用的,值得试试看!嘿,兄弟!听好了,预防胜于治疗这句老话,在分布式系统的管理上同样适用。咱们得时刻睁大眼睛,盯着系统的一举一动,就像看护自家宝贝一样。定期给它做做小保养,检查检查,确保一切正常运转。这样,咱们就能避免大问题找上门来,让系统稳定运行,不给任何故障有机可乘的机会。
2024-08-08 16:20:18
137
风中飘零
转载文章
...片按照标签分类到具体文件夹 2.3 数据存在的缺陷 2.4 优化建议(核心) 二、模型训练 三、项目实现 1. 代码实现 2. 采用器件 2. 注意事项 总结 前言 第一次接触OpenMV也是第一次将理论用于实践,是老师让我实现的一个小测验,这几天完成后决定写下完整的过程。本文主要是当缝合怪,借鉴和参考了其他人的代码再根据我个人设备进行了一定的调整,此外还包括了我自身实践过程中的一些小意外。 !!!一定要根据个人器件型号和个人设备来参考 一、数字识别的模型训练 1.下载训练集 研究期间,我发现大部分人以及官网教程采用的都是自己拍摄照片再进行网络训练,存在的缺陷就是数据集较小不全面、操作繁琐。个人认为如果是对标准的数字进行识别,自己手动拍取照片进行识别足够了。但想要应用于更广泛的情况,应该寻找更大的数据集,所以我找到了国外手写数字的数据集MNIST。建议四个文件都下载 数据链接:MINIST数据集 2.对数据进行调整 2.1 将ubyte格式转为jpg格式 代码参考链接:python将ubyte格式的MNIST数据集转成jpg图片格式并保存 import numpy as npimport cv2import osimport structdef trans(image, label, save):image位置,label位置和转换后的数据保存位置if 'train' in os.path.basename(image):prefix = 'train'else:prefix = 'test'labelIndex = 0imageIndex = 0i = 0lbdata = open(label, 'rb').read()magic, nums = struct.unpack_from(">II", lbdata, labelIndex)labelIndex += struct.calcsize('>II')imgdata = open(image, "rb").read()magic, nums, numRows, numColumns = struct.unpack_from('>IIII', imgdata, imageIndex)imageIndex += struct.calcsize('>IIII')for i in range(nums):label = struct.unpack_from('>B', lbdata, labelIndex)[0]labelIndex += struct.calcsize('>B')im = struct.unpack_from('>784B', imgdata, imageIndex)imageIndex += struct.calcsize('>784B')im = np.array(im, dtype='uint8')img = im.reshape(28, 28)save_name = os.path.join(save, '{}_{}_{}.jpg'.format(prefix, i, label))cv2.imwrite(save_name, img)if __name__ == '__main__':需要更改的文件路径!!!!!!此处是原始数据集位置train_images = 'C:/Users/ASUS/Desktop/train-images.idx3.ubyte'train_labels = 'C:/Users/ASUS/Desktop/train-labels.idx1.ubyte'test_images ='C:/Users/ASUS/Desktop/t10k-images.idx3.ubyte'test_labels = 'C:/Users/ASUS/Desktop/t10k-labels.idx1.ubyte'此处是我们将转化后的数据集保存的位置save_train ='C:/Users/ASUS/Desktop/MNIST/train_images/'save_test ='C:/Users/ASUS/Desktop/MNIST/test_images/'if not os.path.exists(save_train):os.makedirs(save_train)if not os.path.exists(save_test):os.makedirs(save_test)trans(test_images, test_labels, save_test)trans(train_images, train_labels, save_train) 2.2 将图片按照标签分类到具体文件夹 文章参考链接:python实现根据文件名自动分类转移至不同的文件夹 注意:为了适合这个数据集和我的win11系统对代码进行了一点调整,由于数据很多如果只需要部分数据一定要将那些数据单独放在一个文件夹。 导入库import osimport shutil 当前文件夹所在的路径,使用时需要进行修改current_path = 'C:/Users/ASUS/Desktop/MNIST/test'print('当前文件夹为:' + current_path) 读取该路径下的文件filename_list = os.listdir(current_path) 建立文件夹并且进行转移 假设原图片名称 test_001_2.jpgfor filename in filename_list:name1, name2, name3 = filename.split('_') name1 = test name2 = 001 name3 = 2.jpgname4, name5 = name3.split('.') name4 = 2 name5 = jpgif name5 == 'jpg' or name5 == 'png':try:os.mkdir(current_path+'/'+name4)print('成功建立文件夹:'+name4)except:passtry:shutil.move(current_path+'/'+filename, current_path+'/'+name4[:])print(filename+'转移成功!')except Exception as e:print('文件 %s 转移失败' % filename)print('转移错误原因:' + e)print('整理完毕!') 2.3 数据存在的缺陷 数据集内的图片数量很多,由于后面介绍的云端训练的限制,只能采用部分数据(本人采用的是1000张,大家可以自行增减数目)。 数据集为国外的数据集,很多数字写的跟我们不一样。如果想要更好的适用于我们国内的场景,可以对数据集进行手动的筛选。下面是他们写的数字2: 可以看出跟我们的不一样,不过数据集中仍然存在跟常规书写的一样的,我们需要进行人为的筛选。 2.4 优化建议(核心) 分析发现,部分数字精度不高的原因主要是国外手写很随意,我们可以通过调整网络参数(如下)、人为筛选数据(如上)、增大数据集等方式进行优化。 二、模型训练 主要参考文章:通过云端自动生成openmv的神经网络模型,进行目标检测 !!!唯一不同的点是我图像参数设置的是灰度而不是上述文章的RGB。 下面是我模型训练时的参数设置(仅供参考): 通过混淆矩阵可以看出,主要的错误在于数字2、6、8。我们可以通过查看识别错误的数字来分析可能的原因。 三、项目实现 !!!我们需要先将上述步骤中导出文件中的所有内容复制粘贴带OpenMV中自带的U盘中。然后将其中的.py文件名称改为main 1. 代码实现 本人修改后的完整代码展示如下,使用的是OpenMV IDE(官网下载): 数字识别后控制直流电机转速from pyb import Pin, Timerimport sensor, image, time, os, tf, math, random, lcd, uos, gc 根据识别的数字输出不同占比的PWM波def run(number):if inverse == True:ain1.low()ain2.high()else:ain1.high()ain2.low()ch1.pulse_width_percent(abs(number10)) 具体参数调整自行搜索sensor.reset() 初始化感光元件sensor.set_pixformat(sensor.GRAYSCALE) set_pixformat : 设置像素模式(GRAYSCALSE : 灰色; RGB565 : 彩色)sensor.set_framesize(sensor.QQVGA2) set_framesize : 设置处理图像的大小sensor.set_windowing((128, 160)) set_windowing : 设置提取区域大小sensor.skip_frames(time = 2000) skip_frames :跳过2000ms再读取图像lcd.init() 初始化lcd屏幕。inverse = False True : 电机反转 False : 电机正转ain1 = Pin('P1', Pin.OUT_PP) 引脚P1作为输出ain2 = Pin('P4', Pin.OUT_PP) 引脚P4作为输出ain1.low() P1初始化低电平ain2.low() P4初始化低电平tim = Timer(2, freq = 1000) 采用定时器2,频率为1000Hzch1 = tim.channel(4, Timer.PWM, pin = Pin('P5'), pulse_width_percent = 100) 输出通道1 配置PWM模式下的定时器(高电平有效) 端口为P5 初始占空比为100%clock = time.clock() 设置一个时钟用于追踪FPS 加载模型try:net = tf.load("trained.tflite", load_to_fb=uos.stat('trained.tflite')[6] > (gc.mem_free() - (641024)))except Exception as e:print(e)raise Exception('Failed to load "trained.tflite", did you copy the .tflite and labels.txt file onto the mass-storage device? (' + str(e) + ')') 加载标签try:labels = [line.rstrip('\n') for line in open("labels.txt")]except Exception as e:raise Exception('Failed to load "labels.txt", did you copy the .tflite and labels.txt file onto the mass-storage device? (' + str(e) + ')') 不断的进行运行while(True):clock.tick() 更新时钟img = sensor.snapshot().binary([(0,64)]) 抓取一张图像以灰度图显示lcd.display(img) 拍照并显示图像for obj in net.classify(img, min_scale=1.0, scale_mul=0.8, x_overlap=0.5, y_overlap=0.5): 初始化最大值和标签max_num = -1max_index = -1print("\nPredictions at [x=%d,y=%d,w=%d,h=%d]" % obj.rect())img.draw_rectangle(obj.rect()) 预测值和标签写成一个列表predictions_list = list(zip(labels, obj.output())) 输出各个标签的预测值,找到最大值进行输出for i in range(len(predictions_list)):print('%s 的概率为: %f' % (predictions_list[i][0], predictions_list[i][1]))if predictions_list[i][1] > max_num:max_num = predictions_list[i][1]max_index = int(predictions_list[i][0])run(max_index)print('该数字预测为:%d' % max_index)print('FPS为:', clock.fps())print('PWM波占空比为: %d%%' % (max_index10)) 2. 采用器件 使用的器件为OpenMV4 H7 Plus和L298N以及常用的直流电机。关键是找到器件的引脚图,再进行简单的连线即可。 参考文章:【L298N驱动模块学习笔记】–openmv驱动 参考文章:【openmv】原理图 引脚图 2. 注意事项 上述代码中我用到了lcd屏幕,主要是为了方便离机操作。使用过程中,OpenMV的lcd初始化时会重置端口,所有我们在输出PWM波的时候一定不要发生引脚冲突。我们可以在OpenMV官网查看lcd用到的端口: 可以看到上述用到的是P0、P2、P3、P6、P7和P8。所有我们输出PWM波时要避开这些端口。下面是OpenMV的PWM资源: 总结 本人第一次自己做东西也是第一次使用python,所以代码和项目写的都很粗糙,只是简单的识别数字控制直流电机。我也是四处借鉴修改后写下的大小,这篇文章主要是为了给那些像我一样的小白们提供一点帮助,减少大家查找资料的时间。模型的缺陷以及改进方法上述中已经说明,如果我有写错或者大家有更好的方法欢迎大家告诉我,大家一起进步! 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_57100435/article/details/130740351。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2024-01-10 08:44:41
282
转载
VUE
...evtools)和单文件组件等。这些特性都能够帮助构建者更加高效能地构建Vue应用。 总之,Vue的即时生效特性是Vue结构中的一大亮点,它让构建变得更加容易和愉快。如果你是一个Vue构建者,那么一定要好好利用这个特性,以提高你的构建效率。
2024-01-03 19:49:11
62
逻辑鬼才
Docker
...,并强调了采用一致性快照以确保数据完整性。 同时,开源社区也在持续推动相关工具的发展,例如Portworx的Stork项目提供了对Kubernetes和Docker数据卷的一键式备份与恢复支持,大大简化了操作流程。此外,通过深度集成如Velero(原名为Heptio Ark)这类开源灾备工具,企业能够实现跨集群的数据迁移和灾难恢复,增强了基于Docker的应用系统的韧性。 另外,对于更复杂的企业级场景,有专家建议结合使用分布式文件系统(如Ceph或GlusterFS)来持久化和备份Docker数据卷,从而提高数据安全性及可用性。实践中,不断优化数据恢复方案,使之与业务连续性和高可用性要求相匹配,是每一个依赖于Docker运行关键业务的企业必须面对的挑战。 总而言之,在数字化转型加速的今天,理解并掌握先进的Docker数据备份与恢复策略已成为IT运维人员必备技能之一。只有紧跟技术发展潮流,结合实际情况灵活运用各种解决方案,才能确保即使在遭遇意外情况时,也能迅速有效地恢复业务运行,最大限度地降低数据丢失带来的潜在风险和损失。
2023-04-14 09:42:03
301
码农
Flink
...ink提供的一个基于文件系统的State Backend。 java ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment(); env.setStateBackend(new FsStateBackend("/tmp/flink-fsstate")); 六、总结 选择合适的State Backend是一项非常重要的任务。咱们应该根据自身的实际需求和所处的环境条件,来挑个最适合的State Backend,就像选衣服要根据身材和天气一样,得找准那个最合拍的“款”。同时呢,咱们也得留意这么个事儿,就是各种State Backend各有各的好和不足。要想做出最合适的决定,就得先把这些家伙的脾性摸个透彻明白才行。 以上就是我对于如何选择合适的State Backend的一些理解和看法,希望能够对你有所帮助。如果你有任何问题或者想法,欢迎留言讨论。 七、尾声 Flink是一个强大且灵活的流处理框架,但是它的复杂性也给我们带来了一些挑战。我们需要不断地学习和探索,才能更好地利用它。在挑State Backend的时候,咱们得根据自身的实际情况和需求,像个精明的买家那样,选出最对胃口、最适合的那个选项。
2023-07-04 20:53:04
508
海阔天空-t
Flink
...点。我调整了一下配置文件,打开了检查点功能,并设定了一个合适的间隔时间。然后,我又创建了一个保存点,以便在需要时可以快速恢复任务。 经过这些调整后,任务果然变得更加稳定了。虽然网络分区的问题依然存在,但至少我们现在有了应对措施。这也让我深刻体会到,Flink的检查点和保存点是多么的重要。 结语 好了,今天的分享就到这里。虽然网络分区会带来一些麻烦,但只要我们手握合适的工具和技术,就能很好地搞定它。希望大家在使用Flink的过程中也能遇到并解决类似的问题。如果你有任何疑问或建议,欢迎随时交流讨论。让我们一起享受编程的乐趣吧!
2024-12-30 15:34:27
45
飞鸟与鱼
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
strace -f command
- 追踪命令及其子进程的系统调用。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"