前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[sudo命令在Ruby中的应用及安全考量...]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
Tomcat
...于管理和监控Java应用程序。这个功能让你可以通过MBeans(管理豆子)查看应用在运行时的各种情况,比如内存用得怎么样、线程都在干啥等等。对于像Tomcat这样的Web服务器,JMX简直就是个救星。它能让我们更清楚地知道服务器的状况,帮我们及时揪出并解决那些麻烦的问题。 但是,有时候这个“神”也会掉链子,尤其是在配置不当的情况下。今天咱们聊聊怎么搞定Tomcat里JMX监控连不上的烦人事儿。 2. 检查配置文件 先从最基础的地方入手吧——检查Tomcat的配置文件。在Tomcat的安装目录下,找到conf文件夹,打开catalina.sh(Linux/Mac)或catalina.bat(Windows)。我们需要确保其中包含了JMX相关的配置参数。通常,这些参数应该出现在文件的开头部分: bash JAVA_OPTS="$JAVA_OPTS -Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.port=9010 -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.authenticate=false" 这段代码告诉JVM启动时加载一些系统属性,使得JMX服务能够正常运行。注意这里的端口号9010,这是JMX远程访问的端口。要是别的程序占用了这个端口,或者是防火墙不让访问,那JMX监控可就要闹脾气啦。 当然,这里只是个例子。实际配置可能会根据你的具体需求有所不同。比如,如果你需要启用SSL加密传输,就需要添加更多的配置项。另外,为了安全着想,还是开启身份验证功能吧,别直接设成false了。这样可以防止未授权访问。 3. 配置防火墙和端口 假设你已经正确设置了JMX相关参数,但还是无法连接到JMX服务,这时候就需要考虑网络层面的问题了。别忘了检查一下你的服务器防火墙设置,确保端口9010是开放的。 在Linux上,你可以使用以下命令查看当前的防火墙规则: bash sudo ufw status 如果端口没有开放,你需要添加一条新的规则: bash sudo ufw allow 9010 同样的,在Windows系统上,你也可以通过控制面板中的“Windows Defender 防火墙”来管理端口。 另外,如果你是在云平台上运行Tomcat,记得在云提供商的控制台里也开放相应的端口。比如,AWS的EC2实例需要在安全组中添加入站规则。 4. 使用JConsole进行测试 经过上面的步骤后,我们可以尝试用JConsole来连接看看。JConsole是一个图形化的JMX客户端工具,非常适合用来诊断和监控Java应用程序。 首先,确保你已经在本地安装了Java Development Kit (JDK)。然后,打开命令行窗口,输入以下命令启动JConsole: bash jconsole 启动后,你会看到一个界面,选择你的Tomcat进程ID(可以在任务管理器或ps -ef | grep tomcat命令中找到),点击“连接”按钮。要是没啥问题,你应该就能顺利打开JConsole的主界面,各种性能指标也都会一目了然地出现在你眼前。 如果连接失败,请检查控制台是否有错误提示。常见的问题包括端口被占用、防火墙阻塞、配置文件错误等。根据错误信息逐条排查,相信最终会找到问题所在。 5. 总结与反思 折腾了半天,终于解决了Tomcat JMX监控无法连接的问题。这个过程虽然有些曲折,但也让我学到了不少知识。比如说,我搞懂了JMX到底是怎么运作的,还学会了怎么设置防火墙和端口,甚至用JConsole来排查问题也变得小菜一碟了。 当然,每个人遇到的具体情况可能都不一样,所以在解决问题的过程中,多查阅官方文档、搜索社区问答是非常必要的。希望这篇文章能帮助大家少走弯路,更快地解决类似问题。
2025-02-15 16:21:00
102
月下独酌
Linux
...数据库管理时,数据的安全性和可靠性始终是至关重要的。MongoDB作为一款高性能、易扩展的NoSQL数据库,在众多项目中得到广泛应用。在用Linux操作系统的时候,MongoDB的日常维护工作可是个重点活儿,尤其是设计和执行备份策略这块儿,那可真是至关重要的一步棋。本文将带领大家深入探讨如何在Linux环境中,以一种高效且安全的方式对MongoDB进行备份。 1. 备份的重要性与基本原理 (情感化表达)想象一下,你精心维护的MongoDB数据库突然遭遇意外,数据丢失或损坏,那种感觉就像失去了一本珍贵的日记,令人痛心疾首。因此,定期备份是我们防止这种“悲剧”发生的最佳保险措施。MongoDB做备份这件事儿,主要靠两种方法:一是直接复制数据库文件这招,二是动用一些专门的工具去创建快照。这样一来,就可以把数据在某一时刻的样子给完好无损地保存下来啦。 2. MongoDB备份方法概述 2.1 数据库文件备份 (代码示例) bash 首先找到MongoDB的数据存储路径,通常位于/var/lib/mongodb/ (根据实际安装配置可能有所不同) sudo cp -R /var/lib/mongodb/ /path/to/backup/ 通过Linux命令行直接复制MongoDB的数据文件目录到备份位置,这是一种最基础的物理备份方式。不过要注意,在咱们进行备份的时候,务必要保证数据库没在进行任何写入操作。要不然的话,可能会让备份出来的文件出现不一致的情况,那就麻烦啦。 2.2 mongodump工具备份 (代码示例) bash mongodump --host localhost --port 27017 --db your_database_name --out /path/to/backup/ mongodump是MongoDB官方提供的用于逻辑备份的工具,它会将数据库的内容导出为JSON格式的bson文件,这样可以方便地在其他MongoDB实例上导入恢复。在上述命令中,我们指定了目标数据库地址、端口以及备份输出目录。 2.3 使用MongoDB Atlas自动备份服务(可选) 对于使用MongoDB云服务Atlas的用户,其内置了自动备份功能,只需在控制台设置好备份策略,系统就会按照设定的时间周期自动完成数据库的备份,无需手动干预。 3. 实战 结合cron定时任务实现自动化备份 (思考过程)为了保证备份的及时性与连续性,我们可以借助Linux的cron定时任务服务,每天、每周或每月定期执行备份任务。 (代码示例) bash 编辑crontab任务列表 crontab -e 添加以下定时任务,每天凌晨1点执行mongodump备份 0 1 mongodump --host localhost --port 27017 --db your_database_name --out /path/to/backup/$(date +\%Y-\%m-\%d) 保存并退出编辑器 以上示例中,我们设置了每日凌晨1点执行mongodump备份,并将备份文件保存在按日期命名的子目录下,便于后期管理和恢复。 4. 结语 备份策略的优化与完善 尽管我们已经掌握了MongoDB在Linux下的备份方法,但这只是万里长征的第一步。在实际操作时,咱们还要琢磨一下怎么把备份文件给压缩、加密了,再送到远程的地方存好,甚至要考虑只备份有变动的部分(增量备份)。而且,最好能整出一套全面的灾备方案,以备不时之需。总的来说,咱们对待数据库备份这事儿,就得像呵护自家压箱底的宝贝一样倍加小心。你想啊,数据这玩意儿的价值,那可是无价之宝,而备份呢,就是我们保护这个宝贝不丢的关键法宝,可得看重喽! (探讨性话术)亲爱的读者,你是否已开始构思自己项目的MongoDB备份方案?不妨分享你的见解和实践经验,让我们共同探讨如何更好地保护那些宝贵的数据资源。
2023-06-14 17:58:12
452
寂静森林_
Sqoop
...强大且易于使用,但是安全性始终是任何应用程序的重要考虑因素之一。特别是在处理敏感数据时,数据的安全性和隐私性尤为重要。所以在实际操作的时候,我们大都会选择用SSL/TLS加密这玩意儿,来给咱们的数据安全上把结实的锁。 二、什么是SSL/TLS? SSL(Secure Sockets Layer)和TLS(Transport Layer Security)是两种安全协议,它们提供了一种安全的方式来在网络上传输数据。这两种协议都建立在公钥加密技术的基础之上,就像咱们平时用的密钥锁一样,只不过这里的“钥匙”更智能些。它们会借用数字证书这玩意儿来给发送信息的一方验明正身,确保消息是从一个真实可信的身份发出的,而不是什么冒牌货。这样可以防止中间人攻击,确保数据的完整性和私密性。 三、如何配置Sqoop以使用SSL/TLS加密? 要配置Sqoop以使用SSL/TLS加密,我们需要按照以下步骤进行操作: 步骤1:创建并生成SSL证书 首先,我们需要创建一个自签名的SSL证书。这可以通过使用OpenSSL命令行工具来完成。以下是一个简单的示例: openssl req -x509 -newkey rsa:2048 -keyout key.pem -out cert.pem -days 3650 -nodes 这个命令将会创建一个名为key.pem的私钥文件和一个名为cert.pem的公钥证书文件。证书的有效期为3650天。 步骤2:修改Sqoop配置文件 接下来,我们需要修改Sqoop的配置文件以使用我们的SSL证书。Sqoop的配置文件通常是/etc/sqoop/conf/sqoop-env.sh。在这个文件中,我们需要添加以下行: export JVM_OPTS="-Djavax.net.ssl.keyStore=/path/to/key.pem -Djavax.net.ssl.trustStore=/path/to/cert.pem" 这行代码将会告诉Java环境使用我们刚刚创建的key.pem文件作为私钥存储位置,以及使用cert.pem文件作为信任存储位置。 步骤3:重启Sqoop服务 最后,我们需要重启Sqoop服务以使新的配置生效。以下是一些常见的操作系统上启动和停止Sqoop服务的方法: Ubuntu/Linux: sudo service sqoop start sudo service sqoop stop CentOS/RHEL: sudo systemctl start sqoop.service sudo systemctl stop sqoop.service 四、总结 在本文中,我们介绍了如何配置Sqoop以使用SSL/TLS加密。你知道吗,就像给自家的保险箱装上密码锁一样,我们可以通过动手制作一个自签名的SSL证书,然后把它塞进Sqoop的配置文件里头。这样一来,就能像防护盾一样,把咱们的数据安全牢牢地守在中间人攻击的外面,让数据的安全性和隐私性蹭蹭地往上涨!虽然一开始可能会觉得有点烧脑,但仔细想想数据的价值,我们确实应该下点功夫,花些时间把这个事情搞定。毕竟,为了保护那些重要的数据,这点小麻烦又算得了什么呢? 当然,这只是基础的配置,如果我们需要更高级的保护,例如双重认证,我们还需要进行更多的设置。不管怎样,咱可得把数据安全当回事儿,要知道,数据可是咱们的宝贝疙瘩,价值连城的东西之一啊!
2023-10-06 10:27:40
184
追梦人-t
转载文章
...ntOS7)下yum命令即可方便的完成安装 $ sudo yum install subversion 测试安装是否成功: $ svnserve --version [root@lulitianyu ~] svnversion --version svnversion, version 1.7.14 (r1542130) compiled Aug 23 2017, 20:43:38 Copyright (C) 2013 The Apache Software Foundation. This software consists of contributions made by many people; see the NOTICE file for more information. Subversion is open source software, see http://subversion.apache.org/ 2. 建立版本库 创建svn数据目录(subversion默认是把/var/svn作为数据根目录的,开机启动默认也是从这里): $ sudo mkdir -p /var/svn 创建版本库: $ sudo svnadmin create /var/svn/wangwa 如果删除版本库: $ sudo rm -rf /var/svn/somnus 3. 配置svn配置文件 每个版本库创建之后都会生成svnserve.conf主要配置文件。编辑它: $ sudo vim /var/svn/somnus/conf/svnserve.conf 编辑示例: [general]anon-access = none 控制非鉴权用户访问版本库的权限auth-access = write 控制鉴权用户访问版本库的权限password-db = passwd 指定用户名口令文件名authz-db = authz 指定权限配置文件名realm = somnus 指定版本库的认证域,即在登录时提示的认证域名称 4. 编辑svn用户配置文件 sudo vim /var/svn/somnus/conf/passwd 编辑示例: [users]admin = admin 用户,密码fuhd = fuhd 用户,密码test = test 用户,密码 5. 编辑svn权限控制配置文件 sudo vim /var/svn/somnus/conf/authz 编辑示例: [groups]admin = admin admin为用户组,等号之后的admin为用户test = fuhd,test[somnus:/] 表示根目录(/var/svn/somnus),somnus: 对应前面配置的realm = somnus@admin = rw #表示admin组对根目录有读写权限,r为读,w为写[somnus:/test] 表示test目录(/var/svn/somnus/test)@test = rw 表示test组对test目录有读写权限 6. 启动,查看和停止SVN服务 启动SVN服务: -d : 守护进程 -r : svn数据根目录 $ sudo svnserve -dr /var/svn 用root权限启动 查看SVN服务: $ ps aux|grep svnserve 默认端口为:3690 7. 配置防火墙端口 首先要明确CentOS7的默认防火墙为firewallD。subversion的默认端口为3690,如果没有打开会报错: $ sudo firewall-cmd --permanent -add-port=3690/tcp$ sudo firewall-cmd --reload 8. 检索项目和切换项目的url 项目检错 $ svn checkout svn://192.168.0.112/XK_Project . 使用 checkout 服务器资源 本地目录 切换项目url $ svn switch --relocate svn://192.168.0.112/XK_Project svn://192.168.0.120/XK_Project 使用 switch 迁移 from to 新的地址 9. 设置开机启动 在centos7, 设置开机启动: $ sudo systemctl enable svnserve.service 注意:根目录必须是/var/svn 这样才能设置成功!! 设置开机启动后就可以按下面的方式开启或停止服务了$ sudo systemctl start svnserve.service$ sudo systemctl stop svnserve.service 保存退出,重启并从客户端进行测试。如果报这样的错:svn: E204900: Can't open file '/var/svn/somnus/format': Permission denied的错误。那就是与SELinux有关系,目前我还不太会用SELinux,那就先把SELinux关闭吧,后面学会了,回过头来再改这一段!!!!: 临时关闭: $ sudo setenforce 0 永久关闭: $ sudo vim /etc/sysconfig/selinux 修改: SELINUX = disable 值修改为disable. svn帮助文档 http://riaoo.com/subpages/svn_cmd_reference.html 创建分支 svn cp -m "create branch" http://svn_server/xxx_repository/trunk http://svn_server/xxx_repository/branches/br_feature001 获得分支 svn co http://svn_server/xxx_repository/branches/br_feature001 合并主干上的最新代码到分支上 cd br_feature001 svn merge http://svn_server/xxx_repository/trunk 如果需要预览该刷新操作,可以使用svn mergeinfo命令,如: svn mergeinfo http://svn_server/xxx_repository/trunk --show-revs eligible 或使用svn merge --dry-run选项以获取更为详尽的信息。 分支合并到主干 一旦分支上的开发结束,分支上的代码需要合并到主干。SVN中执行该操作需要在trunk的工作目录下进行。命令如下: cd trunk svn merge --reintegrate http://svn_server/xxx_repository/branches/br_feature001 分支合并到主干中完成后应当删该分支,因为在SVN中该分支已经不能进行刷新也不能合并到主干。 合并版本并将合并后的结果应用到现有的分支上 svn -r 148:149 merge http://svn_server/xxx_repository/trunk 建立tags 产品开发已经基本完成,并且通过很严格的测试,这时候我们就想发布给客户使用,发布我们的1.0版本 svn copy http://svn_server/xxx_repository/trunk http://svn_server/xxx_repository/tags/release-1.0 -m "1.0 released" 删除分支或tags svn rm http://svn_server/xxx_repository/branches/br_feature001 svn rm http://svn_server/xxx_repository/tags/release-1.0 本篇文章为转载内容。原文链接:https://blog.csdn.net/lulitianyu/article/details/79675681。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2024-01-26 12:24:26
545
转载
Datax
Datax的安全性考量:深入理解与实战应用 DataX,作为阿里巴巴开源的一款高性能、稳定且易用的数据同步工具,以其强大的异构数据源处理能力广受业界好评。然而,在大规模数据迁移和同步过程中,安全性问题同样是我们不容忽视的关键要素。这篇东西,咱们主要就来掰扯掰扯Datax在安全性这块的那些门道,我将带你通过一些实打实的代码例子,一块儿抽丝剥茧看看它的安全机制到底是怎么运作的。同时,咱也不光讲理论,还会结合实际生活、工作中的应用场景,实实在在地讨论讨论这个话题。 1. 数据传输安全 在跨系统、跨网络的数据同步场景中,Datax的通信安全至关重要。Datax默认会用类似HTTPS这样的加密协议,给传输的数据穿上一层厚厚的保护壳,就像是数据的“加密铠甲”,这样一来,甭管数据在传输过程中跑得多远、多快,都能确保它的内容既不会被偷窥,也不会被篡改,完完整整、安安全全地到达目的地。 json { "job": { "content": [ { "reader": { "name": "mysqlreader", "parameter": { "username": "root", "password": "", "connection": [ { "jdbcUrl": ["jdbc:mysql://source-db:3306/mydb?useSSL=true&serverTimezone=UTC"], "table": ["table1"] } ], // 配置SSL以保证数据传输安全 "connectionProperties": "useSSL=true" } }, "writer": {...} } ], "setting": { // ... } } } 上述示例中,我们在配置MySQL读取器时启用了SSL连接,这是Datax保障数据传输安全的第一道防线。 2. 认证与授权 Datax服务端及各数据源间的认证与授权也是保障安全的重要一环。Datax本身并不内置用户权限管理功能,而是依赖于各个数据源自身的安全机制。例如,我们可以通过配置数据库的用户名和密码实现访问控制: json "reader": { "name": "mysqlreader", "parameter": { "username": "datax_user", // 数据库用户 "password": "", // 密码 // ... } } 在此基础上,企业内部可以结合Kerberos或LDAP等统一身份验证服务进一步提升Datax作业的安全性。 3. 敏感信息处理 Datax配置文件中通常会包含数据库连接信息、账号密码等敏感内容。为防止敏感信息泄露,Datax支持参数化配置,通过环境变量或者外部化配置文件的方式避免直接在任务配置中硬编码敏感信息: json "reader": { "name": "mysqlreader", "parameter": { "username": "${db_user}", "password": "${}", // ... } } 然后在执行Datax任务时,通过命令行传入环境变量: bash export db_user='datax_user' && export db_password='' && datax.py /path/to/job.json 这种方式既满足了安全性要求,也便于运维人员管理和分发任务配置。 4. 审计与日志记录 Datax提供详细的运行日志功能,包括任务启动时间、结束时间、状态以及可能发生的错误信息,这对于后期审计与排查问题具有重要意义。同时呢,我们可以通过企业内部那个专门用来收集和分析日志的平台,实时盯着Datax作业的执行动态,一旦发现有啥不对劲的地方,就能立马出手解决,保证整个流程顺顺利利的。 综上所述,Datax的安全性设计涵盖了数据传输安全、认证授权机制、敏感信息处理以及操作审计等多个层面。在用Datax干活的时候,咱们得把这些安全策略整得明明白白、运用自如。只有这样,才能一边麻溜儿地完成数据同步任务,一边稳稳当当地把咱的数据资产保护得严严实实,一点儿风险都不冒。这就像是现实生活里的锁匠师傅,不仅要手到擒来地掌握开锁这门绝活儿,更得深谙打造铜墙铁壁般安全体系的门道,确保我们的“数据宝藏”牢不可破,固若金汤。
2024-01-11 18:45:57
1143
蝶舞花间
HessianRPC
...ianRPC:自动化安全检测的潜力与局限 一、引言 HessianRPC的简介与地位 在构建分布式系统时,高效且可靠的远程过程调用(RPC)机制是不可或缺的一部分。哎呀,HessianRPC,这玩意儿可是个了不得的家伙!它啊,用的是Java这门语言,但你别小瞧了它,它轻巧得很,功能可是一点都不马虎。性能那叫一个棒,无论是大企业的小团队,都对它赞不绝口。为啥?因为它能跨语言通信,这就意味着,不管你是用Python、C++还是别的啥语言,它都能无缝对接,方便得很!所以,你要是想在项目里搞点大动作,用上HessianRPC,绝对能让你的团队如虎添翼,效率翻倍!哎呀,随着黑客们越来越聪明,他们的攻击方式也是层出不穷,这就让咱们开发人员得时刻绷紧神经,保证系统的安全了。这可真不是件轻松活儿,每天都在跟这些看不见的敌人斗智斗勇呢!哎呀,你知道不?这篇大作啊,它要深挖HessianRPC在服务级别的自动化安全检查上能干啥,还有这个本事能怎么改变游戏规则。就像是在说,咱们得好好研究研究,HessianRPC这玩意儿在保护咱们的服务不受坏人侵扰上能起多大作用,以及它一出手,咱们的安全策略会有多大的变化。是不是感觉更接地气了? 二、HessianRPC的安全考量 在评估HessianRPC的安全性时,我们首先需要了解其基础设计和潜在的风险点。Hessian RPC这个东西,就像是个超级快递员,它能把各种复杂难懂的数据结构,比如大包小包的货物,都转化成容易邮寄的格式。这样一来,信息传递的速度大大提升了,但这也带来了一个问题——得保证这些包裹在运输过程中不被拆开或者丢失,还得防止别人偷看里面的东西。这就需要我们好好设计一套系统,确保数据的安全和完整性,就像给每个包裹贴上专属标签和密码一样。例如,恶意用户可以通过构造特定的输入数据来触发异常或执行未授权操作。 三、服务级别的自动化安全检测 服务级别的自动化安全检测旨在通过自动化工具和策略,定期对服务进行安全评估,从而及时发现并修复潜在的安全漏洞。对于HessianRPC而言,实现这一目标的关键在于: - 输入验证:确保所有传入的Hessian对象都经过严格的类型检查和边界值检查,防止任意构造的输入导致的错误行为。 - 异常处理:合理设置异常处理机制,确保异常信息不会泄露敏感信息,并提供足够的日志记录,以便后续分析和审计。 - 权限控制:通过API层面的权限校验,确保只有被授权的客户端能够调用特定的服务方法。 四、HessianRPC实例代码示例 下面是一个简单的HessianRPC服务端实现,用于展示如何在服务层实现基本的安全措施: java import org.apache.hessian.io.HessianInput; import org.apache.hessian.io.HessianOutput; import org.apache.hessian.message.MessageFactory; public class SimpleService { public String echo(String message) throws Exception { // 基本的输入验证 if (message == null || message.isEmpty()) { throw new IllegalArgumentException("Message cannot be null or empty"); } return message; } public void run() { try (ServerFactory sf = ServerFactory.createServerFactory(8080)) { sf.addService(new SimpleServiceImpl()); sf.start(); } catch (Exception e) { e.printStackTrace(); } } } class SimpleServiceImpl implements SimpleService { @Override public String echo(String message) { return "Echo: " + message; } } 这段代码展示了如何通过简单的异常处理和输入验证来增强服务的安全性。尽管这是一个简化的示例,但它为理解如何在实际应用中集成安全措施提供了基础。 五、结论与展望 HessianRPC虽然在自动化安全检测方面存在一定的支持,但其核心依赖于开发者对安全实践的深入理解和实施。通过采用现代的编程模式、遵循最佳实践、利用现有的安全工具和技术,开发者可以显著提升HessianRPC服务的安全性。哎呀,未来啊,软件工程的那些事儿和安全技术就像开挂了一样突飞猛进。想象一下,HessianRPC这些好东西,还有它的好伙伴们,它们会变得超级厉害,能自动帮我们检查代码有没有啥安全隐患,就像个超级安全小卫士。这样一来,咱们开发分布式系统的时候,就不用那么担心安全问题了,可以更轻松地搞出既安全又高效的系统,爽歪歪! --- 通过上述内容,我们不仅深入探讨了HessianRPC在自动化安全检测方面的支持情况,还通过具体的代码示例展示了如何在实践中应用这些安全措施。嘿,小伙伴们!这篇小文的目的是要咱们一起嗨起来,共同关注分布式系统的安全性。咱们得动动脑筋,别让那些不怀好意的小家伙有机可乘。怎么样,是不是觉得有点热血沸腾?咱们要团结起来,探索更多新鲜有趣的安全策略和技术,让我们的代码更安全,世界更美好!一起加油吧,开发者们!
2024-09-08 16:12:35
102
岁月静好
转载文章
...trl+alt+t sudo apt-get updatesudo apt-get install vimsudo apt-get install curl 之后,我们把下载好的ndn-cxx 0.6.3和NFD 0.6.3拷贝到:/usr/local/lib 路径下(不要问为啥,计算机路径这个东西真是恶心人),完成之后我们开始安装ndn-cxx 0.6.3 安装ndn-cxx 0.6.3 打开终端: ctrl+alt+t sudo apt-get install build-essential libsqlite3-dev libboost-all-dev libssl-dev sudo apt-get install doxygen graphviz python-sphinx python-pip 这里指导安装步骤还有sudo pip install sphinxcontrib-doxylink sphinxcontrib-googleanalytics,这个可能是以前的版本需要的依赖的包,但在0.6.3中并不需要,而且装上还会报错(卡在这里好久),因此我们就不装这个。 之后我们进入ndn-cxx 0.6.3的根目录: cd /usr/local/lib/ndn-cxx-0.6.3 接连执行以下命令 sudo ./waf configuresudo ./wafsudo ./waf install 在运行第2个命令的时候,会出现如下结果: 我们这里不用理会(不知道为啥,虽然出了ERROR,但是还是可以运行,可能最后他只是出了个WARNING,而且在过程中,WARNING都是可以忽略的)。等出现如图所示的结果: 我们就可以进行下一步: sudo ldconfig sudo ./waf configure --with-examplessudo ./wafsudo ./waf install 到此,ndn-cxx 0.6.3的环境就装好了。 安装NFD 0.6.3 打开终端,按照以下代码依次输入: sudo apt-get install software-properties-common sudo add-apt-repository ppa:named-data/ppasudo apt-get update sudo apt-get install nfd 原文指导步骤,之后是利用git命令下载ndn-cxx和nfd,因为我们提前下载过了并拷贝进虚拟机,因此,在此忽略该步骤。 sudo apt-get install build-essential pkg-config libboost-all-dev \libsqlite3-dev libssl-dev libpcap-dev sudo apt-get install doxygen graphviz python-sphinx 之后,我们进入nfd 0.6.3根目录: cd /usr/local/lib/nfd-0.6.3 进入root模式,安装一个库(很重要,因为我们不是利用git命令安装,这步必不可少;否则下一步下面会报错中断): sudo sucurl -L https://github.com/zaphoyd/websocketpp/archive/0.7.0.tar.gz > websocket.tar.gztar zxf websocket.tar.gz -C websocketpp/ --strip 1exit 之后,执行以下命令: sudo ./waf configuresudo ./wafsudo ./waf install 同样,过程中出现WARNING不用管。 最后,一定记着执行以下命令: sudo cp /usr/local/etc/ndn/nfd.conf.sample /usr/local/etc/ndn/nfd.conf 这样才能成功开启nfd。 至此,ndn-cxx 0.6.3和nfd 0.6.3全部安装完成。 执行示例程序 打开终端,运行nfd nfd-start(可能需要输入密码) 在ndn-cxx 0.6.3根目录下打开终端,进入examples目录,或者直接在example目录下打开终端(我选择这种方式,因为懒)。 这里,必须先运行producer程序,再运行consumer程序,作为学计算机的,应该不需要解释为啥了吧。 在一个终端下执行producer命令: ./producer 再打开一个终端,执行consumer命令: ./consumer 这时就可以成功看到交互了,但是有点儿问题,consumer会出现warning,如图所示: 这是为啥呢,好像是因为最近的版本,必须为interest报文指定一个默认前缀,为了之后的APP功能设计,详情请看以下链接: http://named-data.net/doc/ndn-cxx/current/doxygen/d1/d81/classndn_1_1Interest.htmla0275843d0eda5134e7fd7e787f972e78 这里我们怎么修改才能让他不显示这个warning呢?按照以下步骤: 进入ndn-cxx 的src目录: cd /usr/local/lib/ndn-cxx-0.6.3/src 修改interest.cpp文件,因为权限设置,我们在root下使用vim命令修改: sudo su(输入密码)vim interest.cpp找到 static bool hasDefaultCanBePrefixWarning = false将false改为true 之后,我们在ndn-cxx 0.6.3目录下再编译运行一下就行了,即: sudo ./waf configure --with-examplessudo ./wafsudo ./waf install 之后再examples目录再执行两个程序,就可以得到结果: 至此环境已经搭好,目前正准备进行后续工作。。。。。 望各位大佬手下留情,转载注明出处,感谢感谢!!!! 本篇文章为转载内容。原文链接:https://blog.csdn.net/silent_time/article/details/84146586。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-03-30 19:22:59
321
转载
Go Gin
...在构建现代 Web 应用时,API 的安全性与性能管理是至关重要的环节。哎呀,兄弟,你懂的,设置API访问频率的限制这事儿啊,就像是给自家的宝藏门口放了个看门狗,既能防止那些乱糟糟的家伙随便闯进来搞破坏,又能保护咱们的宝贝资源不被那些坏心眼的人给掏空了。这招儿,可真是既实用又有效呢!哎呀,你知道吗?Go 语言这玩意儿,那可是超级厉害的!它就像个武林高手,出手快如闪电,又稳如泰山。用 Go 来做网站啥的,不仅效率高得飞起,代码还简洁明了,看着都舒服。而且,你放心,用 Go 做的网站安全性能杠杠的,能防得住不少小偷小摸呢!所以啊,现在好多大厂做高性能、安全的网络服务,都喜欢用 Go 语言来搞,因为它真的太牛了!gin-contrib/ratelimit 是一个用于 Go 语言中 Gin 框架的库,专门用于实现 API 访问速率限制。本文将深入探讨如何利用 gin-contrib/ratelimit 来增强 API 安全性和性能。 二、基础概念与原理 速率限制(也称为限流)是一种常见的流量控制手段,它允许系统在单位时间内处理的请求数量不超过某个阈值。哎呀,你瞧这招儿挺机灵的!它能帮咱们解决一个大难题——就是那些疯了似的并发请求,就像一群蚂蚁围攻面包,瞬间就把服务器给淹没了。这样不仅能让我们的服务器喘口气,不至于被这些请求给累趴下,还能给那些没权没份的家伙们上上锁,别让他们乱用咱们的API,搞得咱们这边乱七八糟的。这招儿,既保护了服务器,又守住了规矩,真是一举两得啊! gin-contrib/ratelimit 提供了一种简单且灵活的方式来配置和应用速率限制规则。它支持多种存储后端,包括内存、Redis 和数据库等,以适应不同的应用场景需求。 三、安装与初始化 首先,确保你的 Go 环境已经配置好,并且安装了 gin-contrib/ratelimit 库。可以通过以下命令进行安装: bash go get github.com/gin-contrib/ratelimit 接下来,在你的 Gin 应用中引入并初始化 ratelimit 包: go import ( "github.com/gin-contrib/ratelimit" "github.com/gin-gonic/gin" ) func main() { r := gin.Default() // 配置限流器 limiter := ratelimit.New(ratelimit.Config{ AllowedRequests: 5, // 允许每分钟最多5次请求 Duration: time.Minute, }) // 将限流器应用于路由 r.Use(limiter) // 定义路由 r.GET("/api", func(c gin.Context) { c.JSON(200, gin.H{"message": "Hello, World!"}) }) r.Run(":8080") } 四、高级功能与自定义 除了基本的速率限制配置外,gin-contrib/ratelimit 还提供了丰富的高级功能,允许开发者根据具体需求进行定制化设置。 - 基于 IP 地址的限制: go limiter := ratelimit.New(ratelimit.Config{ AllowedRequests: 5, Duration: time.Minute, PermitsBy: ratelimit.PermitByIP, }) - 基于 HTTP 请求头的限制: go limiter := ratelimit.New(ratelimit.Config{ AllowedRequests: 5, Duration: time.Minute, PermitsBy: ratelimit.PermitByHeader("X-User-ID"), }) - 基于用户会话的限制: go limiter := ratelimit.New(ratelimit.Config{ AllowedRequests: 5, Duration: time.Minute, PermitsBy: ratelimit.PermitBySessionID, }) 这些高级功能允许你更精细地控制哪些请求会被限制,从而提供更精确的访问控制策略。 五、实践案例 基于 IP 地址的限流 假设我们需要限制某个特定 IP 地址的访问频率: go limiter := ratelimit.New(ratelimit.Config{ AllowedRequests: 10, // 每小时最多10次请求 Duration: time.Hour, PermitsBy: ratelimit.PermitByIP, }) // 在路由上应用限流器 r.Use(limiter) 六、性能考量与优化 在实际部署时,考虑到速率限制的性能影响,合理配置限流参数至关重要。哎呀,你得注意了,设定安全防护的时候,这事儿得拿捏好度才行。要是设得太严,就像在门口挂了个大锁,那些坏人进不来,可合法的访客也被挡在外头了,这就有点儿不地道了。反过来,如果设置的门槛太松,那可就相当于给小偷开了个后门,让各种风险有机可乘。所以啊,找那个平衡点,既不让真正的朋友感到不便,又能守住自家的安全,才是王道!因此,建议结合业务场景和流量预测进行参数调整。 同时,选择合适的存储后端也是性能优化的关键。哎呀,你知道的,在处理那些超级多人同时在线的情况时,咱们用 Redis 来当存储小能手,那效果简直不要太好!它就像个神奇的魔法箱,能飞快地帮我们处理各种数据,让系统运行得又顺溜又高效,简直是高并发环境里的大救星呢! 七、结论 通过集成 gin-contrib/ratelimit,我们不仅能够有效地管理 API 访问频率,还能够在保障系统稳定运行的同时,为用户提供更好的服务体验。嘿,兄弟!业务这玩意儿,那可是风云变幻,快如闪电。就像你开车,路况不一,得随时调整方向,对吧?API安全性和可用性这事儿,就跟你的车一样重要。所以,咱们得像老司机一样,灵活应对各种情况,时不时地调整和优化限流策略。这样,不管是高峰还是低谷,都能稳稳地掌控全局,让你的业务顺畅无阻,安全又高效。别忘了,这可是保护咱们业务不受攻击,保证用户体验的关键!希望本文能够帮助你更好地理解和应用 gin-contrib/ratelimit,在构建强大、安全的 API 时提供有力的支持。
2024-08-24 16:02:03
109
山涧溪流
转载文章
...已安装 启动ssh sudo systemctl start ssh sudo systemctl enable ssh 2. 更新源 sudo apt-get -y update sudo apt-get -y upgrade 3. 安装JDK8 sudo apt-get install -y openjdk-8-jdk 4. 安装Node.js 下载nodejs压缩包,解压缩,根目录改名为node 复制或剪切到/opt/node 修改环境变量 vim /etc/profile 在末尾添加 export NODE_HOME=/opt/node export PATH=$PATH:$NODE_HOME/bin export NODE_PATH=$NODE_HOME/lib/node_modules 退出,刷新 source /etc/profile 复制链接 sudo ln -s /opt/node/bin/node /usr/bin/node sudo ln -s /opt/node/bin/npm /usr/bin/npm // npm淘宝源 npm config set registry https://registry.npm.taobao.org // 安装yarn 并设置为淘宝源 sudo npm install -g yarn sudo yarn config set registry https://registry.npm.taobao.org -g sudo yarn config set sass_binary_site http://cdn.npm.taobao.org/dist/node-sass -g // 安装cnpm 并设置为淘宝源 sudo npm install -g cnpm -registry=https://registry.npm.taobao.org // 安装vue脚手架3 sudo cnpm install -g @vue/cli@3 sudo ln -s /opt/node/bin/yarn /usr/bin/yarn sudo ln -s /opt/node/bin/cnpm /usr/bin/cnpm 除此之外,还有一种方法,npm命令如上 VERSION=node_14.x DISTRO="$(dpkg --status tzdata|grep Provides|cut -f2 -d'-')" echo "deb https://deb.nodesource.com/$VERSION $DISTRO main" | sudo tee /etc/apt/sources.list.d/nodesource.list echo "deb-src https://deb.nodesource.com/$VERSION $DISTRO main" | sudo tee -a /etc/apt/sources.list.d/nodesource.list curl -fsSL https://deb.nodesource.com/gpgkey/nodesource.gpg.key | sudo apt-key add - sudo apt-get -y update sudo apt-get install -y nodejs 5. 安装SVN sudo apt-get install -y subversion 6. 安装Git sudo apt-get install -y git 7. 安装MySQL MySQL :: Download MySQL Community Server 下载Debian版DEB Bundle 解压 进入目录,执行 sudo dpkg -i mysql-{common,community-client,client,community-server,server}_.deb 如果报错,执行 sudo apt-get -f install 中途设置root用户密码 8. 安装PostgreSQL 安装PostgreSQL sudo apt-get install -y postgresql-11 修改postgres用户密码 sudo -u postgres psql 进入后执行SQL ALTER USER postgres WITH PASSWORD 'postgres'; 退出 exit; 9. 安装Redis sudo apt-get install -y redis-server 修改配置文件 sudo vim /etc/redis/redis.conf 重启 sudo systemctl restart redis sudo systemctl enable redis-server 10. 安装Nginx sudo apt-get install -y nginx 修改配置文件 sudo vim /etc/nginx/nginx.conf 重启 sudo systemctl restart nginx sudo systemctl enable nginx 11. 安装VMWare Workstation 下载 https://www.vmware.com/go/getworkstation-linux 放到文件夹,进入,执行 sudo chmod +x VMware-Workstation-Full-17.0.0-20800274.x86_64.bundle sudo ./VMware-Workstation-Full-17.0.0-20800274.x86_64.bundle 安装gcc sudo apt-get install -y gcc 进入控制台,找到VMWare,开始安装,安装过程同Windows 如果如果遇到build environment error错误,执行下列命令后再重新在控制台打开图标 sudo apt-get install -y libcanberra 如果还不行,执行 sudo vmware-modconfig --console --install-all 看看还缺什么 12. 安装百度网盘 官网下载Linux版本的软件:百度网盘 客户端下载 deepin的软件包格式为deb。安装: sudo dpkg -i baidunetdisk_3.5.0_amd64.deb 最新版本 sudo dpkg -i baidunetdisk_4.17.7_amd64.deb 如果报错,执行 sudo apt-get -f install 13. 安装WPS 官网下载Linux版本的软件:WPS Office 2019 for Linux-支持多版本下载_WPS官方网站 deepin的软件包格式为deb。安装: sudo dpkg -i wps-office_11.1.0.10702_amd64.deb 最新版本 sudo dpkg -i wps-office_11.1.0.11691_amd64.deb 如果报错执行 sudo apt-get -f install wps有可能会报缺字体,缺的字体如下,双击安装 百度网盘 请输入提取码 提取码:lexo 14. 安装VS Code 官网下载Linux版本的软件:Visual Studio Code - Code Editing. Redefined deepin的软件包格式为deb。安装: sudo dpkg -i code_1.61.1-1634175470_amd64.deb 最新版本 sudo dpkg -i code_1.76.0-1677667493_amd64.deb 如果报错执行 sudo apt-get -f install 15. 安装微信、QQ、迅雷 微信 sudo apt-get install -y com.qq.weixin.deepin QQ sudo apt-get install -y com.qq.im.deepin 迅雷 sudo apt-get install -y com.xunlei.download 16. 安装视频播放器 sudo apt-get -y install smplayer sudo apt-get -y install vlc 17. 安装SSH工具electerm 下载electerm的deb版本 deepin的软件包格式为deb。安装: https://github.com/electerm/electerm/releases/download/v1.25.16/electerm-1.25.16-linux-amd64.deb sudo dpkg -i electerm-1.25.16-linux-amd64.deb 18.安装FTP/SFTP工具FileZilla sudo apt-get -y install filezilla 19. 安装edge浏览器 下载edge浏览器 deepin的软件包格式为deb。安装: 下载 Microsoft Edge sudo apt-get -y install fonts-liberation sudo apt-get -y install libu2f-udev sudo dpkg -i microsoft-edge-beta_95.0.1020.30-1_amd64.deb 最新版本 sudo dpkg -i microsoft-edge-stable_110.0.1587.63-1_amd64.deb 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_42173947/article/details/119973703。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-11-15 19:14:44
54
转载
转载文章
...。 1.1 date命令 用来查看和设置系统时间 date 查看系统当前时间sudo date -s "2023-03-18 11:16:10" 修改系统时间为 "xxxx-xx-xx xx:xx:xx"===============================================================================nvidia@nvidia-desktop:~$ dateВт мар 18 11:16:27 +08 2023nvidia@nvidia-desktop:~$nvidia@nvidia-desktop:~$nvidia@nvidia-desktop:~$ sudo date -s "2023-03-18 11:16:10"[sudo] password for nvidia:Вт мар 18 11:16:10 +08 2023nvidia@nvidia-desktop:~$ 硬件时间的设置,可以用hwclock 1.2 hwclock 命令 查看当前硬件时间 注意:hwclock 所有命令需要使用root 权限 nvidia@nvidia-desktop:~$ hwclockhwclock: Cannot access the Hardware Clock via any known method.hwclock: Use the --debug option to see the details of our search for an access method.nvidia@nvidia-desktop:~$nvidia@nvidia-desktop:~$nvidia@nvidia-desktop:~$ sudo hwclock2023-03-21 11:18:49.607690+0800nvidia@nvidia-desktop:~$ 将系统时间同步到硬件时间 hwclock -w 将硬件时间同步到系统时间 hwclock -s 二、不同机器间时间同步 为了避免主机时间因为长期运作下所导致的时间偏差,进行时间同步(synchronize)的工作是非常必要的。Linux系统下,一般使用ntp服务器来同步不同机器的时间。一台机器,可以同时是ntp服务器和ntp客户机。 2.1 ntpdate命令实现 ntpdate 安装: yum install ntpdate -y Centos系统======================================sudo apt install ntpdate Ubuntu系统 时间同步 sudo ntpdate -u cn.pool.ntp.org18 Mar 18:25:22 ntpdate[18673]: adjust time server 84.16.73.33 offset 0.015941 sec 使用ntpdate 只是强制将系统时间设置为ntp服务器时间,如果cpu tick有问题,时间还是会不准。所以,一般配合cron命令,来进行定期同步设置。比如,在crontab中添加: sudo crontab -e0 12 /usr/sbin/ntpdate 192.168.10.110 上述命令的意思是:每天的12点整,从192.168.10.110 ntp服务器同步一次时间(前提是 192.168.10.110有ntp服务)。 2.2 Ntp客户端代码实现 本质上还是创建socket连接去获取ntp服务的时间与本地时间比较,不一致修改本机时间即可。 NtpClient.h //// Created by lwang on 2023-03-18.//ifndef NTP_CLIENT_Hdefine NTP_CLIENT_Hinclude <stdio.h>include <stdlib.h>include <string.h>include <time.h>include <iostream>include <unistd.h>include <sys/select.h>include <sys/time.h>include <sys/socket.h>include <arpa/inet.h>include <netdb.h>include <errno.h>include <endian.h>include <map>include <string>include <mutex>using namespace std;define NTP_LI 0define NTP_VERSION_NUM 3define NTP_MODE_CLIENT 3define NTP_MODE_SERVER 4define NTP_STRATUM 0define NTP_POLL 4define NTP_PRECISION -6define NTP_MIN_LEN 48define NTP_SERVER_PORT 123define NTP_SERVER_ADDR "119.28.183.184"define TIMEOUT 2define BUFSIZE 1500define JAN_1970 0x83aa7e80define NTP_CONV_FRAC32(x) (uint64_t)((x) ((uint64_t)1 << 32))define NTP_REVE_FRAC32(x) ((double)((double)(x) / ((uint64_t)1 << 32)))define NTP_CONV_FRAC16(x) (uint32_t)((x) ((uint32_t)1 << 16))define NTP_REVE_FRAC16(x) ((double)((double)(x) / ((uint32_t)1 << 16)))define USEC2FRAC(x) ((uint32_t)NTP_CONV_FRAC32((x) / 1000000.0))define FRAC2USEC(x) ((uint32_t)NTP_REVE_FRAC32((x)1000000.0))define NTP_LFIXED2DOUBLE(x) ((double)(ntohl(((struct l_fixedpt )(x))->intpart) - JAN_1970 + FRAC2USEC(ntohl(((struct l_fixedpt )(x))->fracpart)) / 1000000.0))struct s_fixedpt{uint16_t intpart;uint16_t fracpart;};struct l_fixedpt{uint32_t intpart;uint32_t fracpart;};struct ntphdr{if __BYTE_ORDER == __BID_ENDIANunsigned int ntp_li : 2;unsigned int ntp_vn : 3;unsigned int ntp_mode : 3;endifif __BYTE_ORDER == __LITTLE_ENDIANunsigned int ntp_mode : 3;unsigned int ntp_vn : 3;unsigned int ntp_li : 2;endifuint8_t ntp_stratum;uint8_t ntp_poll;int8_t ntp_precision;struct s_fixedpt ntp_rtdelay;struct s_fixedpt ntp_rtdispersion;uint32_t ntp_refid;struct l_fixedpt ntp_refts;struct l_fixedpt ntp_orits;struct l_fixedpt ntp_recvts;struct l_fixedpt ntp_transts;};class NtpClient {public:NtpClient();virtual ~NtpClient();void GetNtpTime(std::string &ntpTime);in_addr_t HostTransfer(const char host);int PaddingNtpPackage(void buf, size_t size);double GetOffset(const struct ntphdr ntp, const struct timeval recvtv);private:int m_sockfd;};endif / NTP_CLIENT_H / NtpClient.cpp //// Created by lwang on 2023-03-18.//include "NtpClient.h"NtpClient::NtpClient() { }NtpClient::~NtpClient() {}in_addr_t NtpClient::HostTransfer(const char host){in_addr_t saddr;struct hostent hostent;if ((saddr = inet_addr(host)) == INADDR_NONE){if ((hostent = gethostbyname(host)) == NULL){return INADDR_NONE;}memmove(&saddr, hostent->h_addr, hostent->h_length);}return saddr;}int NtpClient::PaddingNtpPackage(void buf, size_t size) // 构建并发送NTP请求报文{if (!size)return -1;struct ntphdr ntp;struct timeval tv;memset(buf, 0, BUFSIZE);ntp = (struct ntphdr )buf;ntp->ntp_li = NTP_LI;ntp->ntp_vn = NTP_VERSION_NUM;ntp->ntp_mode = NTP_MODE_CLIENT;ntp->ntp_stratum = NTP_STRATUM;ntp->ntp_poll = NTP_POLL;ntp->ntp_precision = NTP_PRECISION;gettimeofday(&tv, NULL); // 把目前的时间用tv 结构体返回ntp->ntp_transts.intpart = htonl(tv.tv_sec + JAN_1970);ntp->ntp_transts.fracpart = htonl(USEC2FRAC(tv.tv_usec));size = NTP_MIN_LEN;return 0;}double NtpClient::GetOffset(const struct ntphdr ntp, const struct timeval recvtv) // 偏移量{double t1, t2, t3, t4;t1 = NTP_LFIXED2DOUBLE(&ntp->ntp_orits);t2 = NTP_LFIXED2DOUBLE(&ntp->ntp_recvts);t3 = NTP_LFIXED2DOUBLE(&ntp->ntp_transts);t4 = recvtv->tv_sec + recvtv->tv_usec / 1000000.0;return ((t2 - t1) + (t3 - t4)) / 2;}void NtpClient::GetNtpTime(std::string &ntpTime){char buffer[64] = {0};char cmd[128] = {0};tm local;char buf[BUFSIZE];size_t nbytes;int maxfd1;struct sockaddr_in servaddr;fd_set readfds;struct timeval timeout, recvtv, tv;double offset;servaddr.sin_family = AF_INET;servaddr.sin_port = htons(NTP_SERVER_PORT);servaddr.sin_addr.s_addr = HostTransfer(NTP_SERVER_ADDR);if ((m_sockfd = socket(AF_INET, SOCK_DGRAM, 0)) < 0){perror("socket error");return ;}if (connect(m_sockfd, (struct sockaddr )&servaddr, sizeof(struct sockaddr)) != 0){perror("connect error");return ;}nbytes = BUFSIZE;if (PaddingNtpPackage(buf, &nbytes) != 0){fprintf(stderr, "construct ntp request error \n");exit(-1);}send(m_sockfd, buf, nbytes, 0);FD_ZERO(&readfds);FD_SET(m_sockfd, &readfds);maxfd1 = m_sockfd + 1;timeout.tv_sec = TIMEOUT;timeout.tv_usec = 0;if (select(maxfd1, &readfds, NULL, NULL, &timeout) > 0){if (FD_ISSET(m_sockfd, &readfds)){if ((nbytes = recv(m_sockfd, buf, BUFSIZE, 0)) < 0){perror("recv error");exit(-1);}// 计算C/S时间偏移量gettimeofday(&recvtv, NULL);offset = GetOffset((struct ntphdr )buf, &recvtv);gettimeofday(&tv, NULL);tv.tv_sec += (int)offset;tv.tv_usec += offset - (int)offset;local = localtime((time_t )&tv.tv_sec);strftime(buffer, 64, "%Y-%m-%d %H:%M:%S", local);ntpTime = std::string(buffer);} }return ;} main.cpp include "NtpClient.h"int main(){std::string ntpTime = "";char curBuf[64] = {0};struct timeval cur;tm local;NtpClient client;client.GetNtpTime(ntpTime);cout << "ntpTime: " << ntpTime << endl;gettimeofday(&cur, NULL);local = localtime((time_t )&cur.tv_sec);strftime(curBuf, 64, "%Y-%m-%d %H:%M:%S", local);std::string curTime = std::string(curBuf);cout << "curTime: " << curTime << endl;if (curTime != ntpTime){cout << "start time calibrate!" << endl;std::string cmd = "sudo date -s \"" + ntpTime + "\"";system(cmd.c_str());cout << "cmd: " << cmd << endl;}else{cout << "time seem" << endl;}return 0;} 推荐一个零声学院免费教程,个人觉得老师讲得不错, 分享给大家:[Linux,Nginx,ZeroMQ,MySQL,Redis, fastdfs,MongoDB,ZK,流媒体,CDN,P2P,K8S,Docker, TCP/IP,协程,DPDK等技术内容,点击立即学习: 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_46935110/article/details/129683157。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-03-01 12:56:47
112
转载
转载文章
...入理解Docker的命令,还有容器(container)和镜像(image)之间的区别,并深入探讨容器和运行中的容器之间的区别。 当我对Docker技术还是一知半解的时候,我发现理解Docker的命令非常困难。于是,我花了几周的时间来学习Docker的工作原理,更确 切地说,是关于Docker统一文件系统(the union file system)的知识,然后回过头来再看Docker的命令,一切变得顺理成章,简单极了。 题外话:就我个人而言,掌握一门技术并合理使用它的最好办法就是深入理解这项技术背后的工作原理。通常情况 下,一项新技术的诞生常常会伴随着媒体的大肆宣传和炒作,这使得用户很难看清技术的本质。更确切地说,新技术总是会发明一些新的术语或者隐喻词来帮助宣 传,这在初期是非常有帮助的,但是这给技术的原理蒙上了一层砂纸,不利于用户在后期掌握技术的真谛。 Git就是一个很好的例子。我之前不能够很好的使用Git,于是我花了一段时间去学习Git的原理,直到这时,我才真正明白了Git的用法。我坚信只有真正理解Git内部原理的人才能够掌握这个工具。 Image Definition 镜像(Image)就是一堆只读层(read-only layer)的统一视角,也许这个定义有些难以理解,下面的这张图能够帮助读者理解镜像的定义。 从左边我们看到了多个只读层,它们重叠在一起。除了最下面一层,其它层都会有一个指针指向下一层。这些层是Docker内部的实现细节,并且能够 在主机(译者注:运行Docker的机器)的文件系统上访问到。统一文件系统(union file system)技术能够将不同的层整合成一个文件系统,为这些层提供了一个统一的视角,这样就隐藏了多层的存在,在用户的角度看来,只存在一个文件系统。 我们可以在图片的右边看到这个视角的形式。 你可以在你的主机文件系统上找到有关这些层的文件。需要注意的是,在一个运行中的容器内部,这些层是不可见的。在我的主机上,我发现它们存在于/var/lib/docker/aufs目录下。 sudo tree -L 1 /var/lib/docker/ /var/lib/docker/├── aufs├── containers├── graph├── init├── linkgraph.db├── repositories-aufs├── tmp├── trust└── volumes7 directories, 2 files Container Definition 容器(container)的定义和镜像(image)几乎一模一样,也是一堆层的统一视角,唯一区别在于容器的最上面那一层是可读可写的。 细心的读者可能会发现,容器的定义并没有提及容器是否在运行,没错,这是故意的。正是这个发现帮助我理解了很多困惑。 要点:容器 = 镜像 + 可读层。并且容器的定义并没有提及是否要运行容器。 接下来,我们将会讨论运行态容器。 Running Container Definition 一个运行态容器(running container)被定义为一个可读写的统一文件系统加上隔离的进程空间和包含其中的进程。下面这张图片展示了一个运行中的容器。 正是文件系统隔离技术使得Docker成为了一个前途无量的技术。一个容器中的进程可能会对文件进行修改、删除、创建,这些改变都将作用于可读写层(read-write layer)。下面这张图展示了这个行为。 我们可以通过运行以下命令来验证我们上面所说的: docker run ubuntu touch happiness.txt 即便是这个ubuntu容器不再运行,我们依旧能够在主机的文件系统上找到这个新文件。 find / -name happiness.txt /var/lib/docker/aufs/diff/860a7b...889/happiness.txt Image Layer Definition 为了将零星的数据整合起来,我们提出了镜像层(image layer)这个概念。下面的这张图描述了一个镜像层,通过图片我们能够发现一个层并不仅仅包含文件系统的改变,它还能包含了其他重要信息。 元数据(metadata)就是关于这个层的额外信息,它不仅能够让Docker获取运行和构建时的信息,还包括父层的层次信息。需要注意,只读层和读写层都包含元数据。 除此之外,每一层都包括了一个指向父层的指针。如果一个层没有这个指针,说明它处于最底层。 Metadata Location: 我发现在我自己的主机上,镜像层(image layer)的元数据被保存在名为”json”的文件中,比如说: /var/lib/docker/graph/e809f156dc985.../json e809f156dc985...就是这层的id 一个容器的元数据好像是被分成了很多文件,但或多或少能够在/var/lib/docker/containers/<id>目录下找到,<id>就是一个可读层的id。这个目录下的文件大多是运行时的数据,比如说网络,日志等等。 全局理解(Tying It All Together) 现在,让我们结合上面提到的实现细节来理解Docker的命令。 docker create <image-id> docker create 命令为指定的镜像(image)添加了一个可读写层,构成了一个新的容器。注意,这个容器并没有运行。 docker start <container-id> Docker start命令为容器文件系统创建了一个进程隔离空间。注意,每一个容器只能够有一个进程隔离空间。 docker run <image-id> 看到这个命令,读者通常会有一个疑问:docker start 和 docker run命令有什么区别。 从图片可以看出,docker run 命令先是利用镜像创建了一个容器,然后运行这个容器。这个命令非常的方便,并且隐藏了两个命令的细节,但从另一方面来看,这容易让用户产生误解。 题外话:继续我们之前有关于Git的话题,我认为docker run命令类似于git pull命令。git pull命令就是git fetch 和 git merge两个命令的组合,同样的,docker run就是docker create和docker start两个命令的组合。 docker ps docker ps 命令会列出所有运行中的容器。这隐藏了非运行态容器的存在,如果想要找出这些容器,我们需要使用下面这个命令。 docker ps –a docker ps –a命令会列出所有的容器,不管是运行的,还是停止的。 docker images docker images命令会列出了所有顶层(top-level)镜像。实际上,在这里我们没有办法区分一个镜像和一个只读层,所以我们提出了top-level 镜像。只有创建容器时使用的镜像或者是直接pull下来的镜像能被称为顶层(top-level)镜像,并且每一个顶层镜像下面都隐藏了多个镜像层。 docker images –a docker images –a命令列出了所有的镜像,也可以说是列出了所有的可读层。如果你想要查看某一个image-id下的所有层,可以使用docker history来查看。 docker stop <container-id> docker stop命令会向运行中的容器发送一个SIGTERM的信号,然后停止所有的进程。 docker kill <container-id> docker kill 命令向所有运行在容器中的进程发送了一个不友好的SIGKILL信号。 docker pause <container-id> docker stop和docker kill命令会发送UNIX的信号给运行中的进程,docker pause命令则不一样,它利用了cgroups的特性将运行中的进程空间暂停。具体的内部原理你可以在这里找到:https://www.kernel.org/doc/Doc ... m.txt,但是这种方式的不足之处在于发送一个SIGTSTP信号对于进程来说不够简单易懂,以至于不能够让所有进程暂停。 docker rm <container-id> docker rm命令会移除构成容器的可读写层。注意,这个命令只能对非运行态容器执行。 docker rmi <image-id> docker rmi 命令会移除构成镜像的一个只读层。你只能够使用docker rmi来移除最顶层(top level layer)(也可以说是镜像),你也可以使用-f参数来强制删除中间的只读层。 docker commit <container-id> docker commit命令将容器的可读写层转换为一个只读层,这样就把一个容器转换成了不可变的镜像。 docker build docker build命令非常有趣,它会反复的执行多个命令。 我们从上图可以看到,build命令根据Dockerfile文件中的FROM指令获取到镜像,然后重复地1)run(create和start)、2)修改、3)commit。在循环中的每一步都会生成一个新的层,因此许多新的层会被创建。 docker exec <running-container-id> docker exec 命令会在运行中的容器执行一个新进程。 docker inspect <container-id> or <image-id> docker inspect命令会提取出容器或者镜像最顶层的元数据。 docker save <image-id> docker save命令会创建一个镜像的压缩文件,这个文件能够在另外一个主机的Docker上使用。和export命令不同,这个命令为每一个层都保存了它们的元数据。这个命令只能对镜像生效。 docker export <container-id> docker export命令创建一个tar文件,并且移除了元数据和不必要的层,将多个层整合成了一个层,只保存了当前统一视角看到的内容(译者注:expoxt后 的容器再import到Docker中,通过docker images –tree命令只能看到一个镜像;而save后的镜像则不同,它能够看到这个镜像的历史镜像)。 docker history <image-id> docker history命令递归地输出指定镜像的历史镜像。 参考: http://www.cnblogs.com/bethal/p/5942369.html 本篇文章为转载内容。原文链接:https://blog.csdn.net/u010098331/article/details/53485539。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-11-26 15:47:20
538
转载
转载文章
...容。 目录 一.账号安全基本措施 1.系统账号清理 二.密码安全控制: 1.设置密码有效期: 2.要求用户下次登录时改密码 三.命令历史限制与自动注销 1.命令历史限制: 2.终端自动注销: 四.PAM安全认证 1.su的命令的安全隐患 2.什么是PAM 3.PAM认证原理 4.PAM安全认证流程 五.限制使用su命令的用户(pam-wheel认证模块) 1.su命令概述: 2. su命令的用途以及用法: 3.配置su的授权(加入wheel组)(pam_wheel认证模块:): 4.配置/etc/sudoers文件(授权用户较多的时候使用): 六.开关机安全控制 1.调整BIOS引导设置 2.GRUB限制 七.终端以及登录控制 1.限制root只在安全终端登录 2..禁止普通用户登录 八.系统弱口令检测 1.JOHN the Ripper,简称为JR 2.安装弱口令账号 3.密码文件的暴力破解 九.网络端口扫描 1.NMAP 2.格式 总结: 一.账号安全基本措施 1.系统账号清理 1.将非登录用户的Shell设为/sbin/nologin (ps:在我们使用Linux系统时,除了用户创建的账号之外,还会产生系统或程序安装过程中产生的许多其他账号,除了超级用户root外,其他账号都是用来维护系统运作的,一般不允许登录,常见的非登录用户有bin、adm、mail、lp、nobody、ftp等。) 格式:usermod -s /sbin/nologin 用户名 2锁定长期不使用的账号: [root@hehe ~] usermod -L test2 锁定用户账号方法一[root@hehe ~] passwd -l test3 锁定用户账号方法二[root@hehe ~] usermod -U test2 解锁用户账号方法一[root@hehe~] passwd -u test3 解锁用户账号方法二查看账户有没有被锁:passwd -S [用户名] 3.删除无用的账号 [root@hehe ~] userdel test1[root@hehe~] userdel -r test2 4.锁定账号文件passwd,shadow [root@hehe ~] chattr +i /etc/passwd /etc/shadow 锁定文件,包括root也无法修改[root@hehe ~] chattr -i /etc/passwd /etc/shadow 解锁文件[root@hehe ~] lsattr /etc/passwd /etc/shadow查看文件状态属性 举个例子: 二.密码安全控制: 1.设置密码有效期: 1.[root@localhost ~] chage -M 60 test3 这种方法适合修改已经存在的用户12.[root@localhost ~] vim /etc/login.defs 这种适合以后添加新用户PASS_MAX_DAYS 30 1.这个方法适用于早就已经存在的用户: 2.这个方法适用于新用户 2.要求用户下次登录时改密码: [root@hehe ~] chage -d 0 [用户名] 强制要求用户下次登陆时修改密码 三.命令历史限制与自动注销 1.命令历史限制: 1.减少记录的命令条数 减少记录命令的条数:1.[root@hehe ~] vim /etc/profile 进入配置文件修改限制命令条数。适合新用户HISTSIZE=200 修改限制命令为200条,系统默认是1000条profile [root@lhehe ~] source /etc/ 刷新配置文件,使文件立即生效2.[root@hehe~] export HISTSIZE=200 适用于当前(之后)用户[root@hehe~] source /etc/profile [root@hehe ~] source /etc/profile 刷新配置文件,使文件立即生效 1.减少记录命令的条数(适用之前的用户): 2.注销时自动清空命令历史 3. 注销时自动清空命令:[root@hehe ~] vim ~/.bash_logout(临时清除,重启缓存的话还在)echo "" > ~/.bash_history(永久删除)history是查你使用过的命令 2.终端自动注销: 1.闲置600秒后自动注销 闲置600秒后自动注销:[root@hehe ~]vim .bash_profile 进入配置文件export TMOUT=600 全局声明超过60秒闲置后自动注销终端[root@hehe ~] source .bash_profile [root@hehe ~] echo $TMOUT[root@hehe ~] export TMOUT=600 如果不在配置文件输入这条命令,那么是对当前用户生效[root@hehe ~]vim .bash_profile export TMOUT=600 注释掉这条命令,就不会自动注销了 四.PAM安全认证 1.su的命令的安全隐患 1.,默认情况下,任何用户都允许使用su命令,有机会反复尝试其他用户(如root) 的登录密码,带来安全风险; 2.为了加强su命令的使用控制,可借助于PAM认证模块,只允许极个别用户使用su命令进行切换。 2.什么是PAM 1.PAM(Pluggable Authentication Modules)可插拔式认证模块 2.是一种高效而且灵活便利的用户级别的认证方式; 3.也是当前Linux服务器普遍使用的认证方式。 4.PAM提供了对所有服务进行认证的中央机制,适用于login,远程登陆,su等应用 5.系统管理员通过PAM配置文件来制定不同的应用程序的不同认证策略 3.PAM认证原理 1.PAM认证一般遵循的顺序: Service (服务) --> PAM (配置文件) --> pam_.so;, 2.PAM认证首先要确定哪一项应用服务,然后加载相应的PAM的配置文件(位于/etc/pam.d下),最后调用认 模块(位于/lib64/security/下)进行安全认证。 3.用户访问服务器的时候,服务器的某一个服务程序把用户的请求发送到PAM模块进行认证。不同的应用程序所对应的PAM模块也是不同的。 4.如果想查看某个程序是否支持PAM认证,可以用ls命令进行查看/etc/pam.d/。 ls /etc/pam.d/ | grep su 5.PAM的配置文件中的每一行都是一个独立的认证过程,它们按从上往下的顺序依次由PAM模块调用。 4.PAM安全认证流程 控制类型也称做Control Flags,用于PAM验证类型的返回结果 用户1 用户2 用户3 用户4 auth required 模块1 pass fail pass pass auth sufficient 模块2 pass pass fail pass auth required 模块3 pass pass pass fail 结果 pass fail pass pass 4 五.限制使用su命令的用户(pam-wheel认证模块) 1.su命令概述: 通过su命令可以非常方便切换到另一个用户,但前提条件是必须知道用户登录密码。对于生产环境中的Linux服务器,每多一个人知道特权密码,安全风险就多一分。于是就多了一种折中的办法,使用sudo命令提升执行权限,不过需要由管理员预先进行授权, 指定用户使用某些命令: 2. su命令的用途以及用法: 用途:以其他用户身份(如root)执行授权命令用法:sudo 授权命令 3.配置su的授权(加入wheel组)(pam_wheel认证模块:): 进入授权命令:1.visudo 或者 vim /etc/sudoers语法格式:1.用户 主机名=命令程序列表2.用户 主机名=(用户)命令程序列表-l:列出用户在主机上可用的和被禁止的命令;一般配置好/etc/sudoers后,要用这个命令来查看和测试是不是配置正确的;-v:验证用户的时间戳;如果用户运行sudo后,输入用户的密码后,在短时间内可以不用输入口令来直接进行sudo操作;用-v可以跟踪最新的时间戳;-u:指定以以某个用户执行特定操作;-k:删除时间戳,下一个sudo命令要求用求提供密码; 1.首先创建3个组 2.vim /etc/pam.d/su把第六行注释去掉保存退出 1. 以上两行是默认状态(即开启第一行,注释第二行),这种状态下是允许所有用户间使用su命令进行切换的 2.两行都注释也是运行所有用户都能使用su命令,但root下使用su切换到其他普通用户需要输入密码: 3.如果第–行不注释,则root 使用su切换普通用户就不需要输入密码( pam_ rootok. so模块的主要作用是使uid为0的用户,即root用户能够直接通过认证而不用输入密码。) 4.如果开启第二行,表示只有root用户和wheel1组内的用户才可以使用su命令。 5.如果注释第一行,开启第二行,表示只有whee1组内的用户才能使用su命令,root用户也被禁用su命令。 3.将liunan加入到wheel之后,hehe就有了使用su命令的权限 4.使用pam_wheel认证后,没有在wheel里的用户都不能再用su 5.whoami命令确定当前用户是谁 4.配置/etc/sudoers文件(授权用户较多的时候使用): visudo单个授权visudo 或者 vim /etc/sudoers记录格式:user MACHINE=COMMANDS可以使用通配符“ ”号任意值和“ !”号进行取反操作。%组名代表一整个组权限生效后,输入密码后5分钟可以不用重新输入密码。例如:visudo命令下user kiro=(root)NOPASSWD:/usr/sbin/useradd,PASSWD:/usr/sbin/usermod代表 kiro主机里的user用户,可以无密码使用useradd命令,有密码使用usermod/etc/sudoers多个授权Host_Alias MYHOST= localhost 主机别名:主机名、IP、网络地址、其他主机别名!取反Host_Alias MAILSVRS=smtp,pop(主机名)User_Alias MYUSER = kiro,user1,lisi 用户别名:包含用户、用户组(%组名(使用引导))、还可以包含其他其他已经用户的别名User_Alias OPERATORS=zhangsan,tom,lisi(需要授权的用户)Cmnd_Alias MYCMD = /sbin/,/usr/bin/passwd 命令路劲、目录(此目录内的所有命令)、其他事先定义过的命令别名Cmnd_Alias PKGTOOLS=/bin/rpm,/usr/bin/yum(授权)MYUSER MYHOST = NOPASSWD : MYCMDDS 授权格式sudo -l 查询目前sudo操作查看sudo操作记录需启用Defaults logfile配置默认日志文件: /var/log/sudosudo -l 查看当前用户获得哪些sudo授权(启动日志文件后,sudo操作过程才会被记录) 1.首先用visudo 或者 vim /etc/sudoers进入,输入需要授权的命令 2.切换到taojian用户,因为设置了它不能使用创建用户的命令所以无法创建 六.开关机安全控制 1.调整BIOS引导设置 1.将第一引导设备设为当前系统所在硬盘2.禁止从其他设备(光盘、U盘、网络)引导系统3.将安全级别设为setup,并设置管理员密码 2.GRUB限制 1.使用grub2-mkpasswd-pbkdf2生成密钥2.修改/etclgrub.d/00_header文件中,添加密码记录3.生成新的grub.cfg配置文件 方法一: 通常情况下在系统开机进入GRUB菜单时,按e键可以查看并修改GRUB引导参数,这对服务器是一个极大的威胁。可以为GRUB菜单设置一个密码,只有提供正确的密码才被允许修改引导参数。grub2-mkpasswd-pbkdf2 根据提示设置GRUB菜单的密码PBKDF2 hash of your password is grub.pbkd..... 省略部分内容为经过加密生成的密码字符串cp /boot/grub2/grub.cfg /boot/grub2/grub.cfg.bak 8cp /etc/grub.d/00_header /etc/grub.d/00_header.bak 9vim /etc/grub.d/00_headercat << EOFset superusers="root" 设置用户名为rootpassword_pbkdf2 root grub.pbkd2..... 设置密码,省略部分内容为经过加密生成的密码字符串EOF16grub2-mkconfig -o /boot/grub2/grub.cfg 生成新的grub.cfg文件重启系统进入GRUB菜单时,按e键将需要输入账号密码才能修改引导参数。 方法二: 1.一步到位2.grub2-setpassword 七.终端以及登录控制 1.限制root只在安全终端登录 安全终端配置文件在 /etc/securetty 2..禁止普通用户登录 1.建立/etc/nologin文件 2.删除nologin文件或重启后即恢复正常 vim /etc/securetty在端口前加号拒绝访问touch /etc/nologin 禁止普通用户登录rm -rf /etc/nologin 取消禁止 八.系统弱口令检测 1.JOHN the Ripper,简称为JR 1.一款密码分析工具,支持字典式的暴力破解2.通过对shadow文件的口令分析,可以检测密码强度3.官网网站:http://www.openwall.com/john/ 2.安装弱口令账号 1.获得Linux/Unix服务器的shadow文件2.执行john程序,讲shadow文件作为参数 3.密码文件的暴力破解 1.准备好密码字典文件,默认为password.lst2.执行john程序,结合--wordlist=字典文件 九.网络端口扫描 1.NMAP 1.—款强大的网络扫描、安全检测工具,支持ping扫描,多端口检测等多种技术。2.官方网站: http://nmap.orgl3.CentOS 7.3光盘中安装包,nmap-6.40-7.el7.x86_64.rpm 2.格式 NMAP [扫描类型] [选项] <扫描目标....> 安装NMAP软件包rpm -qa | grep nmapyum install -y nmapnmap命令常用的选项和扫描类型-p:指定扫描的端口。-n:禁用反向DNS 解析 (以加快扫描速度)。-sS:TCP的SYN扫描(半开扫描),只向目标发出SYN数据包,如果收到SYN/ACK响应包就认为目标端口正在监听,并立即断开连接;否则认为目标端口并未开放。-sT:TCP连接扫描,这是完整的TCP扫描方式(默认扫描类型),用来建立一个TCP连接,如果成功则认为目标端口正在监听服务,否则认为目标端口并未开放。-sF:TCP的FIN扫描,开放的端口会忽略这种数据包,关闭的端口会回应RST数据包。许多防火墙只对SYN数据包进行简单过滤,而忽略了其他形式的TCP attack 包。这种类型的扫描可间接检测防火墙的健壮性。-sU:UDP扫描,探测目标主机提供哪些UDP服务,UDP扫描的速度会比较慢。-sP:ICMP扫描,类似于ping检测,快速判断目标主机是否存活,不做其他扫描。-P0:跳过ping检测,这种方式认为所有的目标主机是存活的,当对方不响应ICMP请求时,使用这种方式可以避免因无法 ping通而放弃扫描。 总结: 1.账号基本安全措施:系统账号处理、密码安全控制、命令历史清理、自动注销 2.用户切换与提权(su、sudo) 3.开关机安全控制(BIOS引导设置、禁止Ctrl+Alt+Del快捷键、GRUB菜单设置密码) 4.终端控制 5.弱口令检测——John the Ripper 6.端口扫描——namp 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_67474417/article/details/123982900。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-05-07 23:37:44
95
转载
转载文章
...上一个恢复方案用到的命令的本来目的。在DB完好的时候执行.dump, 把 DB所有内容输出为 SQL语句,达到备份目的,恢复的时候执行SQL即可。 Backup API: SQLite自身提供的一套备份机制,按 Page 为单位复制到新 DB, 支持热备份。 综合思路:备份master表+数据导出 WCDB框架: 数据库完整时备份master表,数据库损坏时通过使用已备份的master表读取损坏数据库来恢复数据。成功率大概是70%。缺点在于我们目前项目使用的是CoreData框架,迁移成本非常的高。没有办法使用。 补救措施选型原则: 这么多的方案孰优孰劣?作为一个移动APP,我们追求的就是用户体验,根据资料推断只有万分之一不到的用户会发生DB损坏,不能为了极个别牺牲全体用户的体验。不影响用户体验的方法就是好方案。主要考量指标如下: 一:恢复成功率 由于牵涉到用户核心数据,“姑且一试”的方案是不够的,虽说 100% 成功率不太现实,但 90% 甚至 99% 以上的成功率才是我们想要的。 二:备份大小: 原本用户就可能有2GB 大的 DB,如果备份数据本身也有2GB 大小,用户想必不会接受。 三:备份性能: 性能则主要影响体验和备份成功率,作为用户不感知的功能,占用太多系统资源造成卡顿 是不行的,备份耗时越久,被系统杀死等意外事件发生的概率也越高。 数据导出方案考量: 恢复成功率大概是30%。不需要事先备份,故备份大小和备份性能都是最优的。 备份方案考量: 备份方案的理论恢复成功率都为100%,需要考量的即为备份大小和性能。 拷贝:备份大小等于原文件大小。备份性能最好,直接拷贝文件,不需要运算。 Backup API: 备份大小等于原文件大小。备份性能最差,原因是热备份,需要用到锁机制。 .dump:因为重新进行了排序,备份大小小于原文件。备份性能居中,需要遍历数据库生成语句。 可以看出,比较折中的选择是 Dump ,备份大小具有明显优势,备份性能尚可,恢复性能较差但由于需要恢复的场景较少,算是可以接受的短板。 深入钻研 即使优化后的方案,对于大DB备份也是耗时耗电,对于移动APP来说,可能未必有这样的机会做这样重度的操作,或者频繁备份会导致卡顿和浪费使用空间。 备份思路的高成本迫使我们从另外的方案考虑,于是我们再次把注意力放在之前的Dump方案。 Dump 方案本质上是尝试从坏DB里读出信息,这个尝试一般来说会出现两种结果: DB的基本格式仍然健在,但个别数据损坏,读到损坏的地方SQLite返回SQLITE_CORRUPT错误, 但已读到的数据得以恢复。 基本格式丢失(文件头或sqlite_master损坏),获取有哪些表的时候就返回SQLITE_CORRUPT, 根本没法恢复。 第一种可以算是预期行为,毕竟没有损坏的数据能部分恢复。从成功率来看,不少用户遇到的是第二种情况,这种有没挽救的余地呢? 要回答这个问题,先得搞清楚sqlite_master是什么。它是一个每个SQLite DB都有的特殊的表, 无论是查看官方文档Database File Format,还是执行SQL语句 SELECT FROM sqlite_master;,都可得知这个系统表保存以下信息: 表名、类型(table/index)、 创建此表/索引的SQL语句,以及表的RootPage。sqlite_master的表名、表结构都是固定的, 由文件格式定义,RootPage 固定为 page 1。 正常情况下,SQLite 引擎打开DB后首次使用,需要先遍历sqlite_master,并将里面保存的SQL语句再解析一遍, 保存在内存中供后续编译SQL语句时使用。假如sqlite_master损坏了无法解析,“Dump恢复”这种走正常SQLite 流程的方法,自然会卡在第一步了。为了让sqlite_master受损的DB也能打开,需要想办法绕过SQLite引擎的逻辑。 由于SQLite引擎初始化逻辑比较复杂,为了避免副作用,没有采用hack的方式复用其逻辑,而是决定仿造一个只可以 读取数据的最小化系统。 虽然仿造最小化系统可以跳过很多正确性校验,但sqlite_master里保存的信息对恢复来说也是十分重要的, 特别是RootPage,因为它是表对应的B-tree结构的根节点所在地,没有了它我们甚至不知道从哪里开始解析对应的表。 sqlite_master信息量比较小,而且只有改变了表结构的时候(例如执行了CREATE TABLE、ALTER TABLE 等语句)才会改变,因此对它进行备份成本是非常低的,一般手机典型只需要几毫秒到数十毫秒即可完成,一致性也容易保证, 只需要执行了上述语句的时候重新备份一次即可。有了备份,我们的逻辑可以在读取DB自带的sqlite_master失败的时候 使用备份的信息来代替。 到此,初始化必须的数据就保证了,可以仿造读取逻辑了。我们常规使用的读取DB的方法(包括dump方式恢复), 都是通过执行SQL语句实现的,这牵涉到SQLite系统最复杂的子系统——SQL执行引擎。我们的恢复任务只需要遍历B-tree所有节点, 读出数据即可完成,不需要复杂的查询逻辑,因此最复杂的SQL引擎可以省略。同时,因为我们的系统是只读的, 写入恢复数据到新 DB 只要直接调用 SQLite 接口即可,因而可以省略同样比较复杂的B-tree平衡、Journal和同步等逻辑。 最后恢复用的最小系统只需要: VFS读取部分的接口(Open/Read/Close),或者直接用stdio的fopen/fread、Posix的open/read也可以 B-tree解析逻辑 Database File Format 详细描述了SQLite文件格式, 参照之实现B-tree解析可读取 SQLite DB。 实现了上面的逻辑,就能读出DB的数据进行恢复了,但还有一个小插曲。我们知道,使用SQLite查询一个表, 每一行的列数都是一致的,这是Schema层面保证的。但是在Schema的下面一层——B-tree层,没有这个保证。 B-tree的每一行(或者说每个entry、每个record)可以有不同的列数,一般来说,SQLite插入一行时, B-tree里面的列数和实际表的列数是一致的。但是当对一个表进行了ALTER TABLE ADD COLUMN操作, 整个表都增加了一列,但已经存在的B-tree行实际上没有做改动,还是维持原来的列数。 当SQLite查询到ALTER TABLE前的行,缺少的列会自动用默认值补全。恢复的时候,也需要做同样的判断和支持, 否则会出现缺列而无法插入到新的DB。 解析B-tree方案上线后,成功率约为78%。这个成功率计算方法为恢复成功的 Page 数除以总 Page 数。 由于是我们自己的系统,可以得知总 Page 数,使用恢复 Page 数比例的计算方法比人数更能反映真实情况。 B-tree解析好处是准备成本较低,不需要经常更新备份,对大部分表比较少的应用备份开销也小到几乎可以忽略, 成功恢复后能还原损坏时最新的数据,不受备份时限影响。 坏处是,和Dump一样,如果损坏到表的中间部分,比如非叶子节点,将导致后续数据无法读出。 落地实践: 剥离封装RepairKit: 从WCDB框架中,剥离修复组件,并且封装其C++的原始API为OC管理类。 备份 master 表的时机: 我们发现 SQLite 里面 B+树 算法的实现是 向下分裂 的,也就是说当一个叶子页满了需要分裂时,原来的叶子页会成为内部节点,然后新申请两个页作为他的叶子页。这就保证了根节点一旦下来,是再也不会变动的。master 表只会在新创建表或者删除一个表时才会发生变化,而CoreData的机制表明每一次数据库的变动都要改动版本标识,那么我通过缓存和查询版本标识的变动来确定何时进行备份,避免频繁备份。 备份文件有效性: 既然 DB 可以损坏,那么这个备份文件也会损坏,怎么办呢?我用了双备份,每一个版本备份两个文件,如果一个备份恢复失败,就会启动另一个备份文件恢复。 介入恢复时机: 当CoreData初始化SQLite前,校验SQLite的Head完整性,如果不完整,进行介入修复。 经过我深入研究证明了这已经是最佳做法。 本篇文章为转载内容。原文链接:https://blog.csdn.net/a66666225/article/details/81637368。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-11-23 18:22:40
127
转载
转载文章
...入是一种常见的Web应用程序安全漏洞,攻击者通过在输入字段中插入恶意的SQL代码来欺骗服务器执行非授权操作。在文章的上下文中,攻击者发现靶机上的web应用存在SQL注入漏洞,并通过构造特定的SQL查询语句(如\ x or 1=1\ )成功获取了所有用户信息,说明该应用没有对用户输入进行充分的过滤和转义处理,导致攻击者可以操纵数据库查询并获取敏感数据。 php-reverse-shell.php , php-reverse-shell.php是一个预编译的PHP脚本,用于建立一个从目标服务器回连到攻击者控制主机的反向Shell通道。在渗透测试场景中,当攻击者发现web应用存在文件上传漏洞时,会利用这个脚本将它上传到靶机,并修改其中的IP地址和端口号以指向攻击者的监听位置。一旦受害者触发或访问被上传的恶意PHP文件,攻击者就能获得一个命令行交互界面,从而实现对靶机的远程控制。 MD5解密 , MD5(Message-Digest Algorithm 5)是一种广泛使用的密码散列函数,它可以产生一个固定长度、唯一代表原始输入信息的128位散列值。在本文中,超级管理员的密码经过MD5加密存储在数据库中。为了破解密码,攻击者需要使用在线MD5解密工具或字典库尝试匹配原始明文。在实战中,攻击者成功解密出MD5哈希值对应的密码为\ Uncrackable\ ,这表明该系统在密码保护方面可能存在不足,即未采取更安全的加盐哈希或其他复杂加密方式。
2023-01-02 12:50:54
497
转载
转载文章
...显示某文件内容 – sudo :临时切换root用户 sudo apt-get install 软件名 :装某软件 sudo su:直接切换root用户(少用) sudo su jl:切换回普通用户 – touch 文件名:创建文件 rm -r 目录/文件:删除文件/目录及它包含的所有内容 rm -f 文件:直接删除,无需确认 rm -i 文件:删除文件,会逐一询问是否删除 rmdir 目录:专门删除目录 mv :可以用来移动文件/目录,也可以用来重命名 – ifconfig:显示网络配置信息(lo:本地回环测试) ifconfig -a:显示所有网卡(上面只显示工作的,本条显示所有工作和未工作的) ifconfig eth0 up:打开eth0这个网卡 ifconfig eth0 down:关闭eth0这个网卡(0一般要sudo来执行) ifconfig eth0 你想设置的地址:重设eth0的ip地址 – 命令 --help:看看这个命令的帮助信息 reboot:重启 – sync:数据同步写入磁盘命令(一般来说,用户写的内容先保存在一个缓冲区,系统是隔一定时间像磁盘写入缓冲区内写入磁盘),用sync立刻写入 grep ”“ -i :搜索时忽略大小写 grep 默认是匹配字符, -w 选项默认匹配一个单词 例如我想匹配 “like”, 不加 -w 就会匹配到 “liker”, 加 -w 就不会匹配到 du 目录/文件 -sh : 查看某一文件/目录的大小,也可以到一个目录下du -sh,查看这个目录的大小 目录下使用du -sh 查看目录总的大小 du 文件名 -sh 查看指定文件的大小 df:检查linux服务器的文件系统磁盘空间占用情况,默认以kb为单位 gedit 文件:使用gedit软件打开一个文件(类似于windows下面的记事本) ps:查看您当前系统有哪些进程,ubuntu(多用户)下是ps -aux,嵌入式linux(单用户)下面是ps top:进程实时运行状态查询 file 文件名:查看文件类型 ubuntu的fs cd / :根目录,一切都是从根目录发散开来的 /bin:存放二进制可执行文件,比如一些命令 /boot:ubuntu的内核与启动文件 /cdrom:有光盘是存放光盘文件 /dev:存放设备驱动文件 /etc:存放配置文件,如账号和密码文件(加密后的) /home:系统默认的用户主文件夹 /lib:存放库文件 /lib64:存放库文件,. so时linux下面的动态库文件 /media:存放可插拔设备,如sd,u盘就是挂载到这个文件下面 /mnt:用户可使用的挂载点,和media类似,可以手动让可插拔设备挂载到/mnt /opt:可选的文件和程序存放目录,给第三方软件放置的目录 /proc:存放系统的运行信息,实在内存上的不是在flash上,如cat /proc/cpuinfo /root:系统管理员目录,root用户才能访问的文件 /sbin:和bin类似,存放一些二进制可执行文件,sbin下面一般是系统开机过程中所需要的命令 /srv:服务相关的目录,如网络服务 /sys:记录内核信息,是虚拟文件系统 /tmp:临时目录 /usr:不是user的缩写,而是UNIX Software Resource的缩写,存放系统用户有关的文件,占很大空间 /var:存放变化的文件,如日志文件 – 移植就是移植上面这些文件 磁盘管理 linux开发一定要选用FAT32格式的U盘或者SD卡 u盘在/dev中的名字是sd,要确定是哪个,拔了看少了哪个。就是哪个 /dev/sdb表示U盘,/dev/sdb1表示U盘的第一个分区,一般U盘 sd卡只有一个分区 df:显示linux系统的磁盘占用情况 在一个目录里使用du -sh:查看这个目录里面所有内容所占用的资源 du 文件名 -sh:一般用来看单个文件/目录的大小 du -h --max-depth=n:显示n级目录的大小 – 磁盘的挂载与取消挂载: mount 和 umount sudo mount /dev/sdb1 /media/jl/udisk sudo umount /media/jl/u盘名 (-f 强制取消挂载),如果u盘正在使用,如被另一个终端打开,那么该指令无效 mount挂载后中文显示乱码的解决方法 sudo mount -o iocharset=utf8 /dev/sdb1 udisk – 磁盘的分区和格式化 sudo fdisk -l /dev/sdb 查看所有分区信息(–help查看别的用法) sudo fdisk /dev/sdb1 ----> m ( 进入帮助 ) ----> d 删除该分区 ----> wq 保存并退出 mkfs -t vfat /dev/sdb1 mkfs -t vfat /dev/sdb2 mkfs -t vfat /dev/sdb3 给分区1,2,3分别格式化,完成后能在图形界面看见三个u盘图标 格式化u盘之前一定要先卸载u盘已经挂载的系统。 – 压缩和解压缩 linux下常用的压缩扩展名: .tar .tar.bz2 .tar.gz 后两个linux常用 windows下面用7zip软件 右键选中文件,选择7zip,添加到压缩包,压缩格式选择tar,仅存储 生成tar文件,这里只是打包,没有压缩 右键上面的tar文件,选择7zip,添加到压缩包,压缩格式选择bzip2,确定 生成.tar.bz2文件,把它放到ubuntu解压 ubuntu也支持解压.tar和.zip,但后面两个常用 – ubuntu下面的压缩工具时gzip 压缩文件 gzip 文件名:压缩文件,变成 原文件名.gz,原来的文件就不见了 解压缩文件 gzip -d .gz:还原 文件 gzip -r 目录:递归,将该目录里的各个文件压缩,不提供打包服务 – bzip2工具负责压缩和解压缩.bz2格式的压缩包 bzip2 -z 文件名,压缩成 文件名.bz2 bzip2 -d 文件名.bz2,解压缩成 文件名 bzip2不能压缩/解压缩 目录 – 打包工具 tar 常用参数 -f:使用归档文件(必须要在所有选项后面) -c:创建一个新归档 -x:从归档中解出文件 -j:使用bzip2压缩格式 -z:使用gzip压缩格式 -v:打印出命令执行过程 如以bzip2格式压缩,打包 tar -vcjf 目录名.tar.bz2 目录名 如将上面的压缩包解包 tar -vxjf 目录名.tar.bz2 – 其他压缩工具 rar工具 sudo apt-get install rar(用dhcp连不上阿里云的镜像) rar a test.rar test 把test压缩成test.rar rar x test.rar 把test.rar解压缩成test – zip工具 压缩 zip -rv test.zip test 解压缩 unzip test.zip – ubuntu的用户和用户组 linux是多用户的os,不同的用户有不同的权限,可以查看和操作不同的文件 有三种用户 1、初次用户 2、root用户 3、普通用户 root用户可以创建普通用户 linux用户记录在/etc/passwd这个文件内 linux用户密码记录在/etc/shadow这个文件内,不是以明文记录的 每个用户都有一个id,叫做UID – linux用户组 为了方便管理,将用户进行分组,每个用户可以属于多个组 可以设置非本组人员不能访问一些文件 用户和用户组的存在就是为了控制文件的访问权限的 每个用户组都有一个ID,叫做GID 用户组信息存储在/etc/group中 passwd 用户名:修改该用户的密码 – ubuntu文件权限 ls -al 文件名 如以b开头: -brwx - rwx - rwx -:b表示 块文件,设备文件里面可供存储的周边设备 以d开头是目录 以b是块设备文件 以-开头是普通文件 以 l 开头表示软连接文件 以c开头是设备文件里的串行端口设备 -rwx - rwx - rwx -:用户权限,用户组内其他成员,其它组用户 数字 1 表示链接数,包括软链接和硬链接 第三列 jl 表示文件的拥有者 第四列 jl 表示文件的用户组 第五列 3517 表示这个文件的大小,单位是字节 ls -l 显示的文件大小单位是字节 ls -lh 现实的文件大小单位是 M / G 第六七八列是最近修改时间 最后一列是文件名 – 修改文件权限命令 chmod 777 文件名 修改文件所属用户 sudo chown root 文件 修改文件用户组 sudo chown .root 文件 同时修改文件用户和用户组 sudo chown jl.jl 文件 修改目录的用户/用户组 sudo chown -r jl.jl 目录( root.root ) – linux连接文件 1、硬连接 2、符号连接(软连接) linux有两种连接文件,软连接/符号连接,硬连接 符号连接类似于windows下面的快捷方式 硬连接通过文件系统的inode连接来产生新文件名,而不是产生新文件 inode:记录文件属性,一个文件对应一个inode, inode相当于文件ID 查找文件要先找到inode,然后才能读到文件内容 – ln 命令用于创建连接文件 ln 【选项】源文件 目标文件 不加选项就是默认创建硬连接 -s 创建软连接 -f 强制创建连接文件,如果目标存在,就先删掉目标文件,再创建连接文件 – 硬连接:多个文件都指向同一个inode 具有向inode的多个文件互为硬连接文件,创建硬连接相当于文件实体多了入口 只有删除了源文件、和它所有的硬连接文件,晚间实体才会被删除 可以给文件创建硬连接来防止文件误删除 改了源文件还是硬连接文件,另一个文件的数据都会被改变 硬连接不能跨文件系统(另一个格式的u盘中的文件) 硬连接不能连接到目录 出于以上原因,硬连接不常用 ls -li:此时第一列显示的就是每个文件的inode – 软连接/符号连接 类似windows下面的快捷方式 使用较多 软连接相当于串联里一个独立的文件,该文件会让数据读取指向它连接的文件 ln -s 源文件 目标文件 特点: 可以连接到目录 可以跨文件系统 删除源文件,软连接文件也打不开了 软连接文件通过 “ -> ” 来指示具体的连接文件(ls -l) 创建软连接的时候,源文件一定要使用绝对路径给出,(硬连接无此要求) 软连接文件直接用cp复制到别的目录下,软连接文件就会变成实体文件,就算你把源文件删掉,该文件还是有效 正确的复制、移动软连接的用法是:cp -d 如果不用绝对路径,cp -d 软连接文件到别的目录,该软连接文件就会变红,失效 如果用了绝对路径,cp -d 软连接文件到别的目录,该软连接文件还是有效的,还是软连接文件 不用绝对路径,一拷贝就会出问题 – 软连接一个目录,也是可以用cp -d复制到其他位置的 – gedit 是基于图形界面的 vim有三种模式: 1、一般模式:默认模式,用vim打开一个文件就自动进入这个模式 2、编辑模式:按 i,a等进入,按esc回到一般模式 3、命令行/底行模式:在一般模式下输入:/ ?可进入命令行模式 ,按esc回到一般模式 一般模式下,dd删除光标所在的一整行; ndd,删除掉光标所在行和下面的一共n行 点 . 重复上一个操作 yy复制光标所在行 小p复制到光标下一行 大p复制到光标上一行n nyy复制光标所在往下n行 设置vim里的tab是四个空格:在/etc/vim/vimrc里面添加:set ts=4 设置vim中显示行号:在上面那个文件里添加:set nu – vscode是编辑器 gcc能编译汇编,c,cpp 电脑上的ubuntu自带的gcc用来编译x86架构的程序,而嵌入式设备的code要用针对于该芯片架构如arm的gcc编译器,又叫做交叉编译器(在一种架构的电脑上编译成另一种架构的代码) gcc -c 源文件:只编译不链接,编译成.o文件 -o 输出文件名( 默认名是 .out ) -O 对程序进行优化编译,这样产生的可执行文件执行效率更高 -O2:比-O幅度更大的优化,但编译速度会很慢 -v:显示编译的过程 gcc main.c 输出main.out的可执行文件 预处理 --> 编译 --> 汇编 --> 链接 – makefile里第一个目标默认是终极目标 其他目标的顺序可以变 makefile中的变量都是字符串 变量的引用方法 : $ ( 变量名 ) – Makefile中执行shell命令默认会把命令本身打印出来 如果在shell命令前加 @ ,那么shell’命令本身就不会被打印 – 赋值符:= 变量的有效值取决于他最后一次被赋值的值 : = 赋值时右边的值只是用前面已经定义好的,不会使用后面的 ?= 如果左边的前面没有被赋值,那么在这里赋值,佛则就用前面的赋值 + = 左边前面已经复制了一些字串,在这里添加右边的内容,用空格隔开 – 模式规则 % . o : % . c %在这里意思是通配符,只能用于模式规则 依赖中 % 的内容取决于目标 % 的内容 – CFLAGS:指定头文件的位置 LDFLAGS:用于优化参数,指定库文件的位置 LIBS:告诉链接器要链接哪些库文件 VPATH:特殊变量,指定源文件的位置,冒号隔开,按序查找源文件 vpath:关键字,三种模式,指定、清除 – 自动化变量 $ @ 规则中的目标集合 $ % 当目标是函数库的时候,表示规则中的目标成员名 $ < 依赖文件集合中的第一个文件,如果依赖文件是以 % 定义的,那么 $ < 就是符合模式的一系列文件的集合 $ ? 所有比目标新的依赖文件的集合,以空格分开 $ ^ 所有依赖文件的集合,用空格分开,如果有重复的依赖文件,只保留一次 $ + 和 $ ^ 类似,但有多少重复文件都会保留 $ 表明目标模式中 % 及其以前的部分 如果目标是 test/a.test.c,目标模式是 a.%.c,那么 $ 就表示 test/a.test – 常用的是 $@ , $< , $^ – Makefile的伪目标 不生成目标文件,只是执行它下面的命令 如果被错认为是文件,由于伪目标一般没有依赖,那么目标就被认为是最新的,那么它下面的命令就不会执行 。 如果目录下有同名文件,伪目标错认为是该文件,由于没有依赖,伪目标下面的指令不会被执行 伪目标声明方法 .PHONY : clean 那么就算目录下有伪目标同名文件,伪目标也同样会执行 – 条件判断 ifeq ifneq ifdef ifndef – makefile函数使用 shell脚本 类似于windoes的批处理文件 将连续执行的命令写成一个文件 shell脚本可以提供数组,循环,条件判断等功能 开头必须是:!/bin/bash 表示使用bash 脚本的扩展名:.sh – 交互式shell 有输入有输出 输入:read 第三行 name在这里作为变量,read输入这个变量 下一行使用这个变量直接是 $name,不用像 Makefile 里面那样子加括号 read -p “读取前你想打印的内容” 变量1 变量2 变量3… – 数值计算 第五行等于号两边不能有空格 右边计算的时候是 $( ( ) ),注意要两个括号 – test 测试命令 文件状态查询,字符、数字比较 && cmd1 && cmd2 当cmd1执行完并且正确,那么cmd2也执行 当cmd2执行完并且错误,那么cmd2不执行 || cmd1 || cmd2 当cmd1执行完并且正确,那么cmd2不执行 当cmd2执行完并且错误,那么cmd2也执行 查看一个文件是否存在 – 测试两个字符串是否相等 ==两边必须要有空格,如果不加空格,test这句就一直是对的。 – 中括号判断符 [ ] 作用和test类似 里面只能输入 == 或者 != 四个箭头所指必须用空格隔开 而且如果变量是字符串的话,一定要加双引号 – 默认变量 $0——shell脚本本身的命令 $——最后一个参数的标号(1,2,3,4…) $@——表示 $1 , $2 , $3 … $1 $2 $3 – shell 脚本的条件判断 if [ 条件判断 ];then //do something fi 红点处都要加空格 exit 0——表示退出 – if 条件判断;then //do something elif 条件判断;them //do something else //do something fi 红线处要加空格 – case 语句 case $var in “第一个变量的内容”) //do something ;; “第二个变量的内容”) // do something ;; . . . “第n个变量的内容”) //do something ;; esac 不能用 “”,否则就不是通配符的意思,而是表示字符 – shell 脚本函数 function fname(){ //函数代码段 } 其中function可以写也可以不写 调用函数的时候不要加括号 shell 脚本函数传参方式 – shell 循环 while[条件] //括号内的状态是判断式 do //循环代码段 done – until [条件] do //循环代码段 done – for循环,使用该循环可以知道有循环次数 for var con1 con2 con3 … … do //循环代码段 done – for 循环数值处理 for((初始值;限制值;执行步长)) do //循环代码段 done – 红点处必须要加空格!! loop 环 – – 注意变量有的地方用了 $ ,有的地方不需要 $ 这里的赋值号两边都不用加 空格 $(())数值运算 本篇文章为转载内容。原文链接:https://blog.csdn.net/engineer0/article/details/107965908。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-11-23 17:18:30
79
转载
转载文章
...64fe 一个神奇的命令 +--------------------------------------+-------------+-----------+------------+--------------------------------------+ | ID | IP Protocol | IP Range | Port Range | Remote Security Group | +--------------------------------------+-------------+-----------+------------+--------------------------------------+ | 0184e6b3-4f7f-4fd5-8125-b80682e7ee48 | None | None | | 2e19a748-9086-49f8-9498-01abc1a964fe | | 1e0bfedc-8f25-408a-9328-708113bbbc52 | icmp | 0.0.0.0/0 | | None | | 39116d39-454b-4d82-867e-bbfd3ea63182 | None | None | | None | | 4032366f-3ac9-4862-85a7-c7411a8b7678 | None | None | | 2e19a748-9086-49f8-9498-01abc1a964fe | | dc7bc251-f0d0-456a-9102-c5b66646aa84 | tcp | 0.0.0.0/0 | 22:22 | None | | ddacf7ea-57ea-4c8a-8b68-093766284595 | None | None | | None | +--------------------------------------+-------------+-----------+------------+--------------------------------------+ dpif/dump-flows dp 想控制端打印dp中流表的所有条目。 这个命令主要来与debugOpen Vswitch.它所打印的流表不是openFlow的流条目。 它打印的是由dp模块维护的简单的流。 如果你想查看OpenFlow条目,请使用ovs-ofctl dump-flows。dpif/del-fow dp 删除指定dp上所有流表。同上所述,这些不是OpenFlow流表。 ovs-appctl dpif/dump-flows br-int 创建网络 openstack network create --share --external --provider-physical-network provider --provider-network-type flat provider $ openstack subnet create --network provider \ --allocation-pool start=192.168.56.100,end=192.168.56.200 \ --dns-nameserver 8.8.8.8 --gateway 192.168.56.1 \ --subnet-range 192.168.56.0/24 provider openstack network create selfservice $ openstack subnet create --network selfservice \ --dns-nameserver 8.8.8.8 --gateway 192.168.1.1 \ --subnet-range 192.168.1.0/24 selfservice openstack router create router openstack router add subnet router selfservice openstack router set router --external-gateway provider openstack port list --router router +--------------------------------------+------+-------------------+-------------------------------------------------------------------------------+--------+ | ID | Name | MAC Address | Fixed IP Addresses | Status | +--------------------------------------+------+-------------------+-------------------------------------------------------------------------------+--------+ | bff6605d-824c-41f9-b744-21d128fc86e1 | | fa:16:3e:2f:34:9b | ip_address='172.16.1.1', subnet_id='3482f524-8bff-4871-80d4-5774c2730728' | ACTIVE | | d6fe98db-ae01-42b0-a860-37b1661f5950 | | fa:16:3e:e8:c1:41 | ip_address='203.0.113.102', subnet_id='5cc70da8-4ee7-4565-be53-b9c011fca011' | ACTIVE | +--------------------------------------+------+-------------------+-------------------------------------------------------------------------------+--------+ $ ping -c 4 203.0.113.102 创建虚机 openstack keypair list $ ssh-keygen -q -N "" $ openstack keypair create --public-key ~/.ssh/id_rsa.pub mykey openstack flavor list openstack image list openstack network list openstack server create --flavor tiny --image cirros --nic net-id=27616098-0374-4ab4-95a8-b5bf4839dcf8 --key-name mykey provider-instance 网络配置 python /usr/lib/python2.7/site-packages/networking_odl/cmd/set_ovs_hostconfigs.py --ovs_hostconfigs='{ "ODL L2": { "allowed_network_types": [ "flat", "vlan", "vxlan" ], "bridge_mappings": { "provider": "br-int" }, "supported_vnic_types": [ { "vnic_type": "normal", "vif_type": "ovs", "vif_details": {} } ] }, "ODL L3": {} }' ovs-vsctl list open . [2019/1/16 19:09] 高正伟: ovs-vsctl set Open_vSwitch . other_config:local_ip=hostip ovs-vsctl set Open_vSwitch . other_config:local_ip=192.168.56.122 ovs-vsctl set Open_vSwitch . other_config:remote_ip=192.168.56.122 ovs-vsctl remove interface tunca7b782f232 options remote_ip ovs-vsctl set Open_vSwitch . other_config:provider_mappings=provider:br-ex ovs-vsctl set Open_vSwitch . external_ids:provider_mappings="{\"provider\": \"br-ex\"}" 清空 ovs-vsctl clear Open_vSwitch . external_ids ovs-vsctl set-manager tcp:10.13.80.34:6640 ovs-vsctl set-controller br-ex tcp:10.13.80.34:6640 ovs-vsctl del-controller br-ex sudo neutron-odl-ovs-hostconfig ovs-vsctl show ovs-vsctl add-port <bridge name> <port name> ovs-vsctl add-port br-ex enp0s10 ovs-vsctl del-port br-ex phy-br-ex ovs-vsctl del-port br-ex tun2ad7e9e91e4 重启odl后 systemctl restart openvswitch.service systemctl restart neutron-server.service systemctl stop neutron-server.service 创建虚机 openstack network create --share --external --provider-physical-network provider --provider-network-type flat provider openstack subnet create --network provider --allocation-pool start=192.168.56.2,end=192.168.56.100 --dns-nameserver 8.8.8.8 --gateway 192.168.56.1 --subnet-range 192.168.56.0/24 provider nova boot --image cirros --flavor tiny --nic net-id= --availability-zone nova:rcontroller01 vm-01 openstack server create --flavor tiny --image cirros --nic net-id= --key-name mykey test nova boot --image cirros --flavor tiny --nic net-id=0fe983c2-8178-403b-a00e-e8561580b210 --availability-zone nova:rcontroller01 vm-01 虚机可以学习到mac但是ping不通 抓包,先在虚机网卡上抓包, 然后在br-int上抓包 发现虚拟网卡上是发送了icmp请求报文的,但是br-int上没有 查看报文情况 [root@rcontroller01 ~] ovs-appctl dpif/dump-flows br-int recirc_id(0),tunnel(tun_id=0x0,src=192.168.56.102,dst=192.168.56.122,flags(-df-csum+key)),in_port(4),eth(),eth_type(0x0800),ipv4(proto=17,frag=no),udp(dst=3784), packets:266436, bytes:17584776, used:0.591s, actions:userspace(pid=4294962063,slow_path(bfd)) recirc_id(0xa0),in_port(5),ct_state(+new-est-rel-inv+trk),ct_mark(0/0x1),eth(),eth_type(0x0800),ipv4(frag=no), packets:148165, bytes:14520170, used:0.566s, actions:drop recirc_id(0),in_port(3),eth(),eth_type(0x0806), packets:1, bytes:60, used:5.228s, actions:drop recirc_id(0),tunnel(tun_id=0xb,src=192.168.56.102,dst=192.168.56.122,flags(-df-csum+key)),in_port(4),eth(dst=fa:16:3e:ab:ba:7e),eth_type(0x0806), packets:0, bytes:0, used:never, actions:5 recirc_id(0),in_port(5),eth(src=fa:16:3e:ab:ba:7e),eth_type(0x0800),ipv4(src=192.168.0.16,proto=1,frag=no), packets:148165, bytes:14520170, used:0.566s, actions:ct(zone=5004),recirc(0xa0) recirc_id(0),in_port(3),eth(),eth_type(0x0800),ipv4(frag=no), packets:886646, bytes:316947183, used:0.210s, flags:SFPR., actions:drop recirc_id(0),in_port(5),eth(src=fa:16:3e:ab:ba:7e,dst=fa:16:3e:7d:95:75),eth_type(0x0806),arp(sip=192.168.0.16,tip=192.168.0.5,op=1/0xff,sha=fa:16:3e:ab:ba:7e), packets:0, bytes:0, used:never, actions:userspace(pid=4294961925,controller(reason=4,dont_send=0,continuation=0,recirc_id=4618,rule_cookie=0x822002d,controller_id=0,max_len=65535)),set(tunnel(tun_id=0xb,src=192.168.56.122,dst=192.168.56.102,ttl=64,tp_dst=4789,flags(df|key))),4 安全组设置 openstack security group rule create --proto tcp 2e19a748-9086-49f8-9498-01abc1a964fe openstack security group rule create --proto tcp 6095293d-c2cd-433d-8a8f-e77ecb03609e openstack security group rule create --proto udp 2e19a748-9086-49f8-9498-01abc1a964fe openstack security group rule create --proto udp 6095293d-c2cd-433d-8a8f-e77ecb03609e ovs-vsctl add-port br-ex "ex-patch-int" ovs-vsctl set interface "ex-patch-int" type=patch ovs-vsctl set interface "ex-patch-int" options:peer=int-patch-ex ovs-vsctl add-port br-int "int-patch-ex" ovs-vsctl set interface "int-patch-ex" type=patch ovs-vsctl set interface "int-patch-ex" options:peer=ex-patch-int ovs-vsctl del-port br-ex "ex-patch-int" ovs-vsctl del-port br-int "int-patch-ex" ovs-vsctl del-port br-ex enp0s9 ovs-vsctl add-port br-int enp0s9 ovs-appctl ofproto/trace 重要命令 sudo ovs-ofctl -O OpenFlow13 show br-int sudo ovs-appctl ofproto/trace br-int "in_port=5,ip,nw_src=192.168.0.16,nw_dst=192.168.0.5" ovs-appctl dpctl/dump-conntrack 11.查看接口id等 ovs-appctl dpif/show 12.查看接口统计 ovs-ofctl dump-ports br-int 查看接口 sudo ovs-ofctl show br-int -O OpenFlow13 ovs常用命令 控制管理类 1.查看网桥和端口 ovs-vsctl show 1 2.创建一个网桥 ovs-vsctl add-br br0 ovs-vsctl set bridge br0 datapath_type=netdev 1 2 3.添加/删除一个端口 for system interfaces ovs-vsctl add-port br0 eth1 ovs-vsctl del-port br0 eth1 for DPDK ovs-vsctl add-port br0 dpdk1 -- set interface dpdk1 type=dpdk options:dpdk-devargs=0000:01:00.0 for DPDK bonds ovs-vsctl add-bond br0 dpdkbond0 dpdk1 dpdk2 \ -- set interface dpdk1 type=dpdk options:dpdk-devargs=0000:01:00.0 \ -- set interface dpdk2 type=dpdk options:dpdk-devargs=0000:02:00.0 1 2 3 4 5 6 7 8 9 4.设置/清除网桥的openflow协议版本 ovs-vsctl set bridge br0 protocols=OpenFlow13 ovs-vsctl clear bridge br0 protocols 1 2 5.查看某网桥当前流表 ovs-ofctl dump-flows br0 ovs-ofctl -O OpenFlow13 dump-flows br0 ovs-appctl bridge/dump-flows br0 1 2 3 6.设置/删除控制器 ovs-vsctl set-controller br0 tcp:1.2.3.4:6633 ovs-vsctl del-controller br0 1 2 7.查看控制器列表 ovs-vsctl list controller 1 8.设置/删除被动连接控制器 ovs-vsctl set-manager tcp:1.2.3.4:6640 ovs-vsctl get-manager ovs-vsctl del-manager 1 2 3 9.设置/移除可选选项 ovs-vsctl set Interface eth0 options:link_speed=1G ovs-vsctl remove Interface eth0 options link_speed 1 2 10.设置fail模式,支持standalone或者secure standalone(default):清除所有控制器下发的流表,ovs自己接管 secure:按照原来流表继续转发 ovs-vsctl del-fail-mode br0 ovs-vsctl set-fail-mode br0 secure ovs-vsctl get-fail-mode br0 1 2 3 11.查看接口id等 ovs-appctl dpif/show 1 12.查看接口统计 ovs-ofctl dump-ports br0 1 流表类 流表操作 1.添加普通流表 ovs-ofctl add-flow br0 in_port=1,actions=output:2 1 2.删除所有流表 ovs-ofctl del-flows br0 1 3.按匹配项来删除流表 ovs-ofctl del-flows br0 "in_port=1" 1 匹配项 1.匹配vlan tag,范围为0-4095 ovs-ofctl add-flow br0 priority=401,in_port=1,dl_vlan=777,actions=output:2 1 2.匹配vlan pcp,范围为0-7 ovs-ofctl add-flow br0 priority=401,in_port=1,dl_vlan_pcp=7,actions=output:2 1 3.匹配源/目的MAC ovs-ofctl add-flow br0 in_port=1,dl_src=00:00:00:00:00:01/00:00:00:00:00:01,actions=output:2 ovs-ofctl add-flow br0 in_port=1,dl_dst=00:00:00:00:00:01/00:00:00:00:00:01,actions=output:2 1 2 4.匹配以太网类型,范围为0-65535 ovs-ofctl add-flow br0 in_port=1,dl_type=0x0806,actions=output:2 1 5.匹配源/目的IP 条件:指定dl_type=0x0800,或者ip/tcp ovs-ofctl add-flow br0 ip,in_port=1,nw_src=10.10.0.0/16,actions=output:2 ovs-ofctl add-flow br0 ip,in_port=1,nw_dst=10.20.0.0/16,actions=output:2 1 2 6.匹配协议号,范围为0-255 条件:指定dl_type=0x0800或者ip ICMP ovs-ofctl add-flow br0 ip,in_port=1,nw_proto=1,actions=output:2 7.匹配IP ToS/DSCP,tos范围为0-255,DSCP范围为0-63 条件:指定dl_type=0x0800/0x86dd,并且ToS低2位会被忽略(DSCP值为ToS的高6位,并且低2位为预留位) ovs-ofctl add-flow br0 ip,in_port=1,nw_tos=68,actions=output:2 ovs-ofctl add-flow br0 ip,in_port=1,ip_dscp=62,actions=output:2 8.匹配IP ecn位,范围为0-3 条件:指定dl_type=0x0800/0x86dd ovs-ofctl add-flow br0 ip,in_port=1,ip_ecn=2,actions=output:2 9.匹配IP TTL,范围为0-255 ovs-ofctl add-flow br0 ip,in_port=1,nw_ttl=128,actions=output:2 10.匹配tcp/udp,源/目的端口,范围为0-65535 匹配源tcp端口179 ovs-ofctl add-flow br0 tcp,tcp_src=179/0xfff0,actions=output:2 匹配目的tcp端口179 ovs-ofctl add-flow br0 tcp,tcp_dst=179/0xfff0,actions=output:2 匹配源udp端口1234 ovs-ofctl add-flow br0 udp,udp_src=1234/0xfff0,actions=output:2 匹配目的udp端口1234 ovs-ofctl add-flow br0 udp,udp_dst=1234/0xfff0,actions=output:2 11.匹配tcp flags tcp flags=fin,syn,rst,psh,ack,urg,ece,cwr,ns ovs-ofctl add-flow br0 tcp,tcp_flags=ack,actions=output:2 12.匹配icmp code,范围为0-255 条件:指定icmp ovs-ofctl add-flow br0 icmp,icmp_code=2,actions=output:2 13.匹配vlan TCI TCI低12位为vlan id,高3位为priority,例如tci=0xf123则vlan_id为0x123和vlan_pcp=7 ovs-ofctl add-flow br0 in_port=1,vlan_tci=0xf123,actions=output:2 14.匹配mpls label 条件:指定dl_type=0x8847/0x8848 ovs-ofctl add-flow br0 mpls,in_port=1,mpls_label=7,actions=output:2 15.匹配mpls tc,范围为0-7 条件:指定dl_type=0x8847/0x8848 ovs-ofctl add-flow br0 mpls,in_port=1,mpls_tc=7,actions=output:2 1 16.匹配tunnel id,源/目的IP 匹配tunnel id ovs-ofctl add-flow br0 in_port=1,tun_id=0x7/0xf,actions=output:2 匹配tunnel源IP ovs-ofctl add-flow br0 in_port=1,tun_src=192.168.1.0/255.255.255.0,actions=output:2 匹配tunnel目的IP ovs-ofctl add-flow br0 in_port=1,tun_dst=192.168.1.0/255.255.255.0,actions=output:2 一些匹配项的速记符 速记符 匹配项 ip dl_type=0x800 ipv6 dl_type=0x86dd icmp dl_type=0x0800,nw_proto=1 icmp6 dl_type=0x86dd,nw_proto=58 tcp dl_type=0x0800,nw_proto=6 tcp6 dl_type=0x86dd,nw_proto=6 udp dl_type=0x0800,nw_proto=17 udp6 dl_type=0x86dd,nw_proto=17 sctp dl_type=0x0800,nw_proto=132 sctp6 dl_type=0x86dd,nw_proto=132 arp dl_type=0x0806 rarp dl_type=0x8035 mpls dl_type=0x8847 mplsm dl_type=0x8848 指令动作 1.动作为出接口 从指定接口转发出去 ovs-ofctl add-flow br0 in_port=1,actions=output:2 1 2.动作为指定group group id为已创建的group table ovs-ofctl add-flow br0 in_port=1,actions=group:666 1 3.动作为normal 转为L2/L3处理流程 ovs-ofctl add-flow br0 in_port=1,actions=normal 1 4.动作为flood 从所有物理接口转发出去,除了入接口和已关闭flooding的接口 ovs-ofctl add-flow br0 in_port=1,actions=flood 1 5.动作为all 从所有物理接口转发出去,除了入接口 ovs-ofctl add-flow br0 in_port=1,actions=all 1 6.动作为local 一般是转发给本地网桥 ovs-ofctl add-flow br0 in_port=1,actions=local 1 7.动作为in_port 从入接口转发回去 ovs-ofctl add-flow br0 in_port=1,actions=in_port 1 8.动作为controller 以packet-in消息上送给控制器 ovs-ofctl add-flow br0 in_port=1,actions=controller 1 9.动作为drop 丢弃数据包操作 ovs-ofctl add-flow br0 in_port=1,actions=drop 1 10.动作为mod_vlan_vid 修改报文的vlan id,该选项会使vlan_pcp置为0 ovs-ofctl add-flow br0 in_port=1,actions=mod_vlan_vid:8,output:2 1 11.动作为mod_vlan_pcp 修改报文的vlan优先级,该选项会使vlan_id置为0 ovs-ofctl add-flow br0 in_port=1,actions=mod_vlan_pcp:7,output:2 1 12.动作为strip_vlan 剥掉报文内外层vlan tag ovs-ofctl add-flow br0 in_port=1,actions=strip_vlan,output:2 1 13.动作为push_vlan 在报文外层压入一层vlan tag,需要使用openflow1.1以上版本兼容 ovs-ofctl add-flow -O OpenFlow13 br0 in_port=1,actions=push_vlan:0x8100,set_field:4097-\>vlan_vid,output:2 1 ps: set field值为4096+vlan_id,并且vlan优先级为0,即4096-8191,对应的vlan_id为0-4095 14.动作为push_mpls 修改报文的ethertype,并且压入一个MPLS LSE ovs-ofctl add-flow br0 in_port=1,actions=push_mpls:0x8847,set_field:10-\>mpls_label,output:2 1 15.动作为pop_mpls 剥掉最外层mpls标签,并且修改ethertype为非mpls类型 ovs-ofctl add-flow br0 mpls,in_port=1,mpls_label=20,actions=pop_mpls:0x0800,output:2 1 16.动作为修改源/目的MAC,修改源/目的IP 修改源MAC ovs-ofctl add-flow br0 in_port=1,actions=mod_dl_src:00:00:00:00:00:01,output:2 修改目的MAC ovs-ofctl add-flow br0 in_port=1,actions=mod_dl_dst:00:00:00:00:00:01,output:2 修改源IP ovs-ofctl add-flow br0 in_port=1,actions=mod_nw_src:192.168.1.1,output:2 修改目的IP ovs-ofctl add-flow br0 in_port=1,actions=mod_nw_dst:192.168.1.1,output:2 17.动作为修改TCP/UDP/SCTP源目的端口 修改TCP源端口 ovs-ofctl add-flow br0 tcp,in_port=1,actions=mod_tp_src:67,output:2 修改TCP目的端口 ovs-ofctl add-flow br0 tcp,in_port=1,actions=mod_tp_dst:68,output:2 修改UDP源端口 ovs-ofctl add-flow br0 udp,in_port=1,actions=mod_tp_src:67,output:2 修改UDP目的端口 ovs-ofctl add-flow br0 udp,in_port=1,actions=mod_tp_dst:68,output:2 18.动作为mod_nw_tos 条件:指定dl_type=0x0800 修改ToS字段的高6位,范围为0-255,值必须为4的倍数,并且不会去修改ToS低2位ecn值 ovs-ofctl add-flow br0 ip,in_port=1,actions=mod_nw_tos:68,output:2 1 19.动作为mod_nw_ecn 条件:指定dl_type=0x0800,需要使用openflow1.1以上版本兼容 修改ToS字段的低2位,范围为0-3,并且不会去修改ToS高6位的DSCP值 ovs-ofctl add-flow br0 ip,in_port=1,actions=mod_nw_ecn:2,output:2 1 20.动作为mod_nw_ttl 修改IP报文ttl值,需要使用openflow1.1以上版本兼容 ovs-ofctl add-flow -O OpenFlow13 br0 in_port=1,actions=mod_nw_ttl:6,output:2 1 21.动作为dec_ttl 对IP报文进行ttl自减操作 ovs-ofctl add-flow br0 in_port=1,actions=dec_ttl,output:2 1 22.动作为set_mpls_label 对报文最外层mpls标签进行修改,范围为20bit值 ovs-ofctl add-flow br0 in_port=1,actions=set_mpls_label:666,output:2 1 23.动作为set_mpls_tc 对报文最外层mpls tc进行修改,范围为0-7 ovs-ofctl add-flow br0 in_port=1,actions=set_mpls_tc:7,output:2 1 24.动作为set_mpls_ttl 对报文最外层mpls ttl进行修改,范围为0-255 ovs-ofctl add-flow br0 in_port=1,actions=set_mpls_ttl:255,output:2 1 25.动作为dec_mpls_ttl 对报文最外层mpls ttl进行自减操作 ovs-ofctl add-flow br0 in_port=1,actions=dec_mpls_ttl,output:2 1 26.动作为move NXM字段 使用move参数对NXM字段进行操作 将报文源MAC复制到目的MAC字段,并且将源MAC改为00:00:00:00:00:01 ovs-ofctl add-flow br0 in_port=1,actions=move:NXM_OF_ETH_SRC[]-\>NXM_OF_ETH_DST[],mod_dl_src:00:00:00:00:00:01,output:2 1 2 ps: 常用NXM字段参照表 NXM字段 报文字段 NXM_OF_ETH_SRC 源MAC NXM_OF_ETH_DST 目的MAC NXM_OF_ETH_TYPE 以太网类型 NXM_OF_VLAN_TCI vid NXM_OF_IP_PROTO IP协议号 NXM_OF_IP_TOS IP ToS值 NXM_NX_IP_ECN IP ToS ECN NXM_OF_IP_SRC 源IP NXM_OF_IP_DST 目的IP NXM_OF_TCP_SRC TCP源端口 NXM_OF_TCP_DST TCP目的端口 NXM_OF_UDP_SRC UDP源端口 NXM_OF_UDP_DST UDP目的端口 NXM_OF_SCTP_SRC SCTP源端口 NXM_OF_SCTP_DST SCTP目的端口 27.动作为load NXM字段 使用load参数对NXM字段进行赋值操作 push mpls label,并且把10(0xa)赋值给mpls label ovs-ofctl add-flow br0 in_port=1,actions=push_mpls:0x8847,load:0xa-\>OXM_OF_MPLS_LABEL[],output:2 对目的MAC进行赋值 ovs-ofctl add-flow br0 in_port=1,actions=load:0x001122334455-\>OXM_OF_ETH_DST[],output:2 1 2 3 4 28.动作为pop_vlan 弹出报文最外层vlan tag ovs-ofctl add-flow br0 in_port=1,dl_type=0x8100,dl_vlan=777,actions=pop_vlan,output:2 1 meter表 常用操作 由于meter表是openflow1.3版本以后才支持,所以所有命令需要指定OpenFlow1.3版本以上 ps: 在openvswitch-v2.8之前的版本中,还不支持meter 在v2.8版本之后已经实现,要正常使用的话,需要注意的是datapath类型要指定为netdev,band type暂时只支持drop,还不支持DSCP REMARK 1.查看当前设备对meter的支持 ovs-ofctl -O OpenFlow13 meter-features br0 2.查看meter表 ovs-ofctl -O OpenFlow13 dump-meters br0 3.查看meter统计 ovs-ofctl -O OpenFlow13 meter-stats br0 4.创建meter表 限速类型以kbps(kilobits per second)计算,超过20kb/s则丢弃 ovs-ofctl -O OpenFlow13 add-meter br0 meter=1,kbps,band=type=drop,rate=20 同上,增加burst size参数 ovs-ofctl -O OpenFlow13 add-meter br0 meter=2,kbps,band=type=drop,rate=20,burst_size=256 同上,增加stats参数,对meter进行计数统计 ovs-ofctl -O OpenFlow13 add-meter br0 meter=3,kbps,stats,band=type=drop,rate=20,burst_size=256 限速类型以pktps(packets per second)计算,超过1000pkt/s则丢弃 ovs-ofctl -O OpenFlow13 add-meter br0 meter=4,pktps,band=type=drop,rate=1000 5.删除meter表 删除全部meter表 ovs-ofctl -O OpenFlow13 del-meters br0 删除meter id=1 ovs-ofctl -O OpenFlow13 del-meter br0 meter=1 6.创建流表 ovs-ofctl -O OpenFlow13 add-flow br0 in_port=1,actions=meter:1,output:2 group表 由于group表是openflow1.1版本以后才支持,所以所有命令需要指定OpenFlow1.1版本以上 常用操作 group table支持4种类型 all:所有buckets都执行一遍 select: 每次选择其中一个bucket执行,常用于负载均衡应用 ff(FAST FAILOVER):快速故障修复,用于检测解决接口等故障 indirect:间接执行,类似于一个函数方法,被另一个group来调用 1.查看当前设备对group的支持 ovs-ofctl -O OpenFlow13 dump-group-features br0 2.查看group表 ovs-ofctl -O OpenFlow13 dump-groups br0 3.创建group表 类型为all ovs-ofctl -O OpenFlow13 add-group br0 group_id=1,type=all,bucket=output:1,bucket=output:2,bucket=output:3 类型为select ovs-ofctl -O OpenFlow13 add-group br0 group_id=2,type=select,bucket=output:1,bucket=output:2,bucket=output:3 类型为select,指定hash方法(5元组,OpenFlow1.5+) ovs-ofctl -O OpenFlow15 add-group br0 group_id=3,type=select,selection_method=hash,fields=ip_src,bucket=output:2,bucket=output:3 4.删除group表 ovs-ofctl -O OpenFlow13 del-groups br0 group_id=2 5.创建流表 ovs-ofctl -O OpenFlow13 add-flow br0 in_port=1,actions=group:2 goto table配置 数据流先从table0开始匹配,如actions有goto_table,再进行后续table的匹配,实现多级流水线,如需使用goto table,则创建流表时,指定table id,范围为0-255,不指定则默认为table0 1.在table0中添加一条流表条目 ovs-ofctl add-flow br0 table=0,in_port=1,actions=goto_table=1 2.在table1中添加一条流表条目 ovs-ofctl add-flow br0 table=1,ip,nw_dst=10.10.0.0/16,actions=output:2 tunnel配置 如需配置tunnel,必需确保当前系统对各tunnel的remote ip网络可达 gre 1.创建一个gre接口,并且指定端口id=1001 ovs-vsctl add-port br0 gre1 -- set Interface gre1 type=gre options:remote_ip=1.1.1.1 ofport_request=1001 2.可选选项 将tos或者ttl在隧道上继承,并将tunnel id设置成123 ovs-vsctl set Interface gre1 options:tos=inherit options:ttl=inherit options:key=123 3.创建关于gre流表 封装gre转发 ovs-ofctl add-flow br0 ip,in_port=1,nw_dst=10.10.0.0/16,actions=output:1001 解封gre转发 ovs-ofctl add-flow br0 in_port=1001,actions=output:1 vxlan 1.创建一个vxlan接口,并且指定端口id=2001 ovs-vsctl add-port br0 vxlan1 -- set Interface vxlan1 type=vxlan options:remote_ip=1.1.1.1 ofport_request=2001 2.可选选项 将tos或者ttl在隧道上继承,将vni设置成123,UDP目的端为设置成8472(默认为4789) ovs-vsctl set Interface vxlan1 options:tos=inherit options:ttl=inherit options:key=123 options:dst_port=8472 3.创建关于vxlan流表 封装vxlan转发 ovs-ofctl add-flow br0 ip,in_port=1,nw_dst=10.10.0.0/16,actions=output:2001 解封vxlan转发 ovs-ofctl add-flow br0 in_port=2001,actions=output:1 sflow配置 1.对网桥br0进行sflow监控 agent: 与collector通信所在的网口名,通常为管理口 target: collector监听的IP地址和端口,端口默认为6343 header: sFlow在采样时截取报文头的长度 polling: 采样时间间隔,单位为秒 ovs-vsctl -- --id=@sflow create sflow agent=eth0 target=\"10.0.0.1:6343\" header=128 sampling=64 polling=10 -- set bridge br0 sflow=@sflow 2.查看创建的sflow ovs-vsctl list sflow 3.删除对应的网桥sflow配置,参数为sFlow UUID ovs-vsctl remove bridge br0 sflow 7b9b962e-fe09-407c-b224-5d37d9c1f2b3 4.删除网桥下所有sflow配置 ovs-vsctl -- clear bridge br0 sflow 1 QoS配置 ingress policing 1.配置ingress policing,对接口eth0入流限速10Mbps ovs-vsctl set interface eth0 ingress_policing_rate=10000 ovs-vsctl set interface eth0 ingress_policing_burst=8000 2.清除相应接口的ingress policer配置 ovs-vsctl set interface eth0 ingress_policing_rate=0 ovs-vsctl set interface eth0 ingress_policing_burst=0 3.查看接口ingress policer配置 ovs-vsctl list interface eth0 4.查看网桥支持的Qos类型 ovs-appctl qos/show-types br0 端口镜像配置 1.配置eth0收到/发送的数据包镜像到eth1 ovs-vsctl -- set bridge br0 mirrors=@m \ -- --id=@eth0 get port eth0 \ -- --id=@eth1 get port eth1 \ -- --id=@m create mirror name=mymirror select-dst-port=@eth0 select-src-port=@eth0 output-port=@eth1 2.删除端口镜像配置 ovs-vsctl -- --id=@m get mirror mymirror -- remove bridge br0 mirrors @m 3.清除网桥下所有端口镜像配置 ovs-vsctl clear bridge br0 mirrors 4.查看端口镜像配置 ovs-vsctl get bridge br0 mirrors Open vSwitch中有多个命令,分别有不同的作用,大致如下: ovs-vsctl用于控制ovs db ovs-ofctl用于管理OpenFlow switch 的 flow ovs-dpctl用于管理ovs的datapath ovs-appctl用于查询和管理ovs daemon 转载于:https://www.cnblogs.com/liuhongru/p/10336849.html 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_30876945/article/details/99916308。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-06-08 17:13:19
294
转载
Ruby
Ruby中的模块化设计与封装 1. 什么是模块化设计?为什么它如此重要? 作为一个程序员,尤其是Ruby开发者,你可能会经常听到“模块化”这个词。哎呀,说到“模块化”这个词,可能有些人会觉得有点抽象。其实啊,说白了就是把一个大工程拆成好多小零件,每个小零件专门负责一项任务,而且还能拿出来反复用。就像搭积木一样,一块块拼起来,既方便又高效! 为什么模块化这么重要呢?想象一下,如果你正在开发一个大型的电商网站,功能包括用户管理、订单处理、支付系统等。如果所有代码都堆在一个文件里,不仅难以维护,还容易出错。模块化嘛,就好比把一大块蛋糕切成好多小块,每一块都能单独派上用场。这样一来,不仅好收拾、好分配,要是还想加点什么进去,也超级方便! 在Ruby中,模块化是一个核心概念。Ruby提供了Module类来帮助我们实现模块化设计。用模块化的方式来写代码,就像给一堆零件分类整理好一样,不仅能让整个程序看起来条理分明,还方便以后直接拿出来用,省时又省力! 示例代码: ruby module PaymentProcessor def process_payment(amount) puts "Processing payment of ${amount}" end end class Order include PaymentProcessor def initialize(total_amount) @total_amount = total_amount end def checkout process_payment(@total_amount) end end order = Order.new(100) order.checkout 在这个例子中,我们创建了一个名为PaymentProcessor的模块,其中包含一个process_payment方法。然后我们将这个模块包含到Order类中,使得Order类可以调用process_payment方法。这种模块化的设计让我们的代码更加简洁和易于理解。 2. 封装的概念及其在Ruby中的应用 接下来,我们谈谈封装。封装嘛,在面向对象编程里算个挺关键的概念。简单说就是把对象的“私密信息”藏起来,不让外面随便乱动,但可以通过专门设计的一些方法去操作它。就像给你的宝贝东西加了个小锁,别人不能直接打开看或者乱翻,不过你可以用钥匙去管理它。 为什么要进行封装呢?因为封装可以帮助我们保护数据不被外部随意修改,从而减少错误的发生。比如,在我们电商网站上,要是把用户的信用卡信息直接亮出来,那这些重要信息分分钟可能就被拿去乱用啦!通过封装,我们可以确保这些信息只能在安全的环境中被处理。 在Ruby中,我们可以通过定义私有方法和属性来实现封装。让我们来看一个具体的例子。 示例代码: ruby class User attr_reader :name def initialize(name, password) @name = name @password = password end private def password @password end def change_password(new_password) @password = new_password end end user = User.new("Alice", "secret123") puts user.name user.password 这行代码会报错,因为password是私有的 user.change_password("new_secret") 在这个例子中,我们定义了一个User类,其中包含了name和password两个属性。通过attr_reader,我们可以公开访问name属性,但是password属性是私有的,外部无法直接访问。我们需要通过change_password这样的方法来更改密码,这种方式更安全。 3. 模块化设计的实际应用案例 现在,让我们来看看模块化设计在实际项目中的应用。好啦,咱们就拿做个博客系统来说吧!想想看,这个博客要是弄好了,得能让好多人一起用,每个人都能注册账号、登进来写东西。写完的文章呢,其他小伙伴能看到,还能在底下留言评论啥的,就跟咱们平时在社交平台上互动一样热闹!我们可以将这些功能分别放在不同的模块中,以便于管理和维护。 首先,我们可以创建一个Authentication模块来处理用户的登录和登出操作。 示例代码: ruby module Authentication def login(username, password) 登录逻辑 end def logout 登出逻辑 end end class User include Authentication def initialize(username, password) @username = username @password = password end def authenticate(password) password == @password end end user = User.new("admin", "admin123") user.login("admin", "admin123") if user.authenticate("admin123") 在这个例子中,我们将Authentication模块包含到User类中,这样User类就可以使用login和logout方法了。通过这种方式,我们实现了功能的分离,使得代码结构更加清晰。 4. 总结与展望 通过这篇文章,我们探讨了Ruby中的模块化设计与封装的重要性,并通过实际的代码示例展示了如何在项目中应用这些概念。用模块化的方式来写代码,就像搭积木一样,既能让程序变得更靠谱,又能省下很多开发和后期维护的力气,简直是一举两得的好事! 未来,随着软件开发的不断发展,我相信模块化设计和封装的理念将会变得更加重要。嘿,咱们做开发的啊,就得不停地学、不停地练,把这些好习惯给用起来。为啥呢?就为了写出那种既好看又顺手的代码,谁不喜欢看着清爽、跑得飞快的程序呢? 希望这篇文章对你有所帮助!如果你有任何疑问或想法,欢迎随时交流。记住,编程不仅仅是技术的积累,更是一种艺术的创造。让我们一起享受编程的乐趣吧!
2025-03-23 16:13:26
35
繁华落尽
MySQL
...后,您可能对数据库的安全管理、权限分配以及实际应用中如何优化权限设置有了更深入的兴趣。近期,随着数据安全问题愈发凸显,MySQL的权限管理机制备受关注。 2022年,MySQL官方发布了8.0版本的重要更新,其中包含了更多精细化的权限管理功能,如资源组管理和动态权限变更等特性。这些新特性使得管理员可以根据业务需求更为灵活地为不同用户分配和调整权限,从而提升整个系统的安全性(来源:MySQL官网公告)。 此外,信息安全研究机构近期发布了一份关于数据库权限滥用导致的数据泄露案例分析报告。报告指出,在许多数据泄露事件中,攻击者往往利用的是内部或外部用户权限配置不当这一弱点,因此,正确理解和实施MySQL用户的权限管理显得至关重要(来源:知名信息安全研究机构报告)。 同时,业界专家建议在实际操作中,应遵循最小权限原则,即每个用户仅拥有完成其任务所需的最少权限,避免因权限过大而造成潜在的安全风险。对于特定场景下的权限设置策略与最佳实践,可以参考《MySQL 5.7 Administrator's Bible》等权威书籍或相关技术博客的深度解读文章。 综上所述,深入了解MySQL用户权限管理不仅有助于日常运维工作,更能有效提升数据库层面的信息安全保障能力。持续关注MySQL官方更新动态,结合行业实践经验和专业指导,将使您的数据库管理工作更加得心应手。
2023-04-12 13:59:00
92
软件工程师
JSON
...务和API接口的广泛应用,JSON作为数据交换的标准格式,其解析与操作的重要性日益凸显。 例如,2023年5月,Node.js社区发布了一篇关于优化JSON性能的文章,其中详述了如何利用最新版本V18中的JSON.parse()方法的新特性提高大数据量JSON解析速度。通过引入新的Streaming API和改进的内存管理机制,开发者可以更高效地处理大规模JSON数据流,并动态获取嵌套数组或对象的名字及其对应值。 另外,对于那些需要深度访问JSON结构的应用场景,如配置文件解析、复杂状态管理等,JavaScript提供了诸如Lodash这样的工具库,提供了诸如_.get()、_.set()等便捷方法,使得根据路径字符串动态获取或设置JSON任意层级的数据成为可能,大大提升了开发效率及代码可读性。 同时,针对安全性考量,在实际项目中处理JSON时应确保进行有效的数据验证和错误处理,防止因恶意构造或意外损坏的JSON数据导致的安全漏洞。例如,使用AJV等JSON Schema验证库,可以在数据解析前对其进行严格校验,从而降低潜在风险。 综上所述,对JSON数组名值获取的基础理解是前端乃至全栈开发者的必备技能之一,而随着技术发展和安全需求的提升,掌握更多先进的JSON处理策略与工具将为开发者应对各种复杂应用场景提供有力支持。
2023-10-30 12:28:39
512
编程狂人
MySQL
...操作系统平台而被广泛应用于网站开发、企业级应用系统以及各种需要持久化存储数据的应用场景。 关系型数据库管理系统(RDBMS) , 关系型数据库管理系统是一种建立在关系模型基础上的软件系统,它能通过表格、列和行的形式来组织、存储和管理数据,并利用SQL(Structured Query Language)语句进行数据操作。在文章中,MySQL即是一个典型的关系型数据库管理系统,通过它可以创建多个相互关联的数据库,确保数据的一致性和完整性。 SQL , SQL(Structured Query Language)是一种标准化的编程语言,用于管理和处理关系型数据库中的数据。在本文所描述的MySQL环境中,用户使用SQL命令来与数据库交互,例如“CREATE DATABASE”用于创建新的数据库,“SHOW DATABASES”则用于查看所有已存在的数据库列表。SQL语言不仅包括数据定义语言(DDL,如创建表或数据库),还包括数据操作语言(DML,如插入、更新和删除记录)以及数据查询语言(DQL,如SELECT语句)。
2023-08-12 18:53:34
138
码农
MySQL
...一种用于备份数据库的命令行工具,它可以将一个或多个MySQL数据库完整地导出为SQL脚本文件,包括表结构、数据记录以及触发器、存储过程等数据库对象。在文章中,用户通过执行mysqldump命令并指定用户名、密码和要导出的数据库名,将源MySQL服务器上的数据导出到本地的一个.sql文件中。 SQL文件 , SQL(Structured Query Language)文件是一种包含一系列SQL语句的文本文件,这些语句可以用来创建数据库表结构、插入数据、更新数据或者执行其他数据库操作。在本文上下文中,通过使用mysqldump工具从源MySQL数据库导出的数据被保存在一个SQL文件中,然后可以在目标MySQL服务器上通过执行该文件中的SQL语句来恢复或导入数据。 数据库服务器 , 数据库服务器是一种专门运行数据库管理系统软件,并负责存储、处理和管理大量结构化数据的计算机系统。在迁移MySQL数据的过程中,涉及到至少两个数据库服务器,即源数据库服务器(需要从其上导出数据)和目标数据库服务器(需要将数据导入到其中)。数据库服务器通常具备高可用性、容错性和可扩展性等特点,以满足不同规模的应用场景需求。
2023-02-12 10:44:09
70
数据库专家
Docker
...能够高效地发布和执行应用。在使用Docker时,你需要构建一个Docker镜像,他能够涵盖你的应用和其他依赖项,并且可以在Docker容器中执行。下面是如何使用Docker封装本机镜像的流程。 1. 创建Dockerfile FROM scratch ADD hello / CMD ["/hello"] Dockerfile是创建容器镜像的Docker脚本。上述Dockerfile从一个空白的镜像开始,然后将hello二进制文件添加到镜像中。最后,指定了hello二进制文件作为镜像启动时要执行的命令。 2. 构建Docker镜像 $ docker build -t hello . 该命令使用Dockerfile中的指令构建名称为hello的镜像。 3. 执行Docker容器 $ docker run --name hello-app hello 该命令启动名称为hello-app的容器,并使用构建好的hello镜像执行它。
2023-02-25 10:58:36
491
数据库专家
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
pgrep process_name
- 查找与进程名匹配的进程ID。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"