前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[Docker容器启动方式]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
转载文章
...的) pull 2、启动容器 run 3、进入容器 exec 1、镜像: docker hub官网搜索nginx 下载:docker pull nginx 查看下载情况:docker images 2、容器: 创建容器命令:docker run [-d 后台启动] [–name nginx01 起别名] [-p 3344:80 端口:协议] [镜像(包含版本)] (创建)启动容器实例:docker run -d --name nginx01 -p 3344:80 nginx 查看容器运行状况:docker ps 本机访问测试一下:curl localhost:3344 ■ 端口暴露 -p 宿主机端口:容器内部端口 浏览器输入: http://服务器ip地址:3344/ 3344 是暴露的端口 ----接下来: 进入(正在运行的)容器内部:docker exec -it nginx01 /bin/bash [root@iZwz9535z41cmgcpkm7i81Z /] docker exec -it nginx01 /bin/bashroot@d1a29e4791e3:/ whereis nginxnginx: /usr/sbin/nginx /usr/lib/nginx /etc/nginx /usr/share/nginxroot@d1a29e4791e3:/ cd /etc/nginxroot@d1a29e4791e3:/etc/nginx lsconf.d fastcgi_params mime.types modules nginx.conf scgi_params uwsgi_paramsroot@d1a29e4791e3:/etc/nginx ■ /bin/bash 是Linux的一种常用shell脚本,用于解释执行Linux命令,根据镜像支持的shell的不同,可以使用不同的的shell脚本。 容器,也是和虚拟机一样是虚拟技术呀,通过脚本执行/bin/bash实现,创建并进入容器内部docker ● 思考问题:每次改动nginx配置文件,都需要进入容器内部,十分麻烦: 要是可以在容器外部提供一个映射路径,达到在容器修改文件名,容器内部就可以自动修改?-v 数据卷技术! 二、部署tomcat docker run 可以不用pull,能自动下载 ctrl+c退出 docker pull tomcat:9.0 启动运行,应该加上版本号: docker run -d -p 3355:8080 --name tomcat01 tomcat:9.0 进入容器 docker exec -it tomcat01 /bin/bash ● 部署tomcat,发现问题: 1、linux命令少了 2、没有webapps 这是阿里云镜像的原因:默认使用最小镜像,所有不必要的都剔除了,保证最小可运行环境 可以通过拷贝的方式,解决没有webapps的问题: 在浏览器中输入:http://服务器ip地址:3355/ 进行访问 ● 思考问题:我们以后部署项目,如果每次都要进入容器很麻烦? 要是可以在容器外部提供一个映射路径,webapps,我们在外部放置项目,容器内部就可以自动修改?-v 数据卷技术! 三、部署es+kibana ● Elasticsearch 的问题: es 暴露的端口很多 es 十分耗内存 es 的数据一般需要放置到安全目录!挂载 1、问题1:es 十分耗内存 下载启动运行elastissearch 之后,Linux系统就变得特别卡 # 启动了 linux就卡住了docker stats# 查看 cpu的状态 #es 是十分耗内存的,1.xG# 1核2G(学生机)! # 查看 docker stats 2、问题2:es 需要暴露的端口很多 -p (下载)启动 elasticsearch$ docker run -d --name elasticsearch01 -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:7.6.2 查看内存占用情况docker stats 先感觉stop一下docker stop ba18713ca536 3、es 十分耗内存的解决:增加内存的限制,修改配置文件 -e 环境配置修改 通过 -e 限制内存docker run -d --name elasticsearch02 -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms64m -Xmx512m" elasticsearch:7.6.2 [root@iZwz9535z41cmgcpkm7i81Z /] curl localhost:9200/{"name" : "14329968b00f","cluster_name" : "docker-cluster","cluster_uuid" : "0iDu-G_KTo-4X8KORDj1XQ","version" : {"number" : "7.6.2","build_flavor" : "default","build_type" : "docker","build_hash" : "ef48eb35cf30adf4db14086e8aabd07ef6fb113f","build_date" : "2020-03-26T06:34:37.794943Z","build_snapshot" : false,"lucene_version" : "8.4.0","minimum_wire_compatibility_version" : "6.8.0","minimum_index_compatibility_version" : "6.0.0-beta1"},"tagline" : "You Know, for Search"} 4、思考:用kibana连接elasticsearch? 思考(kibana连接elasticsearch)网络如何连接过去 ☺ 参考来源: 狂神的B站视频《【狂神说Java】Docker最新超详细版教程通俗易懂》 https://www.bilibili.com/video/BV1og4y1q7M4 如果本文对你有帮助的话记得给一乐点个赞哦,感谢! 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_45630258/article/details/124785912。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-03-12 10:54:44
65
转载
Docker
...管理工具,特别是结合Docker使用后,简直是如虎添翼! 所以今天,咱们就来聊聊这些工具,看看它们能不能成为你心目中的“神器”。 --- 2. Docker 让一切都变得简单 首先,我们得谈谈Docker。Docker是什么?简单来说,它是一种容器化技术,可以让你的应用程序及其依赖项打包成一个独立的“容器”,然后轻松地运行在任何支持Docker的环境中。 举个例子吧,假如你想在一个全新的服务器上安装WordPress,传统方法可能是手动下载PHP、MySQL、Nginx等一堆软件,再逐一配置。而如果你用Docker,只需要一条命令就能搞定: bash docker run --name wordpress -d -p 80:80 \ -v /path/to/wordpress:/var/www/html \ -e WORDPRESS_DB_HOST=db \ -e WORDPRESS_DB_USER=root \ -e WORDPRESS_DB_PASSWORD=yourpassword \ wordpress 这段代码的意思是:启动一个名为wordpress的容器,并将本地目录/path/to/wordpress挂载到容器内的/var/www/html路径下,同时设置数据库连接信息。是不是比传统的安装方式简洁多了? 不过,单独使用Docker虽然强大,但对于不熟悉命令行的人来说还是有点门槛。这时候就需要一些辅助工具来帮助我们更好地管理和调度容器了。 --- 3. Portainer 可视化管理Docker的好帮手 Portainer绝对是我最近发现的一颗“宝藏”。它的界面非常直观,几乎不需要学习成本。不管是想看看现有的容器啥情况,还是想启动新的容器,甚至连网络和卷的管理,都只需要动动鼠标拖一拖、点一点就行啦! 比如,如果你想快速创建一个新的MySQL容器,只需要打开Portainer的Web界面,点击“Add Container”,然后填写几个基本信息即可: yaml image: mysql:5.7 name: my-mysql ports: - "3306:3306" volumes: - /data/mysql:/var/lib/mysql environment: MYSQL_ROOT_PASSWORD: rootpassword 这段YAML配置文件描述了一个MySQL容器的基本参数。Portainer会自动帮你解析并生成对应的Docker命令。是不是超方便? 另外,Portainer还有一个特别棒的功能——实时监控。你打开页面就能看到每个“小房子”(就是容器)里用掉的CPU和内存情况,而且还能像穿越空间一样,去访问别的机器上跑着的那些“小房子”(Docker实例)。这种功能对于运维人员来说简直是福音! --- 4. Rancher 企业级的容器编排利器 如果你是一个团队协作的开发者,或者正在运营一个大规模的服务集群,那么Rancher可能是你的最佳选择。它不仅仅是一个Docker管理工具,更是一个完整的容器编排平台。 Rancher的核心优势在于它的“多集群管理”能力。想象一下,你的公司有好几台服务器,分别放在地球上的不同角落,有的在美国,有的在欧洲,还有的在中国。每台服务器上都跑着各种各样的服务,比如网站、数据库啥的。这时候,Rancher就派上用场了!它就像一个超级贴心的小管家,让你不用到处切换界面,在一个地方就能轻松搞定所有服务器和服务的管理工作,省时又省力! 举个例子,如果你想在Rancher中添加一个新的节点,只需要几步操作即可完成: 1. 登录Rancher控制台。 2. 点击“Add Cluster”按钮。 3. 输入目标节点的信息(IP地址、SSH密钥等)。 4. 等待几分钟,Rancher会自动为你安装必要的组件。 一旦节点加入成功,你就可以直接在这个界面上部署应用了。比如,用Kubernetes部署一个Redis集群: bash kubectl create deployment redis --image=redis:alpine kubectl expose deployment redis --type=LoadBalancer --port=6379 虽然这条命令看起来很简单,但它背后实际上涉及到了复杂的调度逻辑和网络配置。而Rancher把这些复杂的事情封装得很好,让我们可以专注于业务本身。 --- 5. Traefik 反向代理与负载均衡的最佳拍档 最后要介绍的是Traefik,这是一个轻量级的反向代理工具,专门用来处理HTTP请求的转发和负载均衡。它最厉害的地方啊,就是能跟Docker完美地融为一体,还能根据容器上的标签,自动调整路由规则呢! 比如说,你有两个服务分别监听在8080和8081端口,现在想通过一个域名访问它们。只需要给这两个容器加上相应的标签: yaml labels: - "traefik.enable=true" - "traefik.http.routers.service1.rule=Host(service1.example.com)" - "traefik.http.services.service1.loadbalancer.server.port=8080" - "traefik.http.routers.service2.rule=Host(service2.example.com)" - "traefik.http.services.service2.loadbalancer.server.port=8081" 这样一来,当用户访问service1.example.com时,Traefik会自动将请求转发到监听8080端口的容器;而访问service2.example.com则会指向8081端口。这种方式不仅高效,还极大地减少了配置的工作量。 --- 6. 总结 找到最适合自己的工具 好了,到这里咱们已经聊了不少关于服务器管理工具的话题。从Docker到Portainer,再到Rancher和Traefik,每一种工具都有其独特的优势和适用场景。 我的建议是,先根据自己的需求确定重点。要是你只想弄个小玩意儿,图个省事儿快点搞起来,那用Docker配个Portainer就完全够用了。但要是你们团队一起干活儿,或者要做大范围的部署,那Rancher这种专业的“老司机工具”就得安排上啦! 当然啦,技术的世界永远没有绝对的答案。其实啊,很多时候你会发现,最适合你的工具不一定是最火的那个,而是那个最合你心意、用起来最顺手的。就像穿鞋一样,别人觉得好看的根本不合脚,而那双不起眼的小众款却让你走得又稳又舒服!所以啊,在用这些工具的时候,别光顾着看,得多动手试试,边用边记下自己的感受和想法,这样你才能真的搞懂它们到底有啥门道! 好了,今天的分享就到这里啦!如果你还有什么问题或者想法,欢迎随时留言交流哦~咱们下次再见啦!
2025-04-16 16:05:13
97
月影清风_
转载文章
...删除相应内容。 随着容器技术越来越火热,各种大会上标杆企业分享容器化收益,带动其他还未实施容器的企业也在考虑实施容器化。不过真要在自己企业实践容器的时候,会认识到容器化不是一个简单工程,甚至会有一种茫然不知从何入手的感觉。 本文总结了通用的企业容器化实施线路图,主要针对企业有存量系统改造为容器,或者部分新开发的系统使用容器技术的场景。不包含企业系统从0开始全新构建的场景,这种场景相对简单。 容器实践路线图 企业着手实践容器的路线,建议从3个维度评估,然后根据评估结果落地实施。3个评估维度为:商业目标,技术选型,团队配合。 商业目标是重中之重,需要回答为何要容器化,这个也是牵引团队在容器实践路上不断前行的动力,是遇到问题是解决问题的方向指引,最重要的是让决策者认同商业目标,并能了解到支持商业目标的技术原理,上下目标对齐才好办事。 商业目标确定之后,需要确定容器相关的技术选型,容器是一种轻量化的虚拟化技术,与传统虚拟机比较有优点也有缺点,要找出这些差异点识别出对基础设施与应用的影响,提前识别风险并采取应对措施。 技术选型明确之后,在公司或部门内部推广与评审,让开发人员、架构师、测试人员、运维人员相关人员与团队理解与认同方案,听取他们意见,他们是直接使用容器的客户,不要让他们有抱怨。 最后是落地策略,一般是选取一些辅助业务先试点,在实践过程中不断总结经验。 商业目标 容器技术是以应用为中心的轻量级虚拟化技术,而传统的Xen与KVM是以资源为中心的虚拟化技术,这是两者的本质差异。以应用为中心是容器技术演进的指导原则,正是在这个原则指导下,容器技术相对于传统虚拟化有几个特点:打包既部署、镜像分层、应用资源调度。 打包即部署:打包即部署是指在容器镜像制作过程包含了传统软件包部署的过程(安装依赖的操作系统库或工具、创建用户、创建运行目录、解压、设置文件权限等等),这么做的好处是把应用及其依赖封装到了一个相对封闭的环境,减少了应用对外部环境的依赖,增强了应用在各种不同环境下的行为一致性,同时也减少了应用部署时间。 镜像分层:容器镜像包是分层结构,同一个主机上的镜像层是可以在多个容器之间共享的,这个机制可以极大减少镜像更新时候拉取镜像包的时间,通常应用程序更新升级都只是更新业务层(如Java程序的jar包),而镜像中的操作系统Lib层、运行时(如Jre)层等文件不会频繁更新。因此新版本镜像实质有变化的只有很小的一部分,在更新升级时候也只会从镜像仓库拉取很小的文件,所以速度很快。 应用资源调度:资源(计算/存储/网络)都是以应用为中心的,中心体现在资源分配是按照应用粒度分配资源、资源随应用迁移。 基于上述容器技术特点,可以推导出容器技术的3大使用场景:CI/CD、提升资源利用率、弹性伸缩。这3个使用场景自然推导出通用的商业层面收益:CI/CD提升研发效率、提升资源利用率降低成本、按需弹性伸缩在体验与成本之间达成平衡。 当然,除了商业目标之外,可能还有其他一些考虑因素,如基于容器技术实现计算任务调度平台、保持团队技术先进性等。 CI/CD提升研发效率 为什么容器技术适合CI/CD CI/CD是DevOps的关键组成部分,DevOps是一套软件工程的流程,用于持续提升软件开发效率与软件交付质量。DevOps流程来源于制造业的精益生产理念,在这个领域的领头羊是丰田公司,《丰田套路》这本书总结丰田公司如何通过PDCA(Plan-Do-Check-Act)方法实施持续改进。PDCA通常也称为PDCA循环,PDCA实施过程简要描述为:确定目标状态、分析当前状态、找出与目标状态的差距、制定实施计划、实施并总结、开始下一个PDCA过程。 DevOps基本也是这么一个PDCA流程循环,很容易认知到PDCA过程中效率是关键,同一时间段内,实施更多数量的PDCA过程,收益越高。在软件开发领域的DevOps流程中,各种等待(等待编译、等待打包、等待部署等)、各种中断(部署失败、机器故障)是影响DevOps流程效率的重要因素。 容器技术出来之后,将容器技术应用到DevOps场景下,可以从技术手段消除DevOps流程中的部分等待与中断,从而大幅度提升DevOps流程中CI/CD的效率。 容器的OCI标准定义了容器镜像规范,容器镜像包与传统的压缩包(zip/tgz等)相比有两个关键区别点:1)分层存储;2)打包即部署。 分层存储可以极大减少镜像更新时候拉取镜像包的时间,通常应用程序更新升级都只是更新业务层(如Java程序的jar包),而镜像中的操作系统Lib层、运行时(如Jre)层等文件不会频繁更新。因此新版本镜像实质有变化的只有很小的一部分,在更新升级时候也只会从镜像仓库拉取很小的文件,所以速度很快。 打包即部署是指在容器镜像制作过程包含了传统软件包部署的过程(安装依赖的操作系统库或工具、创建用户、创建运行目录、解压、设置文件权限等等),这么做的好处是把应用及其依赖封装到了一个相对封闭的环境,减少了应用对外部环境的依赖,增强了应用在各种不同环境下的行为一致性,同时也减少了应用部署时间。 基于容器镜像的这些优势,容器镜像用到CI/CD场景下,可以减少CI/CD过程中的等待时间,减少因环境差异而导致的部署中断,从而提升CI/CD的效率,提升整体研发效率。 CI/CD的关键诉求与挑战 快 开发人员本地开发调试完成后,提交代码,执行构建与部署,等待部署完成后验证功能。这个等待的过程尽可能短,否则开发人员工作容易被打断,造成后果就是效率降低。如果提交代码后几秒钟就能够完成部署,那么开发人员几乎不用等待,工作也不会被打断;如果需要好几分钟或十几分钟,那么可以想象,这十几分钟就是浪费了,这时候很容易做点别的事情,那么思路又被打断了。 所以构建CI/CD环境时候,快是第一个需要考虑的因素。要达到快,除了有足够的机器资源免除排队等待,引入并行编译技术也是常用做法,如Maven3支持多核并行构建。 自定义流程 不同行业存在不同的行业规范、监管要求,各个企业有一套内部质量规范,这些要求都对软件交付流程有定制需求,如要求使用商用的代码扫描工具做安全扫描,如构建结果与企业内部通信系统对接发送消息。 在团队协同方面,不同的公司,对DevOps流程在不同团队之间分工有差异,典型的有开发者负责代码编写构建出构建物(如jar包),而部署模板、配置由运维人员负责;有的企业开发人员负责构建并部署到测试环境;有的企业开发人员直接可以部署到生产环境。这些不同的场景,对CI/CD的流程、权限管控都有定制需求。 提升资源利用率 OCI标准包含容器镜像标准与容器运行时标准两部分,容器运行时标准聚焦在定义如何将镜像包从镜像仓库拉取到本地并更新、如何隔离运行时资源这些方面。得益于分层存储与打包即部署的特性,容器镜像从到镜像仓库拉取到本地运行速度非常快(通常小于30秒,依赖镜像本身大小等因素),基于此可以实现按需分配容器运行时资源(cpu与内存),并限定单个容器资源用量;然后根据容器进程资源使用率设定弹性伸缩规则,实现自动的弹性伸缩。 这种方式相对于传统的按峰值配置资源方式,可以提升资源利用率。 按需弹性伸缩在体验与成本之间达成平衡 联动弹性伸缩 应用运行到容器,按需分配资源之后,理想情况下,Kubernetes的池子里没有空闲的资源。这时候扩容应用实例数,新扩容的实例会因资源不足调度失败。这时候需要资源池能自动扩容,加入新的虚拟机,调度新扩容的应用。 由于应用对资源的配比与Flavor有要求,因此新加入的虚拟机,应当是与应用所需要的资源配比与Flavor一致的。缩容也是类似。 弹性伸缩还有一个诉求点是“平滑”,对业务做到不感知,也称为“优雅”扩容/缩容。 请求风暴 上面提到的弹性伸缩一般是有计划或缓慢增压的场景,存在另外一种无法预期的请求风暴场景,这种场景的特征是无法预测、突然请求量增大数倍或数十倍、持续时间短。典型的例子如行情交易系统,当行情突变的时候,用户访问量徒增,持续几十分钟或一个小时。 这种场景的弹性诉求,要求短时间内能将资源池扩大数倍,关键是速度要快(秒级),否则会来不及扩容,系统已经被冲垮(如果无限流的话)。 目前基于 Virtual Kubelet 与云厂家的 Serverless 容器,理论上可以提供应对请求风暴的方案。不过在具体实施时候,需要考虑传统托管式Kubernetes容器管理平台与Serverless容器之间互通的问题,需要基于具体厂家提供的能力来评估。 基于容器技术实现计算调度平台 计算(大数据/AI训练等)场景的特征是短时间内需要大量算力,算完即释放。容器的环境一致性以及调度便利性适合这种场景。 技术选型 容器技术是属于基础设施范围,但是与传统虚拟化技术(Xen/KVM)比较,容器技术是应用虚拟化,不是纯粹的资源虚拟化,与传统虚拟化存在差异。在容器技术选型时候,需要结合当前团队在应用管理与资源管理的现状,对照容器技术与虚拟化技术的差异,选择最合适的容器技术栈。 什么是容器技术 (1)容器是一种轻量化的应用虚拟化技术。 在讨论具体的容器技术栈的时候,先介绍目前几种常用的应用虚拟化技术,当前有3种主流的应用虚拟化技术: LXC,MicroVM,UniKernel(LibOS)。 LXC: Linux Container,通过 Linux的 namespace/cgroups/chroot 等技术隔离进程资源,目前应用最广的docker就是基于LXC实现应用虚拟化的。 MicroVM: MicroVM 介于 传统的VM 与 LXC之间,隔离性比LXC好,但是比传统的VM要轻量,轻量体现在体积小(几M到几十M)、启动快(小于1s)。 AWS Firecracker 就是一种MicroVM的实现,用于AWS的Serverless计算领域,Serverless要求启动快,租户之间隔离性好。 UniKernel: 是一种专用的(特定编程语言技术栈专用)、单地址空间、使用 library OS 构建出来的镜像。UniKernel要解决的问题是减少应用软件的技术栈层次,现代软件层次太多导致越来越臃肿:硬件+HostOS+虚拟化模拟+GuestOS+APP。UniKernel目标是:硬件+HostOS+虚拟化模拟+APP-with-libos。 三种技术对比表: 开销 体积 启动速度 隔离/安全 生态 LXC 低(几乎为0) 小 快(等同进程启动) 差(内核共享) 好 MicroVM 高 大 慢(小于1s) 好 中(Kata项目) UniKernel 中 中 中 好 差 根据上述对比来看,LXC是应用虚拟化首选的技术,如果LXC无法满足隔离性要,则可以考虑MicroVM这种技术。当前社区已经在着手融合LXC与MicroVM这两种技术,从应用打包/发布调度/运行层面统一规范,Kubernetes集成Kata支持混合应用调度特性可以了解一下。 UniKernel 在应用生态方面相对比较落后,目前在追赶中,目前通过 linuxkit 工具可以在UniKernel应用镜像中使用docker镜像。这种方式笔者还未验证过,另外docker镜像运行起来之后,如何监控目前还未知。 从上述三种应用虚拟化技术对比,可以得出结论: (2)容器技术与传统虚拟化技术不断融合中。 再从规范视角来看容器技术,可以将容器技术定义为: (3)容器=OCI+CRI+辅助工具。 OCI规范包含两部分,镜像规范与运行时规范。简要的说,要实现一个OCI的规范,需要能够下载镜像并解压镜像到文件系统上组成成一个文件目录结构,运行时工具能够理解这个目录结构并基于此目录结构管理(创建/启动/停止/删除)进程。 容器(container)的技术构成就是实现OCI规范的技术集合。 对于不同的操作系统(Linux/Windows),OCI规范的实现技术不同,当前docker的实现,支持Windows与Linux与MacOS操作系统。当前使用最广的是Linux系统,OCI的实现,在Linux上组成容器的主要技术: chroot: 通过分层文件系统堆叠出容器进程的rootfs,然后通过chroot设置容器进程的根文件系统为堆叠出的rootfs。 cgroups: 通过cgroups技术隔离容器进程的cpu/内存资源。 namesapce: 通过pid, uts, mount, network, user namesapce 分别隔离容器进程的进程ID,时间,文件系统挂载,网络,用户资源。 网络虚拟化: 容器进程被放置到独立的网络命名空间,通过Linux网络虚拟化veth, macvlan, bridge等技术连接主机网络与容器虚拟网络。 存储驱动: 本地文件系统,使用容器镜像分层文件堆叠的各种实现驱动,当前推荐的是overlay2。 广义的容器还包含容器编排,即当下很火热的Kubernetes。Kubernetes为了把控容器调度的生态,发布了CRI规范,通过CRI规范解耦Kubelet与容器,只要实现了CRI接口,都可以与Kubelet交互,从而被Kubernetes调度。OCI规范的容器实现与CRI标准接口对接的实现是CRI-O。 辅助工具用户构建镜像,验证镜像签名,管理存储卷等。 容器定义 容器是一种轻量化的应用虚拟化技术。 容器=OCI+CRI+辅助工具。 容器技术与传统虚拟化技术不断融合中。 什么是容器编排与调度 选择了应用虚拟化技术之后,还需要应用调度编排,当前Kubernetes是容器领域内编排的事实标准,不管使用何种应用虚拟化技术,都已经纳入到了Kubernetes治理框架中。 Kubernetes 通过 CRI 接口规范,将应用编排与应用虚拟化实现解耦:不管使用何种应用虚拟化技术(LXC, MicroVM, LibOS),都能够通过Kubernetes统一编排。 当前使用最多的是docker,其次是cri-o。docker与crio结合kata-runtime都能够支持多种应用虚拟化技术混合编排的场景,如LXC与MicroVM混合编排。 docker(now): Moby 公司贡献的 docker 相关部件,当前主流使用的模式。 docker(daemon) 提供对外访问的API与CLI(docker client) containerd 提供与 kubelet 对接的 CRI 接口实现 shim负责将Pod桥接到Host namespace。 cri-o: 由 RedHat/Intel/SUSE/IBM/Hyper 公司贡献的实现了CRI接口的符合OCI规范的运行时,当前包括 runc 与 kata-runtime ,也就是说使用 cir-o 可以同时运行LXC容器与MicroVM容器,具体在Kata介绍中有详细说明。 CRI-O: 实现了CRI接口的进程,与 kubelet 交互 crictl: 类似 docker 的命令行工具 conmon: Pod监控进程 other cri runtimes: 其他的一些cri实现,目前没有大规模应用到生产环境。 容器与传统虚拟化差异 容器(container)的技术构成 前面主要讲到的是容器与编排,包括CRI接口的各种实现,我们把容器领域的规范归纳为南向与北向两部分,CRI属于北向接口规范,对接编排系统,OCI就属于南向接口规范,实现应用虚拟化。 简单来讲,可以这么定义容器: 容器(container) ~= 应用打包(build) + 应用分发(ship) + 应用运行/资源隔离(run)。 build-ship-run 的内容都被定义到了OCI规范中,因此也可以这么定义容器: 容器(container) == OCI规范 OCI规范包含两部分,镜像规范与运行时规范。简要的说,要实现一个OCI的规范,需要能够下载镜像并解压镜像到文件系统上组成成一个文件目录结构,运行时工具能够理解这个目录结构并基于此目录结构管理(创建/启动/停止/删除)进程。 容器(container)的技术构成就是实现OCI规范的技术集合。 对于不同的操作系统(Linux/Windows),OCI规范的实现技术不同,当前docker的实现,支持Windows与Linux与MacOS操作系统。当前使用最广的是Linux系统,OCI的实现,在Linux上组成容器的主要技术: chroot: 通过分层文件系统堆叠出容器进程的rootfs,然后通过chroot设置容器进程的根文件系统为堆叠出的rootfs。 cgroups: 通过cgroups技术隔离容器进程的cpu/内存资源。 namesapce: 通过pid, uts, mount, network, user namesapce 分别隔离容器进程的进程ID,时间,文件系统挂载,网络,用户资源。 网络虚拟化: 容器进程被放置到独立的网络命名空间,通过Linux网络虚拟化veth, macvlan, bridge等技术连接主机网络与容器虚拟网络。 存储驱动: 本地文件系统,使用容器镜像分层文件堆叠的各种实现驱动,当前推荐的是overlay2。 广义的容器还包含容器编排,即当下很火热的Kubernetes。Kubernetes为了把控容器调度的生态,发布了CRI规范,通过CRI规范解耦Kubelet与容器,只要实现了CRI接口,都可以与Kubelet交互,从而被Kubernetes调度。OCI规范的容器实现与CRI标准接口对接的实现是CRI-O。 容器与虚拟机差异对比 容器与虚拟机的差异可以总结为2点:应用打包与分发的差异,应用资源隔离的差异。当然,导致这两点差异的根基是容器是以应用为中心来设计的,而虚拟化是以资源为中心来设计的,本文对比容器与虚拟机的差异,更多的是站在应用视角来对比。 从3个方面对比差异:资源隔离,应用打包与分发,延伸的日志/监控/DFX差异。 1.资源隔离 隔离机制差异 容器 虚拟化 mem/cpu cgroup, 使用时候设定 require 与 limit 值 QEMU, KVM network Linux网络虚拟化技术(veth,tap,bridge,macvlan,ipvlan), 跨虚拟机或出公网访问:SNAT/DNAT, service转发:iptables/ipvs, SR-IOV Linux网络虚拟化技术(veth,tap,bridge,macvlan,ipvlan), QEMU, SR-IOV storage 本地存储: 容器存储驱动 本地存储:virtio-blk 差异引入问题与实践建议 应用程序未适配 cgroup 的内存隔离导致问题: 典型的是 JVM 虚拟机,在 JVM 启动时候会根据系统内存自动设置 MaxHeapSize 值,通常是系统内存的1/4,但是 JVM 并未考虑 cgroup 场景,读系统内存时候任然读取主机的内存来设置 MaxHeapSize,这样会导致内存超过 cgroup 限制从而导致进程被 kill 。问题详细阐述与解决建议参考Java inside docker: What you must know to not FAIL。 多次网络虚拟化问题: 如果在虚拟机内使用容器,会多一层网络虚拟化,并加入了SNAT/DNAT技术, iptables/ipvs技术,对网络吞吐量与时延都有影响(具体依赖容器网络方案),对问题定位复杂度变高,同时还需要注意网络内核参数调优。 典型的网络调优参数有:转发表大小 /proc/sys/net/netfilter/nf_conntrack_max 使用iptables 作为service转发实现的时候,在转发规则较多的时候,iptables更新由于需要全量更新导致非常耗时,建议使用ipvs。详细参考[华为云在 K8S 大规模场景下的 Service 性能优化实践](https://zhuanlan.zhihu.com/p/37230013)。 容器IP地址频繁变化不固定,周边系统需要协调适配,包括基于IP地址的白名单或防火墙控制策略需要调整,CMDB记录的应用IP地址需要适配动态IP或者使用服务名替代IP地址。 存储驱动带来的性能损耗: 容器本地文件系统是通过联合文件系统方式堆叠出来的,当前主推与默认提供的是overlay2驱动,这种模式应用写本地文件系统文件或修改已有文件,使用Copy-On-Write方式,也就是会先拷贝源文件到可写层然后修改,如果这种操作非常频繁,建议使用 volume 方式。 2.应用打包与分发 应用打包/分发/调度差异 容器 虚拟化 打包 打包既部署 一般不会把应用程序与虚拟机打包在一起,通过部署系统部署应用 分发 使用镜像仓库存储与分发 使用文件存储 调度运行 使用K8S亲和/反亲和调度策略 使用部署系统的调度能力 差异引入问题与实践建议 部署提前到构建阶段,应用需要支持动态配置与静态程序分离;如果在传统部署脚本中依赖外部动态配置,这部分需要做一些调整。 打包格式发生变化,制作容器镜像需要注意安全/效率因素,可参考Dockerfile最佳实践 容器镜像存储与分发是按layer来组织的,镜像在传输过程中放篡改的方式是传统软件包有差异。 3.监控/日志/DFX 差异 容器 虚拟化 监控 cpu/mem的资源上限是cgroup定义的;containerd/shim/docker-daemon等进程的监控 传统进程监控 日志采集 stdout/stderr日志采集方式变化;日志持久化需要挂载到volume;进程会被随机调度到其他节点导致日志需要实时采集否则分散很难定位 传统日志采集 问题定位 进程down之后自动拉起会导致问题定位现场丢失;无法停止进程来定位问题因为停止即删除实例 传统问题定位手段 差异引入问题实践与建议 使用成熟的监控工具,运行在docker中的应用使用cadvisor+prometheus实现采集与警报,cadvisor中预置了常用的监控指标项 对于docker管理进程(containerd/shim/docker-daemon)也需要一并监控 使用成熟的日志采集工具,如果已有日志采集Agent,则可以考虑将日志文件挂载到volume后由Agent采集;需要注意的是stderr/stdout输出也要一并采集 如果希望容器内应用进程退出后保留现场定位问题,则可以将Pod的restartPolicy设置为never,进程退出后进程文件都还保留着(/var/lib/docker/containers)。但是这么做的话需要进程没有及时恢复,会影响业务,需要自己实现进程重拉起。 团队配合 与周边的开发团队、架构团队、测试团队、运维团队评审并交流方案,与周边团队达成一致。 落地策略与注意事项 逐步演进过程中网络互通 根据当前已经存在的基础实施情况,选择容器化落地策略。通常使用逐步演进的方式,由于容器化引入了独立的网络namespace导致容器与传统虚拟机进程网络隔离,逐步演进过程中如何打通隔离的网络是最大的挑战。 分两种场景讨论: 不同服务集群之间使用VIP模式互通: 这种模式相对简单,基于VIP做灰度发布。 不同服务集群之间使用微服务点对点模式互通(SpringCloud/ServiceComb/Dubbo都是这一类): 这种模式相对复杂,在逐步容器化过程中,要求容器网络与传统虚拟机网络能够互通(难点是在虚拟机进程内能够直接访问到容器网络的IP地址),当前解决这个问题有几种方法。 自建Kubernetes场景,可使用开源的kube-router,kube-router 使用BGP协议实现容器网络与传统虚拟机网络之间互通,要求网络交换机支持BGP协议。 使用云厂商托管Kubernetes场景,选择云厂商提供的VPC-Router互通的网络插件,如阿里云的Terway网络插件, 华为云的Underlay网络模式。 选择物理机还是虚拟机 选择物理机运行容器还是虚拟机运行容器,需要结合基础设施与业务隔离性要求综合考虑。分两种场景:自建IDC、租用公有云。 自建IDC: 理想情况是使用物理机组成一个大集群,根据业务诉求,对资源保障与安全性要求高的应用,使用MicorVM方式隔离;普通应用使用LXC方式隔离。所有物理机在一个大集群内,方便削峰填谷提升资源利用率。 租用公有云:当前公有云厂家提供的裸金属服务价格较贵且只能包周期,使用裸金属性价比并不高,使用虚拟机更合适。 集群规模与划分 选择集群时候,是多个应用共用一个大集群,还是按应用分组分成多个小集群呢?我们把节点规模数量>=1000的定义为大集群,节点数<1000的定义为小集群。 大集群的优点是资源池共享容器,方便资源调度(削峰填谷);缺点是随着节点数量与负载数量的增多,会引入管理性能问题(需要量化): DNS 解析表变大,增加/删除 Service 或 增加/删除 Endpoint 导致DNS表刷新慢 K8S Service 转发表变大,导致工作负载增加/删除刷新iptables/ipvs记录变慢 etcd 存储空间变大,如果加上ConfigMap,可能导致 etcd 访问时延增加 小集群的优点是不会有管理性能问题,缺点是会导致资源碎片化,不容易共享。共享分两种情况: 应用之间削峰填谷:目前无法实现 计算任务与应用之间削峰填谷:由于计算任务是短时任务,可以通过上层的任务调度软件,在多个集群之间分发计算任务,从而达到集群之间资源共享的目的。 选择集群规模的时候,可以参考上述分析,结合实际情况选择适合的集群划分。 Helm? Helm是为了解决K8S管理对象散碎的问题,在K8S中并没有"应用"的概念,只有一个个散的对象(Deployment, ConfigMap, Service, etc),而一个"应用"是多个对象组合起来的,且这些对象之间还可能存在一定的版本配套关系。 Helm 通过将K8S多个对象打包为一个包并标注版本号形成一个"应用",通过 Helm 管理进程部署/升级这个"应用"。这种方式解决了一些问题(应用分发更方便)同时也引入了一些问题(引入Helm增加应用发布/管理复杂度、在K8S修改了对象后如何同步到Helm)。对于是否需要使用Helm,建议如下: 在自运维模式下不使用Helm: 自运维模式下,很多场景是开发团队交付一个运行包,运维团队负责部署与配置下发,内部通过兼容性或软件包与配置版本配套清单、管理软件包与配置的配套关系。 在交付软件包模式下使用Helm: 交付软件包模式下,Helm 这种把散碎组件组装为一个应用的模式比较适合,使用Helm实现软件包分发/部署/升级场比较简单。 Reference DOCKER vs LXC vs VIRTUAL MACHINES Cgroup与LXC简介 Introducing Container Runtime Interface (CRI) in Kubernetes frakti rkt appc-spec OCI 和 runc:容器标准化和 docker Linux 容器技术史话:从 chroot 到未来 Linux Namespace和Cgroup Java inside docker: What you must know to not FAIL QEMU,KVM及QEMU-KVM介绍 kvm libvirt qemu实践系列(一)-kvm介绍 KVM 介绍(4):I/O 设备直接分配和 SR-IOV [KVM PCI/PCIe Pass-Through SR-IOV] prometheus-book 到底什么是Unikernel? The Rise and Fall of the Operating System The Design and Implementation of the Anykernel and Rump Kernels UniKernel Unikernel:从不入门到入门 OSv 京东如何打造K8s全球最大集群支撑万亿电商交易 Cloud Native App Hub 更多云最佳实践 https://best.practices.cloud 本篇文章为转载内容。原文链接:https://blog.csdn.net/sinat_33155975/article/details/118013855。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-09-17 15:03:28
225
转载
MySQL
...s系统中,通过命令行启动MySQL数据库是众多管理操作的基础步骤之一。随着MySQL 8.0版本的广泛应用以及云计算、容器化技术的发展,MySQL数据库的部署和管理方式也在持续演进。例如,用户现在可以通过Docker轻松部署MySQL服务器,简化了安装与配置过程,同时也便于实现跨环境的一致性。 近期,微软Azure云平台推出了针对MySQL的完全托管服务,用户无需关心底层基础设施,只需通过图形化界面或API即可完成数据库的创建、配置及扩展等操作。对于那些关注性能优化和高可用性的用户,可以进一步探索MySQL 8.0中的新特性,如窗口函数、原子DDL操作、资源组管理和CACHING_sha2_password身份验证插件等,以提升数据库的稳定性和安全性。 此外,随着DevOps文化的普及,越来越多的企业采用自动化工具(如Ansible、Chef或Puppet)进行MySQL数据库的运维管理,包括自动备份恢复、监控告警、性能调优等任务,大大提高了工作效率和系统稳定性。 而对于深入学习MySQL的开发者和技术人员,建议阅读官方文档和社区发布的最新教程,了解如何在不同场景下利用MySQL命令行、Workbench图形工具或者PHPMyAdmin等第三方工具进行数据库设计、SQL查询优化以及权限管理等高级实践。同时,跟踪MySQL官方博客和社区论坛上的讨论,及时获取关于安全更新、补丁发布以及最佳实践的最新资讯,确保在享受MySQL强大功能的同时,能够紧跟时代步伐,应对不断变化的技术挑战。
2023-12-12 11:10:15
135
数据库专家
Docker
Docker是一种普遍的容器技术,能够协助程序员快速构建、发布和执行应用软件。其中一个重要的特性是能够与宿主机共享网络,使得Docker容器能够与宿主机网卡进行通讯,达成网络连接。 $ docker run -it --net=host imageName 可以使用上面的指令来执行一个Docker容器,其中--net=host选项许可容器共享宿主机的网络命名空间,即使用宿主机的网络栈。 例如,如果你有一个Python应用软件在容器中执行,并且需要连接宿主机上的MySQL数据库,则可以使用以下代码来连接: import mysql.connector cnx = mysql.connector.connect(user='root', password='password', host='127.0.0.1', database='test', auth_plugin='mysql_native_password') cursor = cnx.cursor() 在这个示例中,Python应用软件在容器中执行,但是与宿主机共享网络,因此可以连接到宿主机上的MySQL数据库。 总而言之,在Docker中与宿主机共享网络是非常容易的。只需使用--net=host选项执行容器即可达成。这个特性在很多场景下非常有用,如连接数据库、调用API等。
2023-03-28 21:41:55
589
逻辑鬼才
Docker
容器化平台 , 容器化平台是一种虚拟化技术,它将应用程序及其依赖环境(如库、配置文件等)打包成独立的、可移植的单元——容器。在Docker这样的容器化平台上,每个容器都运行在宿主机操作系统上,但拥有隔离的用户空间,从而实现轻量级的资源隔离和部署。这意味着开发者可以将应用及其所有依赖项封装在一个容器中,在任何支持Docker的环境中,只需简单命令即可启动并运行该应用,确保了跨环境的一致性和便捷性。 Docker Hub , Docker Hub是Docker官方提供的镜像仓库服务,类似于软件开发中的代码仓库,但它存储的是Docker镜像。开发者可以在Docker Hub上查找、下载、分享和管理自己的Docker镜像,极大地简化了镜像分发与复用的过程。例如,通过docker run hello-world命令就能从Docker Hub拉取并运行hello-world镜像,体现了Docker Hub作为中心化镜像仓库的核心价值。 镜像 , 在Docker环境下,镜像是创建和运行容器的基础模板,包含了应用程序及其运行所需的所有文件和配置信息。镜像以层式结构构建,每层代表应用程序的一个修改或添加,从而使得镜像具有高效存储和快速分发的特点。例如,使用docker build -t myapp .命令基于当前目录下的Dockerfile构建一个名为myapp的新镜像,然后通过docker run -p 80:80 myapp命令使用这个新镜像启动一个容器,并映射端口以便外部访问。这样,无论何时何地,只要有了这个镜像,就可以快速且一致地创建出能够运行特定应用程序的容器实例。
2023-03-13 14:25:53
347
编程狂人
Docker
Docker是一个允许开发者在容器中创建、封装和发布应用程序的开源平台。它的优点在于提高开发、测试和生产环境的一致性、弹性和迁移性。 在本文中,我们将介绍如何执行Docker创建一个NPM环境。 首先,我们需要预备一个项目目录。在该目录下创建一个Dockerfile,这是Docker用以创建镜像的文件。 FROM node:10 RUN npm install -g npm WORKDIR /app COPY package.json ./ RUN npm install COPY . . CMD ["npm", "start"] 该Dockerfile执行Node.js作为基础容器,并在其中添加了NPM。它将我们的应用程序文件移动至/app目录,并通过CMD运行NPM。接下来,执行docker build命令来创建该镜像: docker build -t mynpm . 这个命令会创建一个名为"mynpm"的镜像。一旦创建完成,我们就可以通过以下命令将其运行: docker run -it --rm mynpm 这个命令将在交互模式下运行容器,并在容器中运行NPM。如果我们需要将宿主机的文件夹映射到容器中,以便可以对代码进行更改和调试,则可以执行以下命令: docker run -it --rm -v "$(pwd)":/app mynpm 此命令将把当前项目目录绑定到容器的/app目录中。 在容器中安装npm包很容易。只需执行docker run -it --rm mynpm 命令进入交互模式,然后在其中运行npm install即可。 在完成容器的创建和运行后,我们现在已经拥有了一个可重复、可移植并且易于管理的NPM环境!
2023-12-05 10:01:06
529
逻辑鬼才
Docker
Docker是一种容器技术,可以将应用程序和它们的依赖资源封装在一个容器中,使它们可以在任何系统上运行。但是,有时候Docker容器或许会崩溃,这时需要重启容器。 docker ps -a // 查看现有全部容器以及运行情况 docker start<容器ID>// 开启已暂停的容器 docker attach<容器ID>// 登陆容器 ctrl + p + q // 离开并将容器暂停 docker exec -it<容器ID>/bin/bash // 以命令行交互模式方式登陆容器 docker top<容器ID>// 显示容器内运行的进程 docker logs<容器ID>// 查看容器的日志 docker stats<容器ID>// 查看容器的资源占用情况 如果以上命令无法解决问题,可以考虑删除容器重新构建并运行: docker stop<容器ID>// 停止当前崩溃的容器 docker rm<容器ID>// 删除容器 docker images // 查看所有镜像 docker rmi<镜像ID>// 删除相关的镜像 docker build -t<新容器名称>. // 构建新容器 docker run -d<新容器名称>// 运行新容器 重启Docker容器的方法有许多,需要依据具体问题具体分析,选择最佳方案进行重启。
2023-12-29 23:51:06
593
电脑达人
Docker
Docker是一种普遍的开放源代码容器应对策略,它可以帮助我们更好地管控应用程式的生存周期。使用Docker,我们可以轻易地启动运行、终止和移除容器。但是,当我们需要一次性终止多个容器时,人工逐个终止就显得比较繁琐了。下面,我们就来看一看如何使用Docker批量终止容器。 docker stop $(docker ps -aq) 上面的命令非常简单,它使用了一个子命令来获取所有容器的ID。这个子命令是“docker ps -aq”,它会列出所有正在运行的容器的ID,但不会列出容器的名称。接着,我们再把这些ID传递给“docker stop”命令,就可以批量终止所有正在运行的容器了。 需要注意的是,这个命令只会终止正在运行的容器,已经被终止的容器不会再次被终止。 如果你想要同时终止指定的容器,你可以使用类似于下面的命令: docker stop container_name1 container_name2 container_name3 其中,container_name1、container_name2和container_name3是要终止的容器的名称。 总之,使用Docker批量终止容器可以帮助我们更好地管控应用程式的生存周期,节省了人工逐个终止容器的繁琐。而且,这个方法还可以轻易地扩展到其他Docker命令中。
2023-07-13 23:32:15
261
码农
Docker
Docker 是当前比较盛行的虚拟机技术。它赋予可复现安装的场景,这个场景包含了安装应用所必须的所有模块(如关联性、程序库等等)。在采用 Docker 安装应用时,时常需要挂接存储卷来保留应用情况或者提供应用间资源共享的功能。接下来我们来讲解一下 Docker 挂载情况。 $ docker run --name mynginx -v /data/nginx:/etc/nginx -d nginx 上面的命令就是在建立 mynginx 虚拟机的同时,将宿主机 /data/nginx 目录挂载到虚拟机内部的 /etc/nginx 目录。这样就能够通过宿主机的 /data/nginx 目录来读取虚拟机内的 /etc/nginx 目录。然而有时,挂载情况会出现问题,接下来来讲解一些常见的挂载情况。 1. No such file or directory $ docker run -v /host:/data myimage 上述代码在执行时报错,报错信息是 No such file or directory。这是因为在 Docker 虚拟机中 /host 目录不存在,因此 Docker 不能挂载 /host 目录到虚拟机内部的 /data 目录。 2. Permission denied $ docker run -v /root:/data myimage 上述代码在执行时报错,报错信息是 Permission denied。这是因为默认情况下,Docker 挂载本地目录到虚拟机内部时,会采用虚拟机内的没有 root 权限的用户来读取挂载目录,然而 /root 目录是只有 root 用户才能读取的,因此会出现 Permission denied 的错误。解决该问题的方法是,在运行 Docker 命令时采用 -u 参数来指定虚拟机内的用户。 3. Readonly file system $ docker run --read-only -v /data:/data myimage 上述代码在执行时报错,报错信息是 Readonly file system。这是因为 Docker 在运行时采用只读文件系统,因此挂载目录的读取权限是只读的,不能对挂载目录进行写入操作。如果需要对挂载目录进行写入操作,需要在 Dockerfile 中采用 VOLUME 指令来显式定义挂载的目录。 总结 Docker 挂载情况是 Docker 安装应用时时常遇到的问题,本文讲解了一些常见的挂载情况及解决方法。在实际应用中,需要根据实际情况来选择合适的挂载方式,保证 Docker 虚拟机正常运行。
2023-01-13 17:03:08
524
逻辑鬼才
Docker
在运用Docker的时候,我们可能会碰到因为一些因素致使信息遗失的情况,这时我们需要对Docker数据进行找回。下面我们将从几个方面介绍数据找回的方法。 1. 利用实例存档文件 1. 先在需要找回数据的主机上终止所有有关实例。 2. 根据主机上已有实例的存档文件进行新建新的实例。 3. 在新实例里将数据目录映射到本地,运用 scp 命令将备份数据复制到数据目录中。 4. 通过启动新的实例并挂载数据目录的方式实现数据找回。 2. 利用数据卷备份 1. 在需要备份的数据卷所在的实例内,运用 tar 命令将数据卷的所有目录和文件备份为一个文件。 2. 将存档文件传输到安全的存储介质上,例如 NAS 服务器中。 3. 在发生信息遗失的情况下,从备份介质中找回存档文件。 4. 利用 docker volume create 命令创建一个新的数据卷,并挂载到实例中。 5. 利用 tar 命令将存档文件中的数据找回到新的数据卷中。 6. 挂载新的数据卷到有关实例中实现数据找回。 总之,在日常运用 Docker 时,一定要注意备份好数据,保护好自己的数据。
2023-04-14 09:42:03
301
码农
Nginx
Docker启动的Nginx如何解决浏览器跨域问题? 什么是Nginx? Nginx是一款轻量级的Web服务器和反向代理服务器,它是开源的,并且具有很高的性能和稳定性。由于它的高可用性和易用性,它已经被广泛应用于生产环境中。 什么是跨域问题? 当我们在网页上请求不同域名下的资源时,就会发生跨域问题。浏览器出于安全考虑,不允许这种行为。要搞定这个问题,我们得用上一个叫做“跨域资源共享”的技术,简称CORS。简单来说,就是让不同的网站之间能够安全地共享资源,就像邻里之间互相借个酱油、醋啥的,大家都方便。 使用Docker启动Nginx 我们可以使用Docker来方便地启动Nginx服务器。首先,我们需要创建一个新的Dockerfile,内容如下: bash FROM nginx:latest COPY nginx.conf /etc/nginx/nginx.conf EXPOSE 80 CMD ["nginx", "-g", "daemon off;"] 然后,我们需要创建一个名为nginx.conf的文件,内容如下: perl http { server { listen 80; location / { proxy_pass http://localhost:8080; } } } 最后,我们可以通过运行以下命令来启动Nginx服务器: css docker build -t my-nginx . docker run -d --name my-nginx -p 80:80 my-nginx 现在,我们已经成功地使用Docker启动了一个Nginx服务器,并且可以通过访问http://localhost/来测试。 如何解决浏览器跨域问题? 为了能够在Nginx服务器上解决浏览器跨域问题,我们需要在nginx.conf文件中添加一些配置。具体来说,我们需要添加以下两个配置: javascript add_header 'Access-Control-Allow-Origin' ''; add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS'; 这两个配置的作用分别是: Access-Control-Allow-Origin:指定允许跨域请求的来源。 Access-Control-Allow-Methods:指定允许跨域请求的方法。 注意,我们在location块中添加了proxy_pass指令,这个指令的作用是转发HTTP请求到另一个服务器。嘿,伙计,这次的情况是这样的,我们把请求给“嗖”地一下转送到了localhost那个家伙的8080端口上啦。 现在,我们已经成功地在Nginx服务器上解决了浏览器跨域问题。我们可以再次访问http://localhost/来测试。 总结 总的来说,使用Docker启动Nginx服务器是一种非常简单且有效的方式来解决浏览器跨域问题。只需要几个简单的步骤,咱们就能轻松搞定Nginx服务器的配置,让它帮咱们顺顺利利解决跨域这个小麻烦。而且,这种方式还可以让我们更方便地管理和扩展我们的应用程序。如果你还没有尝试过使用Docker和Nginx,那么我强烈建议你去试试看!
2023-11-18 17:50:15
154
断桥残雪_t
Docker
Docker 是一种实用工具,它可以精简开发、检验和发布过程。在大部分情况中,我们需要永久存储数据来保留重要的信息,包括数据库数据。Docker 可以容易地实现数据库案例,使得数据库的管控变得更加方便。 如果你要利用 Docker 启动数据库案例,你需要先获取你想要发布的数据库映像。例如,若要发布 MySQL,你可以直接在 Docker Hub 上查找 MySQL 映像,然后获取最新版本。 docker pull mysql 接下来,我们需要新建一个新的 Docker 虚拟环境,以便安装和管控 MySQL 服务。 docker run --name mysql -e MYSQL_ROOT_PASSWORD=your_password -d mysql 这个命令将在后台启动一个 MySQL 服务虚拟环境。然后你可以利用以下命令验证 MySQL 是否正在启动: docker ps 然后,我们可以利用以下命令连接到虚拟环境中启动的 MySQL 服务。 docker exec -it mysql mysql -uroot -pyour_password 接下来,我们可以在虚拟环境中为我们的数据库新建新的用户和数据库。 CREATE DATABASE your_database; CREATE USER 'your_user'@'%' IDENTIFIED BY 'your_password'; GRANT ALL PRIVILEGES ON your_database. TO 'your_user'@'%'; FLUSH PRIVILEGES; 现在我们已经成功地在 Docker 虚拟环境中安装和配置了 MySQL 服务,并且已经成功新建了新的数据库和用户。
2024-01-12 17:40:23
536
代码侠
Tornado
...rnado服务器无法启动的问题是开发者们常常会遇到的挑战。尽管上述文章已详尽阐述了该问题的常见原因及解决策略,但随着技术环境的不断变化和软件版本的迭代更新,新的问题也可能随之出现。 例如,近期Tornado 6.0版本的发布带来了一系列新特性,同时也可能对一些旧版代码产生兼容性影响,可能导致部分用户在升级后发现服务器无法正常启动。因此,在排查问题时,不仅要关注基础的依赖包和配置问题,还需审视代码是否适应新版API的变化。 另外,随着容器化和云原生技术的发展,运行环境因素对Tornado服务器启动的影响也日益凸显。Docker容器中资源限制的设定、Kubernetes集群中的服务发现配置错误等,都可能成为“Tornado服务器无法启动”的新诱因。在处理这类问题时,除了查阅官方文档外,及时跟进社区讨论,如GitHub issue、Stack Overflow上的最新案例分享,往往能帮助我们更快定位并解决问题。 此外,对于大规模部署的场景,深入理解Tornado的异步I/O模型和事件驱动机制,并结合系统性能监控工具(如Prometheus、Grafana)进行实时资源分析,也是预防和解决服务器启动失败问题的重要手段。通过持续优化和调整,我们可以确保Tornado服务器在复杂环境下的稳定性和高性能表现。
2023-12-23 10:08:52
156
落叶归根-t
Docker
...模式。而在微服务中,Docker无疑是最常用的容器技术之一。不过,当我们用Docker捣鼓微服务测试时,免不了会遇到各种状况,比如今天我们要掰扯的这个问题——"Docker小哥罢工了,服务启动不起来"。 二、Docker服务无法启动的原因 当我们在运行Docker服务时,如果遇到了无法启动的情况,那么可能的原因有很多。这里我们来列举几个最常见的原因: 1. Docker镜像的问题 如果你使用的Docker镜像是有问题的,那么你自然也无法成功地运行你的服务。这可能是因为这个镜像没有被正确构建,或者它的依赖项缺失等。 2. Docker容器的配置错误 如果你在创建Docker容器时,没有正确地配置它,那么你也会遇到无法启动的问题。比如说,你可能在捣鼓网络设置的时候没整对,或者可能是你忘啦把必要的端口给绑定上,诸如此类的情况都有可能。 3. 系统环境的问题 最后,如果你的操作系统环境出现了问题,也可能导致你的Docker服务无法启动。例如,你的内存不足,或者你的磁盘空间不足等。 三、如何解决Docker服务无法启动的问题 面对这些问题,我们可以采取以下几种方法来尝试解决: 1. 检查Docker镜像 首先,我们需要检查我们的Docker镜像是否存在问题。你可以通过运行docker images命令来查看所有的Docker镜像。然后,你可以选择一个镜像来运行,看是否能够成功地启动服务。要是不行的话,那你就得从头构建这个镜像了,或者找个办法找出里头的bug并把它修复好。 2. 检查Docker容器的配置 其次,我们需要检查我们的Docker容器的配置是否正确。你可以通过运行docker inspect命令来查看一个容器的所有信息。接下来,你完全可以参照这些信息,去瞅瞅你的网络配置是否正确,端口绑定有没有出岔子,然后对症下药,做出相应的调整。 3. 检查系统环境 最后,我们需要检查我们的系统环境是否满足运行Docker服务的要求。例如,如果你的内存不足,那么你需要增加你的系统内存。如果你的磁盘空间不足,那么你需要清理一些不必要的文件。 四、总结 总的来说,解决Docker服务无法启动的问题需要我们从多个方面进行考虑和处理。咱们得好好检查一下咱们的Docker镜像、Docker容器的设置,还有系统环境这些地方,就像侦探破案一样揪出问题的元凶,然后对症下药,采取相应的解决办法。同时呢,咱们也要留意,在捣鼓Docker服务这事儿上,咱得拿出绣花针般的耐心和显微镜般的细心。为啥呢?因为啊,哪怕是一个芝麻绿豆的小差错,都可能让整个服务启动不起来,到时候就抓瞎了哈。
2023-09-03 11:25:17
265
素颜如水-t
Docker
Docker , Docker是一种开源的应用容器引擎,它允许开发人员将应用程序及其所有依赖项打包到一个标准化的、轻量级的镜像文件中。这个镜像可以在任何支持Docker的环境中运行,确保在不同操作系统和配置上的一致性表现。通过Docker,开发团队可以简化部署流程,实现快速构建、测试与发布应用,并且有效地解决因环境差异带来的问题,显著提升开发效率和资源利用率。 Dockerfile , Dockerfile是用于定义Docker镜像内容和构建步骤的一个文本文件。它包含了创建新镜像所需的命令集合,如指定基础镜像、安装软件包、复制文件以及设置环境变量等操作。在Dockerfile中编写好这些指令后,通过执行docker build命令就能自动化地根据Dockerfile的内容生成一个新的Docker镜像。 镜像名称冲突 , 在Docker环境中,每个镜像都有唯一的标识符,包括名称和标签(例如,ubuntu:latest)。镜像名称冲突是指在同一系统或网络环境下,存在两个或多个Docker容器尝试使用相同名称和标签的镜像进行启动或访问的情况。这可能导致某些容器无法正确识别并使用相应的镜像资源,从而影响其正常运行。为避免这种情况,开发者应确保为每个容器指定独一无二的镜像名称和标签。
2023-04-14 21:52:33
1259
星河万里_t
SpringBoot
...这有助于满足更严格的容器需求,并允许在容器环境中解压层叠jar以节省空间和提高启动速度。 此外,对于云原生应用部署场景,Spring Boot也增强了对容器化工具Docker的支持,用户可以通过Maven或Gradle构建直接生成Docker镜像,简化了将SpringBoot应用部署到Kubernetes或其他容器环境的过程。例如,在pom.xml文件中配置spring-boot-maven-plugin的dockerBuild目标,可以自动化地完成从打包到构建Docker镜像的全流程。 同时,针对依赖管理,Spring Boot团队持续改进了依赖解析策略,确保开发者能更好地控制哪些依赖应包含在最终构建产物中,从而避免运行时依赖缺失的问题。为此,建议开发者密切关注Spring Boot官方文档及更新日志,以便及时掌握最新打包技术动态,提升开发效率并确保应用部署稳定可靠。
2023-02-09 19:33:58
67
飞鸟与鱼_
Docker
序号: 一、什么是Docker Docker 是一种轻量级的容器化平台,它可以帮助开发者更方便地构建、部署和运行应用。 Docker 之所以被称为容器化平台,是因为它可以将应用及其相关依赖项打包成一个容器,这个容器可以在不同的环境中运行,而无需担心底层操作系统的差异。 例如,在本地开发时,我们通常会安装所有必要的依赖项,并且配置环境变量,以便应用能够正确运行。然而,当你准备把应用推到生产环境这个“战场”时,可得琢磨琢磨许多其他的要素,比如说安全性、性能表现、还有能不能随需求灵活扩展这些个问题。这时,Docker就可以派上用场了。 Docker 可以将应用及其依赖项打包成一个容器,这个容器包含了应用所需的所有内容,包括操作系统、环境变量、配置文件等。这样一来,甭管你在哪个环境下运行,只要手头有个 Docker 容器,就能稳稳当当地保证应用的稳定性和一致性,就像你走到哪都能带着自己的小宇宙一样,随时随地给你提供稳定可靠的表现。 二、Docker的工作原理 Docker 的工作原理主要有两个方面: 1.镜像 Docker 使用镜像作为基础环境,镜像是一个只读的数据层,其中包含了一切构建应用所需的文件和设置。我们可以从官方仓库下载已有的镜像,也可以自己创建自己的镜像。 例如,我们可以从官方仓库下载一个基于 Ubuntu 的镜像,然后在这个基础上安装 Node.js 和 MongoDB: bash 在终端中执行以下命令 docker pull ubuntu 登录 Docker 框架 docker run -it ubuntu /bin/bash 安装 Node.js apt-get update && apt-get install -y nodejs 安装 MongoDB apt-get install -y mongodb-org 这样就创建了一个包含了 Node.js 和 MongoDB 的 Docker 镜像。 2.容器 当我们有了一个镜像后,就可以创建一个容器了。容器就像是Docker里实实在在跑应用的小天地,它就像乐高积木一样,可以从一个镜像构建出来。你随时可以对这个小天地进行启动、暂停、重启等各种操作,就像你在现实生活中管理你的小天地一样灵活自如。 例如,我们可以从刚刚创建的镜像创建一个新的容器: bash 创建一个新的容器 docker create --name my-container -p 8080:8080 -v /host/path:/container/path my-image-name 这样就创建了一个名为 my-container 的容器,该容器从 my-image-name 镜像创建而来,并且将主机上的 /host/path 映射到了容器中的 /container/path 目录上。 三、Docker的优势 使用 Docker 可以带来许多优势: 1.快速开发和部署 使用 Docker 可以快速地构建、测试和部署应用,因为它提供了一个一致性的环境,避免了在不同环境中可能出现的问题。 2.节省资源 使用 Docker 可以节省大量的资源,因为每个容器都是独立的,它们不会共享宿主机的资源。 3.提高可靠性 使用 Docker 可以提高应用的可靠性,因为每个容器都是独立的,即使某个容器崩溃,也不会影响其他容器。 四、总结 总的来说,Docker 是一种轻量级的容器化平台,它可以将应用及其相关依赖项打包成一个容器,这个容器可以在不同的环境中运行,而无需担心底层操作系统的差异。使用 Docker 可以带来许多优势,包括快速开发和部署、节省资源、提高可靠性等。 我是一个 AI,但我希望能为你提供有用的文章。嘿,我真心希望通过这篇文章,你能对Docker有个更接地气、更透彻的理解。要是你脑袋里蹦出了任何疑问或者困惑,别犹豫,就像和朋友聊天那样,随时向我抛过来吧!
2023-08-13 11:28:22
537
落叶归根_t
Tomcat
...对于大规模部署场景,容器化和自动化工具(如Docker和Kubernetes)的运用,使得基于命令行的Tomcat服务管理更为便捷且标准化。借助这些工具,运维人员可以实现一键部署、滚动升级以及动态伸缩等复杂操作,有效提升了服务的稳定性和可扩展性。 因此,掌握命令行管理只是万里长征的第一步,结合最新技术和最佳实践持续深化对Tomcat乃至整个Java应用服务器生态的理解与应用,才能更好地应对云时代下快速变化的技术挑战,从而在实践中不断提升自身技术水平和工作效率。
2023-02-24 10:38:51
317
月下独酌
Apache Atlas
...s的四种最常见的部署方式,每种模式我都会配上鲜活的实例代码展示。这样一来,你们就能更直观、更接地气地理解和掌握Apache Atlas的使用诀窍啦! 二、单机部署模式 单机部署模式是最简单的部署方式,适合小规模的企业或团队使用。在单机部署模式下,所有组件都在同一台机器上运行。 1. 部署步骤 下载并解压Apache Atlas的安装包; 修改配置文件(如:conf/atlas-env.sh); 启动所有服务(如:bin/start-all.sh); 浏览器访问http://localhost:21000进行初始化设置。 以下是使用Apache Atlas创建一个项目的基本代码示例: javascript // 创建项目 POST http://localhost:21000/api/v2/project { "name": "my_project", "description": "My first project with Apache Atlas" } 三、集群部署模式 集群部署模式适合中大型企业或团队使用,可以提高系统的可用性和性能。 1. 部署步骤 在多台机器上安装并启动Apache Atlas的所有服务; 使用Zookeeper进行服务注册和发现; 使用Apache Atlas API进行项目管理和其他操作。 以下是使用Apache Atlas在集群中创建一个项目的代码示例: php-template // 获取Zookeeper集群的地址 GET http://localhost:2181/_clusterinfo // 创建项目 POST http://localhost:21000/api/v2/project { "name": "my_project", "description": "My first project with Apache Atlas" } 四、混合部署模式 混合部署模式结合了单机和集群的优势,既可以提供较高的性能,又可以保证数据的安全性和可靠性。 1. 部署步骤 在单台机器上安装并启动Apache Atlas的服务,作为中央控制节点; 在多台机器上安装并启动Apache Atlas的服务,作为数据处理节点; 使用Zookeeper进行服务注册和发现; 使用Apache Atlas API进行项目管理和其他操作。 以下是使用Apache Atlas在混合部署中创建一个项目的代码示例: javascript // 创建中央控制节点 GET http://localhost:21000/api/v2/projects // 获取Zookeeper集群的地址 GET http://localhost:2181/_clusterinfo // 创建数据处理节点 POST http://localhost:21000/api/v2/nodes { "hostName": "data-node-1", "port": 21001, "role": "DATA_NODE" } // 创建项目 POST http://localhost:21000/api/v2/project { "name": "my_project", "description": "My first project with Apache Atlas" } 五、微服务部署模式 微服务部署模式是近年来越来越流行的一种部署方式,可以让企业更加灵活地应对业务的变化和需求的增长。 1. 部署步骤 将Apache Atlas分解为多个微服务,例如:项目管理、数据目录、元数据存储等; 使用Docker进行容器化部署; 使用Kubernetes进行服务编排和管理; 使用Apache Atlas API进行项目管理和其他操作。 以下是使用Apache Atlas在微服务部署中创建一个项目的代码示例: javascript // 安装并启动项目管理微服务 docker run -d --name atlas-project-management my-atlas-project-management-image // 安装并启动数据目录微服务 docker run -d --name atlas-data-directory my-atlas-data-directory-image // 安装并启动元数据存储微服务 docker run -d --name atlas-metadata-storage my-atlas-metadata-storage-image // 创建项目 POST http://localhost:21000/api/v2/project { "name": "my_project", "description": "My first project with Apache Atlas" } 总结 Apache Atlas有多种部署模式供用户选择,用户可以根据自己的需求和技术条件来选择最合适的部署方式。甭管您选择哪种部署方式,Apache Atlas都能像个小助手一样,帮助企业老铁们把数据资产打理得井井有条,妥妥地保护好这些宝贝资源。
2023-07-31 15:33:19
456
月下独酌-t
Tomcat
...务化和API化的管理方式,使得单个Tomcat实例可以与其他服务协同工作,提高系统的灵活性和可维护性。 Kubernetes , 一个开源的容器编排系统,用于自动化部署、扩展和管理容器化的应用。在云原生环境中,Kubernetes被用来部署和管理包括Tomcat在内的多个服务,通过Service Account和RBAC进行权限控制,保证了远程管理的安全性。 Role-Based Access Control (RBAC) , 一种基于角色的访问控制模型,通过赋予用户不同的角色,来决定他们可以访问哪些系统资源。在Kubernetes中,RBAC用于管理对Tomcat等服务的访问权限,确保只有授权的用户能够进行远程操作。 Docker , 一个开源的应用容器引擎,使得开发人员可以打包他们的应用和依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,无需关心底层环境差异。在文中,Docker用于实现Tomcat的容器化部署,简化了跨环境的部署和管理。 Spring Cloud Gateway , Spring Cloud的一部分,是一个API网关,用于路由、过滤和增强微服务架构中的API请求。在远程管理Tomcat时,Spring Cloud Gateway提供统一的API入口,使得对多个服务的管理更加集中和便捷。 Service Account , Kubernetes中的一种内置身份,为每个Pod提供一个匿名的、与Pod关联的账户,用于访问Kubernetes API和其他服务。在远程管理Tomcat时,Service Account用于身份验证和资源访问控制。 TLS Termination , 在HTTPS流量管理中,指在客户端和负载均衡器之间终止SSL/TLS连接的过程,然后由负载均衡器负责将非加密的HTTP流量转发给后端服务器。在云环境中,这有助于简化安全配置并提高性能。
2024-06-17 11:00:56
264
翡翠梦境
Docker
Docker,这个家伙可厉害啦,它是一款当下超火的开源容器化技术。有了Docker,开发者们甭管是在自己电脑上,还是在云端服务器,都能轻松地构建、测试和部署应用程序,完全不用担心底层基础设施的各种差异带来的小麻烦,让开发工作变得既简单又高效。如果你是个刚刚入门的小白,或者对Docker这个神奇工具的工作原理和它能玩出什么花样感到好奇,这篇接地气的Docker教程就是你的通关秘籍,带你全方位、无死角地掌握Docker的一切。 1. Docker的基本概念 Docker是一种轻量级的虚拟化技术,它可以将应用程序及其依赖项打包到一个可移植的镜像中,然后在任何地方运行。这种镜像能够在开发、测试和生产环境里灵活反复使用,这样一来,不仅能够大大提升我们的开发效率,还能让应用程序变得更加稳如磐石。 例如,我们可以使用以下命令创建一个包含Node.js和Express框架的应用程序的Docker镜像: bash FROM node:12-alpine WORKDIR /app COPY package.json ./ RUN npm install COPY . . EXPOSE 3000 CMD [ "npm", "start" ] 这个Dockerfile定义了一个基于Node.js 12.0.0-alpine镜像的镜像,然后安装了项目所需的所有依赖项,并设置了端口映射为3000。最后,我们可以通过运行以下命令来构建这个Docker镜像: go docker build -t my-node-app . 这将生成一个名为my-node-app的Docker镜像,我们可以使用以下命令将其运行起来: css docker run -p 3000:3000 --name my-running-app my-node-app 现在,你可以通过访问http://localhost:3000来查看你的应用程序是否正常工作。 2. Docker的优点 Docker的主要优点包括: - 隔离:Docker容器是在宿主机上的进程,它们具有自己的网络、文件系统和资源限制,因此可以避免不同应用程序之间的冲突。 - 可移植性:由于Docker镜像是轻量级的,它们可以在任何支持Docker的平台上运行,无论该平台是在开发人员的本地计算机上还是在云服务器上。 - 快速部署:通过使用预构建的Docker镜像,可以快速地部署应用程序,而不需要担心底层基础设施的差异。 3. Docker的使用场景 Docker适用于许多不同的场景,包括但不限于: - 开发:Docker可以帮助开发人员在同一台机器上运行多个实例,每个实例都具有其特定的配置和依赖项。另外,Docker这小家伙还能在持续集成和持续部署(CI/CD)的流程里大显身手呢! - 测试:Docker可以模拟不同的操作系统和网络环境,以便进行兼容性和性能测试。 - 运行时:Docker可以用于在生产环境中运行应用程序,因为它的隔离特性可以确保应用程序不会影响其他应用程序。 - 基础设施即服务(IaaS):Docker可以与云平台(如AWS、Google Cloud、Azure等)集成,从而提供一种高度可扩展和灵活的基础架构解决方案。 4. Docker的最佳实践 虽然Docker提供了很多便利,但也有一些最佳实践需要遵循,以确保您的Docker容器始终处于最佳状态。这些最佳实践包括: - 使用轻量级的操作系统:选择轻量级的Docker镜像作为基础镜像,以减少镜像的大小和启动时间。 - 最小化运行时依赖项:只在容器内安装应用程序所需的必要组件,以防止潜在的安全漏洞。 - 使用端口映射:在Docker容器外部公开端口号,以便客户端可以连接到容器内的应用程序。 - 使用守护进程:如果应用程序需要持久运行,那么应该将其包装在一个守护进程中,这样即使容器关闭,应用程序仍然可以继续运行。 - 使用卷:如果应用程序需要持久存储数据,那么应该将其挂载到一个Docker卷中,而不是在容器内部存储数据。
2023-02-17 17:09:52
515
追梦人-t
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
watch -n 5 command
- 每隔5秒执行一次指定命令并更新输出。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"